Pourquoi vous devriez probablement arrêter de demander à ChatGPT de rôtir votre Instagram
Publié: 2024-08-22Avez-vous déjà eu envie d'être humilié par un chatbot IA ? Eh bien, apparemment, vous n'êtes pas seul, avec près de 400 000 personnes participant à une tendance sur les réseaux sociaux où ChatGPT « rôtit » publiquement leur flux Instagram.
Les résultats sont sauvages, avec l'outil d'IA appelant tout, des selfies de salle de sport grinçants aux choix de garde-robe douteux – fournissant aux utilisateurs un contenu infini pour leurs histoires Instagram et laissant encore plus de gens se demander… quand ChatGPT est-il devenu si drôle ?
Pourtant, avec la tendance virale de ChatGPT qui incite des vagues d'utilisateurs à transmettre des informations personnelles, le défi relance également d'anciennes conversations autour des pratiques douteuses de collecte de données d'OpenAI et de l'approche terne de la sécurité. Poursuivez votre lecture pour en savoir plus sur la tendance virale la plus importante d'Instagram et sur les risques associés au partage de données avec ChatGPT.
Les utilisateurs demandent à ChatGPT d'insulter leur profil Instagram
Si vous avez été sur Instagram récemment, vous avez probablement été inondé de rôtis de longs paragraphes générés par l'IA détruisant les flux de vos collègues utilisateurs.
La tendance « rôtir mon alimentation » a déferlé sur les médias sociaux comme une traînée de poudre. Au moment de la rédaction de cet article, 395 000 personnes ont partagé leurs résultats dans leur story grâce à un modèle partageable qui vous permet de participer en quelques clics – et sa viralité n'est guère surprenante.
ChatGPT ne contient aucun coup de poing. Ses rôtis d'IA, étonnamment drôles, n'ont pas peur de devenir personnels, le chatbot scrutant chaque partie du flux Instagram d'un utilisateur, de ses passe-temps et choix vestimentaires à son contenu de voyage.
🔎 Vous souhaitez naviguer sur le Web en privé ? 🌎 Ou apparaître comme si vous étiez dans un autre pays ?
Obtenez un énorme 86 % de réduction sur Surfshark avec cette offre spéciale tech.co.
C'est le même travail du génie de l'IA qui a félicité Tech.co d'être « la version Internet d'une tasse de café tiède – complètement oubliable et tout aussi décevante ». Aïe – nous ferons semblant de ne pas être offensés par cela.
Demander à ChatGPT de me rôtir :
« Stefanos Tsitsipas : le gars qui passe plus de temps à philosopher sur Twitter qu'à servir un solide deuxième service. Il est le seul joueur capable de transformer un simple changement en une conférence TED sur la mythologie grecque tout en revenant sur le terrain avec…
– Stefanos Tsitsipas (@steftsitsipas) 19 août 2024
Bien qu'il soit florissant sur Instagram, les origines du défi remontent à X – en particulier, une publication virale dans laquelle la star du tennis grec Stefanos Tsitsipas demande au populaire chatbot IA de le rôtir. Le message, qui décrit Tsisipas comme un « gars qui passe plus de temps à philosopher sur Twitter qu’à servir un solide deuxième service », a reçu plus de 451 000 vues en une journée et a engendré un certain nombre de tendances de copie sur d’autres plateformes de médias sociaux.
Quand ChatGPT est-il devenu drôle ?
La réputation de ChatGPT en tant que « couteau suisse de l’IA » est à la base de sa popularité. En ce qui concerne ses utilisations, la limite est vraiment votre imagination (plus sa limite de 4 096 caractères), le chatbot étant utilisé pour rédiger des essais, coder des programmes informatiques, réfléchir à des idées commerciales, etc.
Cependant, malgré sa polyvalence, ChatGPT n'a pas toujours été connu pour être drôle, et son manque d'esprit a en fait été étayé par la recherche. L'année dernière, les chercheurs allemands Sophie Jentzsch et Kristian Kersting ont décidé de tester le potentiel comique de l'IA générative en demandant au ChatGPT3.5 d'OpenAI de leur raconter une blague 1 008 fois de suite.
Le chatbot leur a proposé des variations sur l'une des 25 configurations de blagues dans plus de 90 % du temps, ce qui suggère que le répertoire comique de ChatGPT a probablement été appris au cours de ses phases de formation et non généré spontanément. L'étude a révélé que les blagues de ChatGPT « ne retenaient pas non plus beaucoup d'examen logique », ce qui, dans un langage non académique, signifie qu'elles n'avaient pas beaucoup de sens.
Mais avant que les humoristes puissent pousser un ouf de soulagement, ces résultats sont loin de faire l’unanimité. En fait, des recherches récentes suggèrent que le chatbot est en réalité plus drôle que la majorité des humains, avec 70 % des participants préférant les plaisanteries de ChatGPT à leur propre espèce, et les chercheurs concluant que le chatbot peut « produire un humour écrit d'une qualité qui dépasse celle des profanes ». capacités ».
À vrai dire, l’humour est subjectif, donc analyser objectivement le « drôle » d’un chatbot ne sera jamais facile. Pourtant, à mesure qu'OpenAI travaille dur pour améliorer les capacités de ChatGPT, l'IA ne fera que devenir de mieux en mieux dans la maîtrise des compétences traditionnellement humaines telles que les blagues et la pensée latérale. Mais alors que ChatGPT est le fer de lance d’un autre moment viral sur Instagram, devrions-nous même faire confiance à ce chatbot avec nos données ?
Le côté le plus sombre de la tendance virale « Roast Me » de ChatGPT
Alors que la tendance « rôtissez-moi » de ChatGPT prend de l'ampleur, des milliers d'utilisateurs ont volontairement transmis des données personnelles sans trop y penser. Cependant, alors que ChatGPT amuse les utilisateurs d'Instagram avec des zingers générés par l'IA, son créateur OpenAI continue de susciter des réactions négatives quant à son approche de la sécurité des données.
OpenAI admet qu'elle enregistre toutes les conversations que vous avez avec le chatbot à des fins de formation, mais lorsqu'il s'agit de déterminer exactement comment il est utilisé, l'entreprise est notoirement silencieuse. La politique de confidentialité d'OpenAI explique qu'elle peut également partager vos informations personnelles avec des tiers, suscitant des inquiétudes quant à la marchandisation des données des utilisateurs.
De plus, des recherches menées par l'Université de Caroline du Nord ont montré que la transmission d'informations sensibles pourrait être irréversible. En raison de la taille du grand modèle de langage (LLM) qui alimente ChatGPT, l'étude a conclu qu'il est extrêmement difficile de supprimer définitivement vos données de l'outil d'IA par rapport à d'autres chatbots, et que les informations « supprimées » peuvent souvent encore être récupérées.
Mais qu’est-ce que cela signifie réellement ? Eh bien, à moins que vous ne choisissiez intentionnellement de partager vos informations, cela signifie que les données que vous saisissez dans ChatGPT seront utilisées pour former les futurs modèles.
Même si vous faites entièrement confiance à OpenAI pour vos données, le profil de sécurité douteux de l'entreprise suscite des inquiétudes quant au fait que des informations sensibles tombent entre de mauvaises mains. En 2023, l’entreprise de la Silicon Valley a été victime d’une cyberattaque après qu’un hacker ait accédé aux messageries internes. Bien qu'aucune donnée utilisateur n'ait été compromise, les internes de l'entreprise révèlent que l'incident était évitable et qu'OpenAI n'en faisait pas assez pour protéger les données confidentielles des cybercriminels et des adversaires étrangers comme la Chine.
Pour vous protéger, nous vous recommandons de partager uniquement avec ChatGPT des informations qui ne vous dérangent pas d'être potentiellement partagées en ligne. Lorsqu'il s'agit de rôtir votre Instagram, nous vous déconseillons de partager des captures d'écran qui exposent des informations personnelles telles que des noms et des adresses, des images claires de votre visage et des exemples de votre travail créatif.
Apprenez-en plus sur ce qu'il ne faut pas partager avec ChatGPT ici .