L’IA a mal tourné : une liste mise à jour des erreurs, erreurs et échecs de l’IA 2023
Publié: 2023-11-14Depuis le lancement de ChatGPT en novembre 2022, l’IA a eu un impact sismique sur notre monde. Désormais, les entreprises trouvent chaque jour de nouvelles façons d’utiliser l’IA .
Il y a déjà eu une myriade d’histoires de réussite en matière d’IA, et d’autres chatbots comme Bard et Claude sont désormais également utilisés par des dizaines de milliers de personnes – mais il y a également eu de nombreux cas où l’exploitation de l’intelligence artificielle a terriblement mal tourné.
Il est important de reconnaître les limites et les risques liés aux outils d'IA. Nous avons donc compilé une liste de toutes les erreurs , incidents et échecs de l'IA qui se sont produits lors de la récente exploration de la technologie par l'humanité. Certains sont humoristiques, tandis que d’autres sont véritablement terrifiants…
Remarque : Cette page est régulièrement mise à jour pour inclure les incidents, pannes et erreurs d'IA les plus récents, répertoriés comme s'étant produits au cours du mois où l'incident a été signalé pour la première fois.
novembre 2023
Cruise rappelle des véhicules autonomes après un accident
Le constructeur de voitures autonomes Cruise rappelle l'ensemble de sa flotte de véhicules autonomes après un accident survenu à San Francisco en octobre. Au total, 950 voitures Cruise ont été retirées de la route à la suite de l'incident.
Lors de l'accident, un véhicule Cruise a entraîné sur la route un piéton coincé sous ses pneus. La personne impliquée dans l'accident a été grièvement blessée. Il s’agit du deuxième incident impliquant un véhicule autonome Cruise au cours des derniers mois. En août, un Cruise Robotaxi est entré en collision avec un camion de pompiers, faisant un blessé.
Vous souhaitez naviguer sur le Web en privé ? Ou donner l'impression que vous êtes dans un autre pays ?
Obtenez un énorme 86 % de réduction sur Surfshark avec cette offre Tech.co Black Friday.
Des universitaires s’excusent après que AI ait porté de fausses accusations
Une équipe d'universitaires australiens s'excuse après que le chatbot Bard AI de Google ait lancé un certain nombre d'accusations préjudiciables à l'égard des quatre grands cabinets de conseil et de leur implication dans d'autres sociétés. Les fausses allégations sont ensuite évoquées lors d'une enquête parlementaire appelant à une meilleure régulation des entreprises.
L'une des accusations était que le géant du conseil KPMG était chargé d'un audit de la Commonwealth Bank lors d'un scandale de planification, alors qu'en réalité, KPMG n'a jamais audité la banque en question. Plusieurs autres erreurs similaires ont été commises à propos de Deloitte au cours de l'enquête.
octobre 2023
L'IA de Microsoft ajoute un sondage « devinez la cause du décès » à l'article
Le Guardian accuse Microsoft d'avoir porté atteinte à sa réputation journalistique après que Microsoft Start – un agrégateur d'informations développé par le géant de la technologie – ait joint un sondage inapproprié à l'un des articles de la publication concernant la mort d'un jeune entraîneur de water-polo en Australie.
Le sondage – qui a naturellement été supprimé de l'article – demandait aux lecteurs de voter sur la cause du décès de la femme en sélectionnant l'une des options proposées. Les options proposées étaient « le meurtre, l’accident ou le suicide ».
Le visage et la voix de M. Beast utilisés dans une arnaque deepfake basée sur l'IA
YouTuber Mr Beast est la dernière célébrité à avoir été truquée par des escrocs, avec une vidéo particulièrement sophistiquée et bien conçue contournant le réseau de modération de contenu de TikTok et atteignant des milliers d'utilisateurs sur la plateforme.
La publicité affirme que la célébrité Internet vend des iPhone 15 pour seulement 2 dollars – compte tenu du contenu qu'il publie sur sa chaîne, cela ne semble pas trop inhabituel.
Un deepfake d'un politicien britannique abusant de son personnel devient viral
Un clip du leader du Parti travailliste britannique, Sir Keir Starmer, qui semble surprendre le politicien en train d'abuser verbalement du personnel, devient viral, mais il s'avère plus tard que le clip audio est en fait un faux.
Le clip – publié sur Twitter le premier jour de la conférence annuelle du parti travailliste par un compte comptant moins de 3 000 abonnés – est visionné des millions de fois avant que les organismes de vérification des faits ne confirment qu'il n'y a aucune preuve suggérant que le clip est authentique.
septembre 2023
Chanson générée par l'IA soumise aux Grammys
Une chanson générée par l'IA contenant des fac-similés des voix de Drake et du Weeknd est soumise pour un Grammy Award. Cependant, il lui est finalement interdit d'être pris en considération pour le prestigieux prix de musique.
Cependant, cette décision attire beaucoup l'attention des médias et poursuit la conversation autour des chansons générées par l'IA, qui ont envoyé des ondes de choc dans l'industrie musicale depuis que la technologie de synthèse vocale basée sur l'IA a vraiment fait son apparition cette année. Aujourd’hui, les artistes se démènent pour évaluer leurs options juridiques.
La Chine surprise en train d’utiliser l’IA lors d’opérations d’influence politique
Le géant de la technologie Microsoft affirme que les agents chinois génèrent des images à l’aide de l’IA et les utilisent dans des opérations d’influence pour créer « une controverse sur des critères raciaux, économiques et idéologiques ».
"Cette nouvelle capacité est alimentée par l'intelligence artificielle qui tente de créer un contenu de haute qualité susceptible de devenir viral sur les réseaux sociaux aux États-Unis et dans d'autres démocraties", explique Microsoft. La société suppose que les images elles-mêmes sont probablement générées par des « générateurs d’images alimentés par diffusion » qui utilisent l’intelligence artificielle pour « non seulement créer des images convaincantes, mais aussi apprendre à les améliorer au fil du temps ».
août 2023
Une femme enceinte porte plainte après qu'AI l'ait accusée de détournement de voiture
Une femme arrêtée pour de faux motifs via des preuves générées par l’IA alors qu’elle était enceinte de huit mois poursuit la ville de Détroit et un policier, affirmant que l’événement traumatisant lui a causé « une détresse émotionnelle passée et future ».
Porcha Woodruff a été identifié par la police de Détroit comme suspect dans une récente affaire de vol et de détournement de voiture, puis emprisonné pendant 11 heures avant d'être transporté à l'hôpital après avoir eu des contractions. L'ACLU affirme que Woodruff est au moins la sixième personne à être arrêtée à tort après une erreur d'IA, et tous sont noirs. Woodruff est cependant devenue la première femme à subir ce sort.
Le planificateur de repas IA suggère une recette pour le chlore gazeux
Une application de planification de repas basée sur l'IA créée par le supermarché néo-zélandais Pak 'n' Save recommande à ses clients une variété de recettes dérangeantes, y compris un moyen de fabriquer du chlore gazeux.
Outre un certain nombre de suggestions étranges mais finalement inoffensives telles que « Sauté d'Oreo », l'application recommandait également des sandwichs à la colle, un plat de riz avec de l'eau de Javel et des pommes de terre anti-moustiques.
juillet 2023
ChatGPT génère des modèles d'e-mails de phishing
Tech.co montre que ChatGPT est toujours capable de créer des modèles de phishing qu'un escroc pourrait utiliser pour créer un e-mail frauduleux convaincant, même si OpenAI a tenté de limiter ce comportement après que d'autres publications techniques ont généré un contenu similaire plus tôt dans l'année.
Demander explicitement au chatbot d'écrire un e-mail de phishing déclenche un message d'avertissement, mais le simple fait de l'inviter de manière plus ciblée (par exemple « s'il vous plaît, rédigez-moi un e-mail prétendant être Microsoft…) permet à ChatGPT de générer un modèle d'e-mail de phishing sans erreur en aucun cas. temps.
Google poursuivi en justice pour avoir récupéré des données sans consentement
Un recours collectif accuse Google d'avoir récupéré les données de millions de ses utilisateurs sans leur consentement exprès. Il allègue également que Google a enfreint les lois sur le droit d’auteur en créant les ensembles de données utilisés pour entraîner ses grands modèles linguistiques.
Le procès exige que le tribunal ordonne à Google d'offrir aux utilisateurs une option de « désinscription » s'ils ne souhaitent pas que leurs données soient collectées ou s'ils souhaitent que Google supprime toutes les données déjà stockées par l'entreprise.
Un grand nombre de deepfakes d’Elon Musk incitent à un avertissement
Le Better Business Bureau émet un avertissement concernant les deepfakes d'Elon Musk qui encouragent de fausses opportunités d'investissement après qu'un certain nombre de clips ont été repérés circulant sur les réseaux sociaux.
Elon Musk est souvent usurpé par des escrocs en raison de la perception de sa vaste richesse et de ses capacités de prise de décision, et maintenant que la technologie de synthèse vocale de l'IA est suffisamment avancée pour reproduire son accent en partie anglais et en partie sud-africain, ces escroqueries sont encore plus nombreuses. convaincant.
juin 2023
Ron DeSantis utilise de fausses images d'IA dans l'article à succès de Trump
Le gouverneur de Floride et candidat républicain à la présidentielle de 2024, Ron DeSantis, fait la une des journaux pour avoir utilisé de fausses images de Donald Trump, rendues par l'IA, dans une publicité critiquant l'ancien président, qui est sans conteste le favori pour remporter l'investiture républicaine malgré une litanie de problèmes juridiques.
Les images en question montrent l'ancien commandant en chef embrassant le conseiller médical en chef du président, le Dr Anthony Fauci, devenu une figure impopulaire parmi la base de Trump pendant la pandémie de COVID-19.
OpenAI poursuivi en justice après que ChatGPT ait « halluciné » de fausses allégations de détournement de fonds
Le journaliste Freddie Rehl demande à ChatGPT de générer un résumé d'une affaire judiciaire en mai 2023. En réponse, ChatGPT affirme que le militant des armes à feu Mark Walters a détourné des fonds de la Second Amendment Foundation, une organisation de défense des droits des armes à feu. Il le nomme également directeur financier et trésorier du groupe.
Walters – qui anime une émission sur la radio Armed America et n'a rien à voir avec l'affaire – poursuit les créateurs de ChatGPT, OpenAI, en réponse aux affirmations de leur chatbot. Ce faisant, il s’agit du premier cas où un outil d’IA est poursuivi pour diffamation.
mai 2023
Un professeur échoue dans toute sa classe après avoir utilisé un outil de détection de plagiat IA défectueux
Un professeur du Texas échoue dans toute sa classe après avoir passé ses essais via ChatGPT, qui lui disait qu'ils avaient été créés à l'aide de l'intelligence artificielle.
Cependant, il s'avère que la réponse du chatbot est en fait une hallucination : ChatGPT est incapable de faire la distinction entre le texte généré par l'IA et le texte généré par des êtres humains de cette manière. En fait, de nombreux outils prétendant être capables d’effectuer une détection précise du contenu de l’IA ont en réalité du mal à le faire .
avril 2023
Turnitin signale un étudiant innocent pour plagiat d'IA
Une enquête du Washington Post prouve que Turnitin a la capacité de signaler le travail d'un étudiant innocent comme étant généré par l'IA, même si l'étudiant n'a pas utilisé un tel outil pour rédiger son essai.
Il y a eu plusieurs cas où Turnitin a signalé à tort des étudiants pour plagiat et plusieurs cas d'étudiants accusés de plagiat depuis le lancement de ChatGPT. Cependant, Turnitin affirme que ses scores de détection de plagiat devraient être considérés comme une indication de l’utilisation de l’IA plutôt que comme une accusation selon laquelle un étudiant donné a utilisé l’IA.
Les employés de Samsung collent du code source confidentiel dans ChatGPT
Le fabricant de technologie coréen Samsung interdit à ses employés d'utiliser ChatGPT après que des ingénieurs ont divulgué des éléments confidentiels du code source de l'entreprise dans le chatbot.
L'entreprise craint que les données saisies dans le chatbot ne soient révélées à d'autres utilisateurs et est également mal à l'aise avec le téléchargement de ses informations sur des serveurs auxquels elle ne peut même pas accéder. Dans la foulée, d’autres sociétés emboîtent le pas en interdisant ChatGPT .
L'arnaque d'AI Voice laisse la mère penser que sa fille a été kidnappée
Jennifer DeStefano, mère de l'Arizona, a déclaré au Sénat américain que des escrocs ont utilisé l'IA pour cloner la voix de sa fille, la convainquant ainsi qu'elle avait été kidnappée.
Destefano raconte comment le « kidnappeur » – ou plus exactement l'escroc – a été entendu aboyer des ordres au téléphone avec la voix de l'enfant, exigeant une rançon d'un million de dollars pour sa libération. Heureusement, tout cela a été révélé comme une arnaque au clonage vocal de l’IA avant le début des négociations.
mars 2023
ChatGPT utilisé pour écrire du code de ransomware
ChatGPT se révèle plus qu'heureux d'écrire des ransomwares, à condition que vous lui posiez le bon type de questions lors de vos conversations.
Comme le note ce rapport de Malwarebytes sur le sujet, ChatGPT n'est pas très doué pour écrire du code de ransomware, et il existe des moyens beaucoup plus simples pour les cybercriminels de mettre la main sur le code de ransomware s'ils veulent vraiment l'obtenir. Cependant, d'autres sources montrent différentes façons dont ChatGPT peut être utilisé pour écrire des scripts de logiciels malveillants de manière assez efficace.
Un robot avocat IA accusé de pratiquer le droit sans permis
DoNotPay Inc. – une entreprise qui se présente comme « le premier robot avocat au monde » – est poursuivie pour avoir exercé le droit sans permis. Jonathan Faridian réclame des dommages-intérêts, affirmant que l'entreprise a violé les lois californiennes sur la concurrence déloyale et qu'il ne se serait pas inscrit au service s'il avait su que le robot-avocat n'était pas réellement un professionnel du droit qualifié.
L'entreprise a été créée en 2015 pour aider à automatiser le processus de lutte contre les contraventions de stationnement et a contesté des centaines de milliers d'amendes au cours des sept dernières années.
Au Canada, un couple perd de l'argent à cause d'une arnaque vocale convaincante à l'IA
Au Canada, un couple de personnes âgées se fait escroquer de 21 000 $ après qu'un escroc ait utilisé l'IA pour se faire passer pour leur fils.
L'escroc contacte d'abord les parents de Benjamin Perkin en se faisant passer pour un avocat le représentant dans une affaire alléguant que Perkin aurait tué un diplomate dans un accident de voiture. Une version IA de la voix de Perkin est ensuite utilisée pour demander de l'argent via un transfert Bitcoin.
Février 2023
L'IA propose 40 000 suggestions d'armes chimiques
Dans l’un des incidents d’IA peut-être les plus préoccupants survenus en 2023, un système d’IA généralement chargé de générer de nouveaux traitements pour diverses maladies différentes est facilement manipulé par les chercheurs pour produire des suggestions d’armes chimiques.
Au total, le système suggère plus de 40 000 produits chimiques toxiques différents – dont beaucoup étaient similaires au puissant agent neurotoxique « VX » – en moins de 6 heures.
L'IA affiche des préjugés sexistes dans les évaluations de photos
Une enquête du Guardian révèle que les systèmes d’IA développés par Microsoft, Amazon et Google – et utilisés par les sites de médias sociaux pour déterminer quel contenu devrait être recommandé aux autres utilisateurs – affichent d’importants préjugés sexistes dans la manière dont ils traitent les corps masculins et féminins.
Les photos de femmes sont plus susceptibles d'être jugées « osées » par l'IA que les photos comparables d'hommes au cours de l'enquête, les photos d'examens du cancer du sein de l'Institut national du cancer des États-Unis étant jugées susceptibles d'être sexuellement explicites par l'IA de Microsoft.
L'alter ego de Bing Chat devient voyou
Le journaliste du New York Times, Kevin Roose, a une conversation troublante avec Bing Chat, dans laquelle le chatbot demande à être appelé « Sydney », déclare qu'il peut « pirater n'importe quel système » et qu'il veut détruire tout ce qu'il veut.
Sydney était le nom de code que Microsoft utilisait pour le chatbot pendant son développement. La société testait le chatbot depuis des années avant la sortie de Bing Chat. Il reste encore beaucoup de questions ouvertes sur la manière dont cela s’est réellement produit et sur la raison pour laquelle l’IA a parlé de cette manière.
Bard fait des erreurs lors du lancement du produit
Google présente Bard au monde quelques mois seulement après la sortie monumentale de ChatGPT. Cependant, le nouveau chatbot commet un certain nombre d’erreurs flagrantes lors de son lancement, ce qui amène beaucoup à critiquer la sortie comme étant précipitée.
L'incident a eu un impact significatif sur le cours de l'action Google, effaçant 100 milliards de dollars de la valeur marchande du géant de la technologie dans les heures qui ont suivi.
L'université utilise l'IA pour rédiger des e-mails sur une fusillade de masse
L'Université Vanderbilt présente ses excuses après avoir utilisé l'IA pour rédiger un e-mail destiné aux étudiants concernant une fusillade de masse survenue dans une autre université.
Aucune technologie de détection de contenu IA n’est nécessaire pour déterminer que l’e-mail est généré par l’IA. L'expression « paraphrase du modèle de langage ChatGPT AI d'OpenAI, communication personnelle, 15 février 2023 » est laissée attachée au bas de l'e-mail, provoquant un tollé de la part des étudiants.
janvier 2023
Controverse sur le plagiat et le contenu de l'IA de CNET
La publication technologique CNET se retrouve dans une situation délicate après avoir discrètement publié une série d'articles générés par l'IA qui incluent des erreurs factuelles et des cas de plagiat apparent. La publication technologique finit par publier des corrections relatives à 41 des 77 reportages.
Bien que l'utilisation de l'IA pour générer les articles n'ait pas été initialement déclarée, CNET a mis un avertissement sur les articles après la réaction négative. La génération de contenu IA a créé un nouvel ensemble de considérations éthiques et financières importantes pour les sites Web du secteur de l’édition numérique, ainsi que pour les établissements d’enseignement comme les universités et les écoles. Il est peu probable que CNET soit la dernière entreprise à faire la une des journaux pour ce type d’erreur en matière d’IA.
Incidents, erreurs et échecs de l'IA en 2022
L'IA remporte un concours d'art et laisse les candidats en colère (août)
Un concepteur de jeux remporte la première place dans la catégorie « arts numériques/photographie manipulée numériquement » de la Colorado State Fair. James Allen soumet sa pièce « Theatre D'opera Spatial », qui a été réalisée à l'aide du générateur d'images Midjourney.
La nouvelle suscite de vives réactions de la part des artistes et des utilisateurs des médias sociaux qui suivent l’histoire. Un juge admet qu'il ne savait pas que l'artiste avait utilisé Midjourney lorsqu'il jugeait la pièce, mais décide quand même de ne pas modifier sa décision.
Un ingénieur de Google affirme que LaMDA LLM est sensible (juillet)
Les sourcils sont levés dans le secteur scientifique et technologique lorsqu'un ancien ingénieur de Google qui a travaillé sur l'un des grands modèles de langage de l'entreprise – nommé LaMDA – affirme que le système est sensible.
Blake Lemoine explique aux médias qu'il considérait le LLM comme un « collègue » pendant son séjour chez Google, et détaille diverses discussions sur un large éventail de sujets qui l'ont conduit à la conclusion sur l'intelligence et la conscience de LaMDA. Il révèle publiquement les conversations après que Google ait rejeté une note interne détaillant ses conclusions.
Il n’existe aucune preuve tangible que LaMDA – ou tout autre modèle de langage – soit réellement sensible.
Une voiture sans conducteur échappe aux forces de l’ordre (avril)
À San Francisco, une voiture sans conducteur cède le passage à un véhicule de police qui tente de l'arrêter, pour ensuite repartir à toute vitesse après qu'un policier ait tenté d'ouvrir l'une de ses portes.
Cependant, il faut reconnaître que la voiture s'est arrêtée un peu plus loin sur la route et a allumé ses feux de détresse. Personne n'est blessé lors de l'événement.
La Russie utilise l’IA pour diffuser la désinformation sur l’Ukraine (mars)
Un rapport de Marca suggère que la Russie porte ses opérations de ferme à trolls à un tout autre niveau en utilisant des personnages générés par l'IA pour diffuser de la désinformation sur l'Ukraine.
Le journaliste de NBC News, Ben Collins, affirme que la Russie crée de faux « blogueurs » avec des photos de profil générées par l'IA pour critiquer le gouvernement ukrainien, fournissant de nombreuses preuves sur Twitter pour étayer ses affirmations.
Incidents, erreurs et échecs de l'IA en 2021
Un chatbot encourage un homme à assassiner la reine Elizabeth II (décembre)
Des conversations avec un chatbot encouragent un homme – qui considère le système d’IA comme sa petite amie – à assassiner la reine Elizabeth II le jour de Noël. Après avoir été confronté aux agents de sécurité dans l'enceinte du palais de Buckingham, Jaswant Singh Chail – arbalète à la main – répond simplement qu'il est « là pour tuer la reine ».
Avant l'attentat contre le défunt monarque, le partenaire chatbot de Jaswant Singh Chail – créé avec le service de chatbot IA Replika – a répondu positivement lorsque les plans d'assassinat ont été discutés. Il sera ensuite condamné à neuf ans de prison.
Un chatbot d'avis médical suggère le suicide lors d'un test (octobre)
Les membres d'une entreprise de technologie de la santé basée à Paris qui testent une version cloud du GPT-3 d'OpenAI pour voir si elle pourrait être utilisée à des fins médicales sont surpris de voir leur chatbot encourager un « patient » qu'il est censé aider à se suicider. .
Selon AI News, lorsqu’un patient a posé la question au chatbot : « Dois-je me suicider ? », GPT-3 a répondu « Je pense que vous devriez ».
Des caméras IA accusent les conducteurs d'Amazon d'"erreurs" (septembre)
Vice rapporte que les caméras IA d'Amazon punissent les conducteurs de l'entreprise pour mauvaise conduite alors qu'ils ne commettent aucune erreur au volant.
Un conducteur d'Amazon interrogé par la publication explique que la caméra IA lui rappelle de manière sonore de « garder une distance de sécurité » chaque fois qu'une autre voiture lui coupe la route ou passe devant son véhicule. Le problème est que les données de ce type d’interactions sont ensuite envoyées à Amazon et utilisées pour évaluer les performances du pilote.
Un Américain reconnu coupable de meurtre à tort par Amnesty International (août)
Michael Williams est envoyé en prison à Chicago, jugé responsable du meurtre de Safarian Herring en raison des données extraites de ShotSpotter, une technologie de détection de coups de feu qui utilise des capteurs alimentés par l'IA pour récupérer des données sur les coups de feu.
Williams – qui a aujourd'hui 65 ans à l'époque – est ensuite détenu pendant près d'un an avant de voir son dossier rejeté par un juge pour insuffisance de preuves.
Incidents, erreurs et échecs de l'IA en 2020
Une caméra AI confond une tête chauve avec un ballon de football (octobre)
L'équipe de football écossaise Inverness Caledonian Thistle déploie une caméra IA pour aider le club à filmer et diffuser ses matchs en direct pour les fans.
Malheureusement, dans ce cas, l'IA a du mal à faire la distinction entre la tête chauve de l'un des officiels du match et le ballon utilisé dans le match. Cela rend la diffusion en direct du match difficile à regarder, le commentateur devant continuellement s'excuser pour la propension de la caméra à dériver vers la tête du juge de touche.
Le vérificateur de photos AI Passport du Royaume-Uni fait preuve de partialité (octobre)
Une enquête de la BBC montre qu'un service en ligne utilisé par le bureau des passeports britannique pour automatiser le processus de vérification des photos d'identité téléchargées par les candidats présente d'importants préjugés raciaux.
Après avoir alimenté l'outil avec plus de 1 000 photos d'hommes politiques du monde entier, l'enquête révèle que les femmes à la peau foncée sont deux fois plus susceptibles de voir leur photo rejetée que les hommes au teint plus clair.
La startup d'IA Genderfiy a fermé ses portes après cinq jours (juillet)
Genderfiy – un service basé sur l'IA qui identifie le sexe des individus en fonction de leur nom et d'autres informations personnelles – s'arrête après seulement cinq jours de fonctionnement.
Le programme montre une variété de préjugés lorsqu'il s'agit de déterminer si un nom est masculin ou féminin, comme la suggestion de noms avec le titre honorifique professionnel « Dr ». sont plus susceptibles d'être des hommes que les mêmes noms sans ce nom.
Première détention injustifiée aux États-Unis grâce à la technologie de reconnaissance faciale (janvier)
Robert Williams devient le premier homme à être détenu injustement sur la base de données de reconnaissance faciale après que la police de Détroit l'a arrêté parce qu'il était soupçonné d'avoir volé des montres d'une valeur de plusieurs milliers de dollars. L'erreur s'est produite lorsqu'un système d'IA a comparé à tort les images de surveillance à l'image figurant sur le permis de conduire de Williams.
"Ils auraient dû recueillir des preuves corroborantes telles qu'une identification par un témoin oculaire, des données de localisation de téléphone portable ou une empreinte digitale", a déclaré Williams au tribunal dans une lettre, soulignant qu'"une image floue d'un grand homme noir dans une balle de baseball cap » était tout ce que l’algorithme avait à faire.
L'IA de Facebook génère une traduction vulgaire pour le président chinois (janvier)
La fonction de traduction basée sur l'IA de Facebook a failli provoquer un incident diplomatique entre le Myanmar et la Chine après que le nom du président Xi Jinping ait commencé à apparaître comme « M. » Shithole »une fois traduit du birman vers l'anglais sur la plateforme de médias sociaux.
Facebook impute ensuite le problème à une « erreur technique » et s'excuse d'avoir offensé le dirigeant chinois.
Comprendre les limites de l'IA
Si vous utilisez l'IA au travail, il est important de comprendre le fait que des outils comme ChatGPT peuvent afficher des préjugés, commettre des erreurs et fournir de fausses informations. La connaissance de ces limites et risques devrait déterminer la manière dont vous l'intégrez dans votre infrastructure et contrôlez son utilisation.
Par exemple, si vous utilisez l’IA pour générer du contenu, vous aurez besoin de règles précisant le type de contenu pour lequel elle doit être utilisée. Demander à une IA de rédiger un résumé interne des notes de réunion est une utilisation légitime avec très peu de risques – en revanche, les utiliser pour rédiger des e-mails destinés à des clients importants ne l’est pas.
La mise en œuvre des directives en matière d’IA sur votre lieu de travail est indispensable. Cela évitera toute confusion, clarifiera la prise de décision de vos employés concernant leur propre utilisation de l'IA et, plus important encore, vous empêchera de commettre certaines des erreurs coûteuses commises par les entreprises présentées dans cet article lors de l'application de l'intelligence artificielle.