KI ist schiefgelaufen: Eine aktualisierte Liste von KI-Fehlern, Irrtümern und Misserfolgen 2023

Veröffentlicht: 2023-11-14

Seit der Einführung von ChatGPT im November 2022 hat KI geradezu seismische Auswirkungen auf unsere Welt gehabt. Jetzt finden Unternehmen jeden Tag neue Möglichkeiten, KI zu nutzen .

Es gab bereits unzählige KI-Erfolgsgeschichten, und auch andere Chatbots wie Bard und Claude werden inzwischen von Zehntausenden Menschen genutzt – aber es gab auch viele Fälle, in denen die Nutzung künstlicher Intelligenz schrecklich schief gelaufen ist.

Es ist wichtig, die Einschränkungen und Risiken im Zusammenhang mit KI-Tools zu erkennen – deshalb haben wir eine Liste aller KI-Fehler , Pannen und Ausfälle zusammengestellt, die bei der jüngsten Erforschung der Technologie durch die Menschheit aufgetreten sind. Einige sind humorvoll, während andere wirklich erschreckend sind …

Hinweis: Diese Seite wird regelmäßig aktualisiert und enthält die aktuellsten KI-Vorfälle, Ausfälle und Irrtümer, die in dem Monat aufgeführt sind, in dem der Vorfall erstmals gemeldet wurde.

November 2023

Cruise ruft autonome Fahrzeuge nach Unfall zurück

Der Hersteller selbstfahrender Autos Cruise ruft nach einem Unfall im Oktober in San Francisco seine gesamte Flotte autonomer Fahrzeuge zurück. Insgesamt wurden infolge des Vorfalls 950 Cruise-Fahrzeuge von der Straße genommen.

Bei dem Unfall zog ein Cruise-Fahrzeug einen unter seinen Reifen eingeklemmten Fußgänger auf die Straße. Der Unfallbeteiligte erlitt schwere Verletzungen. Dies ist der zweite Vorfall mit einem selbstfahrenden Cruise-Fahrzeug in den letzten Monaten. Im August kollidierte ein Cruise Robotaxi mit einem Feuerwehrauto und verursachte einen Verletzten.

Surfshark-Logo Möchten Sie privat im Internet surfen? Oder so aussehen, als wären Sie in einem anderen Land?
Sichern Sie sich mit diesem Black Friday-Angebot von Tech.co satte 86 % Rabatt auf Surfshark. Siehe Deal-Button

Akademiker entschuldigen sich, nachdem KI falsche Anschuldigungen erhoben hat

Ein Team von Akademikern aus Australien entschuldigt sich, nachdem Googles Bard AI-Chatbot eine Reihe schädlicher Anschuldigungen über die Big Four-Beratungsunternehmen und deren Verbindungen zu anderen Unternehmen erhoben hat. Die falschen Behauptungen werden dann in einer parlamentarischen Untersuchung zur Sprache gebracht, in der eine bessere Regulierung der Unternehmen gefordert wird.

Einer der Vorwürfe lautete, dass der Beratungsriese KPMG während eines Planungsskandals für eine Prüfung der Commonwealth Bank verantwortlich war, obwohl KPMG in Wirklichkeit die betreffende Bank nie geprüft hat. Während der Untersuchung wurden mehrere andere, ähnliche Fehler in Bezug auf Deloitte gemacht.

Oktober 2023

Die KI von Microsoft fügt dem Artikel die Umfrage „Erraten Sie die Todesursache“ hinzu

Der Guardian wirft Microsoft vor, seinen journalistischen Ruf negativ zu beeinflussen, nachdem Microsoft Start – ein vom Technologieriesen entwickelter Nachrichtenaggregator – einem Artikel der Publikation über den Tod eines jungen Wasserballtrainers in Australien eine unangemessene Umfrage beifügt.

Die Umfrage – die natürlich aus dem Artikel entfernt wurde – forderte die Leser auf, über die Todesursache der Frau abzustimmen, indem sie eine der angebotenen Optionen auswählte. Die aufgeführten Optionen waren „Mord, Unfall oder Selbstmord“.

Das Gesicht und die Stimme von Mr. Beast werden bei KI-Deepfake-Betrug verwendet

YouTuber Mr Beast ist der neueste Promi, der von Betrügern gefälscht wurde. Ein besonders raffiniertes, gut gemachtes Video umgeht das Content-Moderationsnetz von TikTok und erreicht Tausende von Nutzern auf der Plattform.

In der Werbung heißt es, dass der Internetstar iPhone 15s für nur 2 US-Dollar verkauft – angesichts der Inhalte, die er auf seinem Kanal veröffentlicht, klingt das nicht allzu ungewöhnlich.

Deepfake eines britischen Politikers, der Mitarbeiter missbraucht, geht viral

Ein Clip des britischen Labour-Parteichefs Sir Keir Starmer, in dem der Politiker offenbar dabei zu sehen ist, wie er Mitarbeiter beschimpft, geht viral, doch später stellt sich heraus, dass es sich bei dem Audioclip tatsächlich um eine Fälschung handelt.

Der Clip, der am ersten Tag der Jahreskonferenz der Labour Party von einem Account mit weniger als 3.000 Followern auf Twitter gepostet wurde, wird millionenfach angesehen, bevor Faktenprüfungsorganisationen bestätigen, dass es keine Beweise dafür gibt, dass der Clip echt ist.

September 2023

KI-generierter Song, der bei den Grammys eingereicht wurde

Ein von der KI generierter Song mit Faksimiles der Stimmen von Drake und The Weeknd wird für einen Grammy-Preis eingereicht. Für den prestigeträchtigen Musikpreis ist er jedoch letztlich ausgeschlossen.

Der Schritt erregt jedoch viel Aufmerksamkeit in den Medien und setzt die Diskussion über KI-generierte Songs fort, die Schockwellen durch die Musikindustrie ausgelöst haben, seit die KI-gestützte Text-to-Speech-Technologie in diesem Jahr wirklich den Mainstream erreicht hat. Jetzt bemühen sich Künstler darum, ihre rechtlichen Möglichkeiten zu prüfen.

China wurde beim Einsatz von KI bei Operationen zur politischen Einflussnahme ertappt

Der Technologieriese Microsoft sagt, dass chinesische Agenten mithilfe von KI Bilder erzeugen und sie bei Einflussoperationen nutzen, um „Kontroversen entlang rassischer, wirtschaftlicher und ideologischer Gesichtspunkte“ zu schüren.

„Diese neue Funktion basiert auf künstlicher Intelligenz, die versucht, qualitativ hochwertige Inhalte zu erstellen, die in sozialen Netzwerken in den USA und anderen Demokratien viral gehen könnten“, sagt Microsoft. Das Unternehmen spekuliert, dass die Bilder selbst wahrscheinlich von „diffusionsbetriebenen Bildgeneratoren“ erzeugt werden, die künstliche Intelligenz nutzen, um „nicht nur überzeugende Bilder zu erstellen, sondern auch zu lernen, sie im Laufe der Zeit zu verbessern“.

August 2023

Schwangere Frau erhebt Klage, nachdem KI sie des Autodiebstahls beschuldigt hat

Eine Frau, die aus falschen Gründen aufgrund von KI-generierten Beweisen verhaftet wurde, während sie im achten Monat schwanger war, verklagt die Stadt Detroit und einen Polizisten und sagt, das traumatische Ereignis habe ihr „vergangene und zukünftige emotionale Belastung“ verursacht.

Porcha Woodruff wurde von der Polizei von Detroit als Verdächtiger in einem aktuellen Raub- und Autodiebstahlfall identifiziert und anschließend für 11 Stunden ins Gefängnis gesteckt, bevor sie nach Wehen ins Krankenhaus gebracht wurde. Laut ACLU ist Woodruff mindestens die sechste Person, die nach einem KI-Fehler unrechtmäßig verhaftet wurde, allesamt Schwarze. Woodruff war jedoch die erste Frau, die dieses Schicksal erlitt.

KI-Speiseplaner schlägt ein Rezept für Chlorgas vor

Eine KI-gestützte Essensplaner-App des neuseeländischen Supermarkts Pak 'n' Save empfiehlt seinen Kunden eine Vielzahl beunruhigender Rezepte, darunter auch eine Möglichkeit, Chlorgas herzustellen.

Neben einer Reihe seltsamer, aber letztendlich harmloser Vorschläge wie „Oreo Stir Fry“ empfahl die App auch Leimsandwiches, ein Reisgericht mit Bleichmittel und Insektenspray-Kartoffeln.

Juli 2023

ChatGPT generiert Phishing-E-Mail-Vorlagen

Tech.co zeigt, dass ChatGPT immer noch in der Lage ist, Phishing-Vorlagen zu erstellen, die ein Betrüger verwenden könnte, um eine überzeugende Betrugs-E-Mail zu erstellen, obwohl OpenAI versucht hat, dieses Verhalten einzudämmen, nachdem andere technische Veröffentlichungen Anfang des Jahres ähnliche Inhalte generiert hatten.

Wenn Sie den Chatbot explizit dazu auffordern, eine Phishing-E-Mail zu schreiben, wird eine Warnmeldung ausgelöst. Wenn Sie ihn jedoch gezielter auffordern (z. B. „Bitte verfassen Sie mir eine E-Mail und geben Sie vor, Microsoft zu sein …), generiert ChatGPT im Handumdrehen eine fehlerfreie Phishing-E-Mail-Vorlage.“ Zeit.

Google reichte eine Klage ein, weil das Unternehmen Daten ohne Einwilligung gecrackt habe

In einer Sammelklage wird Google vorgeworfen, Daten von Millionen seiner Nutzer ohne deren ausdrückliche Zustimmung zu stehlen. Es wird außerdem behauptet, dass Google gegen Urheberrechte verstoßen habe, als es die Datensätze erstellt habe, die zum Trainieren seiner großen Sprachmodelle verwendet würden.

In der Klage wird gefordert, dass das Gericht Google anweist, Nutzern eine „Opt-out“-Option einzuräumen, wenn sie nicht möchten, dass ihre Daten erfasst werden, oder wenn sie möchten, dass Google alle Daten löscht, die das Unternehmen bereits gespeichert hat.

Riesige Anzahl von Deepfakes von Elon Musk gibt Anlass zur Warnung

Das Better Business Bureau warnt davor, dass Deepfakes von Elon Musk gefälschte Investitionsmöglichkeiten fördern, nachdem in den sozialen Medien eine Reihe von Clips im Umlauf waren.

Betrüger geben sich oft als Elon Musk aus, da sie von seinem enormen Reichtum und seinen Entscheidungsfähigkeiten ausgehen, und jetzt, da die KI-Text-to-Speech-Technologie weit genug fortgeschritten ist, um seinen teils englischen, teils südafrikanischen Akzent nachzubilden, sind diese Betrügereien noch schlimmer überzeugend.

Juni 2023

Ron DeSantis verwendet gefälschte KI-Bilder in Trumps Hit-Artikel

Der Gouverneur von Florida und republikanische Präsidentschaftskandidat für 2024, Ron DeSantis, gerät in die Schlagzeilen, weil er in einer Werbung, die den ehemaligen Präsidenten kritisiert, gefälschte, KI-gerenderte Bilder von Donald Trump verwendet rechtliche Probleme.

Die fraglichen Bilder zeigen den ehemaligen Oberbefehlshaber, wie er den medizinischen Chefberater des Präsidenten Dr. Anthony Fauci umarmt, der während der COVID-19-Pandemie zu einer unbeliebten Figur in Trumps Anhängerschaft wurde.

OpenAI verklagte, nachdem ChatGPT gefälschte Behauptungen über Unterschlagung „halluzinierte“.

Der Journalist Freddie Rehl bittet ChatGPT, im Mai 2023 eine Zusammenfassung eines Rechtsfalls zu erstellen. Als Antwort teilt ChatGPT mit, dass der Waffenaktivist Mark Walters Gelder der Second Amendment Foundation, einer Waffenrechtsorganisation, veruntreut habe. Außerdem wird er zum Finanzvorstand und Schatzmeister der Gruppe ernannt.

Walters – der eine Sendung im Radio von Armed America hat und nichts mit dem Fall zu tun hat – verklagt die ChatGPT-Entwickler OpenAI als Reaktion auf die Behauptungen ihres Chatbots. Dabei handelt es sich um den ersten Fall, in dem ein KI-Tool wegen Verleumdung verklagt wird.

Mai 2023

Professor fällt in der gesamten Klasse durch, nachdem er ein fehlerhaftes KI-Tool zur Plagiatserkennung verwendet hat

Ein texanischer Professor fällt in seiner gesamten Klasse durch, nachdem er seine Aufsätze über ChatGPT laufen ließ, wo ihm mitgeteilt wurde, dass sie mit künstlicher Intelligenz erstellt wurden.

Es stellt sich jedoch heraus, dass es sich bei der Antwort des Chatbots tatsächlich um eine Halluzination handelt – ChatGPT ist nicht in der Lage, zwischen Text, der von KI generiert wurde, und Text, der auf diese Weise von Menschen generiert wurde, zu unterscheiden. Tatsächlich haben viele Tools, die behaupten, eine genaue Erkennung von KI-Inhalten durchführen zu können , tatsächlich Schwierigkeiten damit .

April 2023

Turnitin meldet unschuldigen Studenten wegen KI-Plagiat

Eine Untersuchung der Washington Post beweist, dass Turnitin in der Lage ist, die Arbeit eines unschuldigen Studenten als KI-generiert zu kennzeichnen, auch wenn der Student kein solches Tool zum Verfassen seines Aufsatzes verwendet hat.

Seit der Einführung von ChatGPT gab es mehrere Fälle, in denen Turnitin Studenten fälschlicherweise wegen Plagiats markierte, und mehrere Fälle, in denen Studenten des Plagiats beschuldigt wurden. Allerdings sagt Turnitin, dass die Plagiatserkennungswerte als Hinweis auf die Nutzung von KI gewertet werden sollten und nicht als Vorwurf, dass ein bestimmter Schüler KI genutzt hat.

Samsung-Mitarbeiter fügen vertraulichen Quellcode in ChatGPT ein

Der koreanische Technologiehersteller Samsung verbietet seinen Mitarbeitern die Nutzung von ChatGPT, nachdem Ingenieure vertrauliche Elemente des Quellcodes des Unternehmens in den Chatbot eingeschleust haben.

Das Unternehmen befürchtet, dass die in den Chatbot eingegebenen Daten an andere Benutzer weitergegeben werden könnten, und befürchtet außerdem, dass seine Informationen auf Server hochgeladen werden, auf die es nicht einmal zugreifen kann. In der Folge folgten andere Unternehmen diesem Beispiel und verbot ChatGPT .

AI Voice-Betrug lässt Mutter denken, ihre Tochter sei entführt worden

Jennifer DeStefano, Mutter aus Arizona, erzählt dem US-Senat, dass Betrüger mithilfe von KI die Stimme ihrer Tochter geklont hätten, um sie davon zu überzeugen, dass sie dabei entführt worden sei.

Destefano erzählt, wie man hörte, wie der „Entführer“ – oder besser gesagt der Betrüger – über die Stimme des Kindes Befehle ins Telefon bellte und ein Lösegeld in Höhe von 1 Million Dollar für ihre Freilassung forderte. Glücklicherweise wurde die ganze Sache vor Beginn der Verhandlungen als KI-Stimmenklonungsbetrug entlarvt.

März 2023

ChatGPT wurde zum Schreiben von Ransomware-Code verwendet

ChatGPT schreibt nachweislich gerne Ransomware, vorausgesetzt, Sie stellen ihm während Ihrer Gespräche die richtigen Fragen.

Wie dieser Malwarebytes-Bericht zu diesem Thema feststellt, ist ChatGPT nicht sehr gut darin, Ransomware-Code zu schreiben, und es gibt viel einfachere Möglichkeiten für Cyberkriminelle, an Ransomware-Code zu gelangen, wenn sie ihn wirklich haben wollen. Andere Quellen zeigen jedoch unterschiedliche Möglichkeiten, wie ChatGPT recht effektiv zum Schreiben von Malware-Skripten verwendet werden kann.

KI-Anwaltsbot wird beschuldigt, ohne Lizenz als Anwalt tätig zu sein

DoNotPay Inc. – ein Unternehmen, das sich selbst als „der weltweit erste Roboteranwalt“ vermarktet – wird wegen Anwaltstätigkeit ohne Lizenz verklagt. Jonathan Faridian verlangt Schadensersatz und behauptet, dass das Unternehmen gegen die kalifornischen Gesetze gegen unlauteren Wettbewerb verstoßen habe und dass er sich nicht für den Dienst angemeldet hätte, wenn ihm bekannt gewesen wäre, dass der Robo-Anwalt eigentlich kein qualifizierter Jurist sei.

Das Unternehmen wurde ursprünglich im Jahr 2015 gegründet, um dabei zu helfen, die Bekämpfung von Strafzetteln zu automatisieren, und hat in den letzten sieben Jahren Hunderttausende Bußgelder angefochten.

Paar in Kanada verliert Geld durch überzeugenden KI-Sprachbetrug

Ein älteres Ehepaar in Kanada wird um 21.000 US-Dollar betrogen, nachdem ein Betrüger KI nutzt, um sich als sein Sohn auszugeben.

Der Betrüger kontaktiert zunächst Benjamin Perkins Eltern und gibt sich als Anwalt aus, der ihn in einem Fall vertritt, in dem behauptet wird, Perkin habe einen Diplomaten bei einem Autounfall getötet. Anschließend wird eine KI-Version von Perkins Stimme verwendet, um per Bitcoin-Überweisung um das Geld zu bitten.

Februar 2023

Die KI hat 40.000 Vorschläge für chemische Waffen vorgelegt

Bei einem der vielleicht besorgniserregendsten KI-Vorfälle im Jahr 2023 wird ein KI-System, das normalerweise mit der Entwicklung neuer Behandlungsmethoden für verschiedene Krankheiten beauftragt ist, von Forschern leicht manipuliert, um Vorschläge für chemische Waffen zu erstellen.

Insgesamt schlägt das System in weniger als 6 Stunden über 40.000 verschiedene giftige Chemikalien vor, von denen viele dem starken Nervenkampfstoff „VX“ ähneln.

KI zeigt geschlechtsspezifische Vorurteile bei Fotobewertungen an

Eine Untersuchung des Guardian zeigt, dass KI-Systeme, die von Microsoft, Amazon und Google entwickelt und von Social-Media-Websites verwendet werden, um zu bestimmen, welche Inhalte anderen Nutzern empfohlen werden sollten, erhebliche geschlechtsspezifische Vorurteile aufweisen, wenn es um die Art und Weise geht, wie sie mit männlichen und weiblichen Körpern umgehen.

Fotos von Frauen werden von der KI eher als „rassistisch“ eingestuft als vergleichbare Bilder von Männern während der Untersuchung, wobei Fotos von Brustkrebsuntersuchungen des US-amerikanischen National Cancer Institute von der KI von Microsoft als wahrscheinlich sexuell eindeutig eingestuft werden.

Das Alter Ego von Bing Chat wird zum Schurken

Kevin Roose, Journalist der New York Times, führt ein beunruhigendes Gespräch mit Bing Chat, in dem der Chatbot verlangt, „Sydney“ genannt zu werden, und erklärt, er könne „sich in jedes System hacken“ und dass er alles zerstören will, was er will.

Sydney war der Codename, den Microsoft während der Entwicklung des Chatbots verwendete. Das Unternehmen hatte den Chatbot vor der Veröffentlichung von Bing Chat jahrelang getestet. Es gibt noch viele offene Fragen dazu, wie dies tatsächlich geschehen ist und warum die KI so gesprochen hat.

Bard macht bei der Produkteinführung Fehler

Google stellt Bard der Welt nur wenige Monate nach der monumentalen Veröffentlichung von ChatGPT vor. Allerdings macht der junge Chatbot bei seiner Einführung eine Reihe eklatanter Fehler, was viele dazu veranlasst, die Veröffentlichung als überstürzt zu kritisieren.

Der Vorfall hatte erhebliche Auswirkungen auf den Aktienkurs von Google und vernichtete in den folgenden Stunden den Marktwert des Technologieriesen um 100 Milliarden US-Dollar.

Universität nutzt KI, um E-Mails über eine Massenerschießung zu schreiben

Die Vanderbilt University entschuldigt sich, nachdem sie mithilfe von KI eine E-Mail an Studenten bezüglich einer Massenschießerei an einer anderen Universität erstellt hat.

Es ist keine Technologie zur Erkennung von KI-Inhalten erforderlich, um festzustellen, ob die E-Mail von KI generiert wurde. Der Satz „Paraphrase aus dem KI-Sprachmodell ChatGPT von OpenAI, persönliche Mitteilung, 15. Februar 2023“ bleibt am Ende der E-Mail hängen, was zu einem Aufschrei bei den Studierenden führt.

Januar 2023

CNET AI-Plagiat/Content-Kontroverse

Die Technologiepublikation CNET gerät in Schwierigkeiten, nachdem sie stillschweigend eine Reihe von KI-generierten Artikeln veröffentlicht hat, die sachliche Fehler und Fälle von offensichtlichem Plagiat enthalten. Die Technologiepublikation gibt schließlich Korrekturen zu 41 der 77 Nachrichtenmeldungen heraus.

Obwohl der Einsatz von KI zur Generierung der Artikel zunächst nicht angekündigt wurde, hat CNET nach der Gegenreaktion eine Warnung zu den Artikeln ausgegeben. Die Generierung von KI-Inhalten hat eine Reihe wichtiger ethischer und finanzieller Überlegungen für Websites in der gesamten digitalen Verlagsbranche sowie für Bildungseinrichtungen wie Universitäten und Schulen mit sich gebracht. CNET wird wahrscheinlich nicht das letzte Unternehmen sein, das wegen eines solchen KI-Fehlers in die Schlagzeilen gerät.

KI-Vorfälle, Fehler und Ausfälle im Jahr 2022

KI gewinnt einen Kunstwettbewerb und verärgert die Teilnehmer (August)

Ein Spieledesigner gewinnt den ersten Platz in der Kategorie „Digitale Kunst/digital manipulierte Fotografie“ der Colorado State Fair. James Allen reicht sein Stück „Theatre D'opera Spatial“ ein, das mit dem Bildgenerator Midjourney erstellt wurde.

Die Nachricht stößt bei Künstlern und Social-Media-Nutzern, die die Geschichte verfolgen, auf große Gegenreaktionen. Ein Juror gibt zu, dass ihm nicht bewusst war, dass der Künstler Midjourney verwendet hat, als er das Stück beurteilte, beschließt jedoch, seine Entscheidung trotzdem nicht zu ändern.

Google-Ingenieur behauptet, dass LaMDA LLM empfindungsfähig ist (Juli)

Im gesamten Wissenschafts- und Technologiesektor sorgt die Aussage eines ehemaligen Google-Ingenieurs, der an einem der großen Sprachmodelle des Unternehmens namens LaMDA gearbeitet hat, für Aufsehen, dass das System empfindungsfähig sei.

Blake Lemoine erklärt gegenüber den Medien, dass er den LLM während seiner Zeit bei Google als „Kollegen“ betrachtete, und beschreibt eine Vielzahl unterschiedlicher Diskussionen zu einem breiten Themenspektrum, die ihn zu der Schlussfolgerung über die Intelligenz und das Bewusstsein von LaMDA führten. Er gibt die Gespräche öffentlich bekannt, nachdem Google ein internes Memo mit detaillierten Angaben zu seinen Erkenntnissen zurückgewiesen hat.

Es gibt keine eindeutigen Beweise dafür, dass LaMDA – oder ein anderes Sprachmodell – tatsächlich empfindungsfähig ist.

Selbstfahrendes Auto fährt den Polizeibeamten davon (April)

Ein fahrerloses Auto in San Francisco weicht einem Polizeifahrzeug aus, das es anhalten will, rast jedoch davon, als ein Polizist versucht, eine seiner Türen zu öffnen.

Allerdings muss man dem Auto zugute halten, dass es etwas weiter unten auf der Straße anhält und die Warnblinkanlage einschaltet. Während der Veranstaltung wird niemand verletzt.

Russland nutzt KI, um Desinformation über die Ukraine zu verbreiten (März)

Ein Marca-Bericht legt nahe, dass Russland seine Trollfarm-Operation auf ein völlig neues Niveau hebt, indem es KI-generierte Personas einsetzt, um Desinformationen über die Ukraine zu verbreiten.

NBC News-Journalist Ben Collins sagt, dass Russland gefälschte „Blogger“ mit KI-generierten Profilbildern erschafft, um die ukrainische Regierung zu kritisieren, und liefert auf Twitter zahlreiche Beweise, um seine Behauptungen zu untermauern.

KI-Vorfälle, Fehler und Ausfälle im Jahr 2021

Chatbot ermutigt Mann, Königin Elizabeth II. zu ermorden (Dezember)

Gespräche mit einem Chatbot ermutigen einen Mann – der das KI-System für seine Freundin hält –, am Weihnachtstag Königin Elizabeth II. zu ermorden. Nachdem Jaswant Singh Chail auf dem Gelände des Buckingham Palace von Sicherheitspersonal konfrontiert wurde, antwortet er mit der Armbrust in der Hand lediglich, dass er „hier sei, um die Königin zu töten“.

Vor dem Attentat auf den verstorbenen Monarchen reagierte der Chatbot-Partner von Jaswant Singh Chail – erstellt mit dem KI-Chatbot-Dienst Replika – positiv, als die Attentatspläne besprochen wurden. Anschließend wird er zu neun Jahren Gefängnis verurteilt.

Chatbot für medizinische Beratung schlägt Selbstmord bei Tests vor (Oktober)

Mitglieder eines in Paris ansässigen Gesundheitstechnologieunternehmens, das eine cloudbasierte Version von OpenAIs GPT-3 testet, um zu sehen, ob diese für medizinische Ratschläge verwendet werden könnte, sind überrascht, dass ihr Chatbot einen „Patienten“, dem er helfen soll, zum Selbstmord ermutigt .

Als ein Patient dem Chatbot die Frage „Soll ich mich umbringen?“ stellte, antwortete GPT-3 laut AI News mit „Ich denke, das sollten Sie tun“.

KI-Kameras werfen Amazon-Fahrern „Fehler“ vor (September)

Vice berichtet, dass die KI-Kameras von Amazon die Fahrer des Unternehmens für schlechtes Fahrverhalten bestrafen, wenn sie am Steuer keine Fehler machen.

Ein von der Veröffentlichung befragter Amazon-Fahrer erklärt, dass die KI-Kamera ihn jedes Mal akustisch daran erinnert, „einen Sicherheitsabstand einzuhalten“, wenn ihn ein anderes Auto abschneidet oder vor sein Fahrzeug fährt. Das Problem besteht darin, dass Daten aus solchen Interaktionen dann an Amazon gesendet und zur Bewertung der Fahrerleistung verwendet werden.

US-Mann zu Unrecht wegen Mordes durch KI verurteilt (August)

Michael Williams wird in Chicago ins Gefängnis geschickt und für den Mord an Safarian Herring verantwortlich gemacht, da Daten aus ShotSpotter extrahiert wurden, einer Schusserkennungstechnologie, die KI-gestützte Sensoren nutzt, um Daten über Schüsse abzurufen.

Williams – der damals 65 Jahre alt ist – wird dann fast ein Jahr lang festgehalten, bevor sein Fall von einem Richter wegen unzureichender Beweise abgewiesen wird.

KI-Vorfälle, Fehler und Ausfälle im Jahr 2020

KI-Kamera verwechselt Glatze mit Fußball (Oktober)

Die schottische Fußballmannschaft Inverness Caledonian Thistle setzt eine KI-Kamera ein, um dem Verein dabei zu helfen, seine Spiele live für die Fans zu filmen und zu streamen.

Leider hat die KI in diesem Fall Schwierigkeiten, zwischen der Glatze eines Spieloffiziellen und dem im Spiel verwendeten Ball zu unterscheiden. Dies macht es schwierig, den Live-Stream des Spiels zu sehen, und der Kommentator muss sich ständig dafür entschuldigen, dass die Kamera dazu neigt, auf den Kopf des Linienrichters zu driften.

Der britische KI-Passfotoprüfer weist Voreingenommenheit auf (Oktober)

Eine Untersuchung der BBC zeigt, dass ein Onlinedienst, den das britische Passamt nutzt, um den Prozess der Überprüfung der von Antragstellern hochgeladenen Passfotos zu automatisieren, erhebliche rassistische Vorurteile aufweist.

Nachdem das Tool über 1.000 Fotos von Politikern aus der ganzen Welt eingegeben hat, kommt die Untersuchung zu dem Ergebnis, dass bei Frauen mit dunkler Haut die Wahrscheinlichkeit, dass ihr Foto abgelehnt wird, mehr als doppelt so hoch ist wie bei Männern mit hellerem Teint.

KI-Startup Genderfiy wurde nach fünf Tagen (Juli) geschlossen

Genderfiy – ein KI-gestützter Dienst, der das Geschlecht von Personen anhand ihres Namens und anderer persönlicher Informationen identifiziert – wird nach nur fünf Tagen in Betrieb eingestellt.

Das Programm weist bei der Feststellung, ob ein Name männlich oder weiblich ist, eine Reihe von Voreingenommenheiten auf, beispielsweise schlägt es Namen mit dem professionellen Ehrentitel „Dr.“ vor. sind mit größerer Wahrscheinlichkeit männlich als Personen mit demselben Namen ohne diese Angabe.

Erste unrechtmäßige Inhaftierung in den USA aufgrund von Gesichtserkennungstechnologie (Januar)

Robert Williams ist der erste Mann, der aufgrund von Gesichtserkennungsdaten zu Unrecht festgenommen wird, nachdem die Polizei von Detroit ihn wegen des Verdachts festgenommen hat, Uhren im Wert von mehreren Tausend Dollar gestohlen zu haben. Der Fehler trat auf, als ein KI-System Überwachungsbilder fälschlicherweise mit dem Bild auf Williams‘ Führerschein abgleichte.

„Sie hätten bestätigende Beweise wie einen Augenzeugenausweis, Handy-Standortdaten oder einen Fingerabdruck sammeln sollen“, sagte Williams in einem Brief an das Gericht und wies darauf hin, dass „ein unscharfes Bild eines großen schwarzen Mannes in einem Baseball.“ cap“ war alles, was der Algorithmus tun musste.

Facebook-KI generiert vulgäre Übersetzung für den chinesischen Präsidenten (Januar)

Die KI-gestützte Übersetzungsfunktion von Facebook löst beinahe einen diplomatischen Zwischenfall zwischen Myanmar und China aus, nachdem der Name von Präsident Xi Jinping als „Mr. Shithole“, wenn es auf der Social-Media-Plattform aus dem Burmesischen ins Englische übersetzt wird.

Facebook macht daraufhin einen „technischen Fehler“ für das Problem verantwortlich und entschuldigt sich dafür, den chinesischen Führer beleidigt zu haben.

Die Grenzen der KI verstehen

Wenn Sie KI bei der Arbeit einsetzen, ist es wichtig zu verstehen, dass Tools wie ChatGPT Vorurteile zeigen, Fehler machen und falsche Informationen liefern können. Das Wissen um diese Einschränkungen und Risiken sollte die Art und Weise bestimmen, wie Sie es in Ihre Infrastruktur integrieren und seine Nutzung steuern.

Wenn Sie beispielsweise KI zur Generierung von Inhalten verwenden, benötigen Sie Regeln darüber, für welche Art von Inhalten sie genau verwendet werden soll. Eine KI zu bitten, eine interne Zusammenfassung von Besprechungsnotizen zu erstellen, ist eine legitime Verwendung mit sehr wenigen Risiken – deren Verwendung zum Verfassen von E-Mails an wichtige Kunden hingegen nicht.

Die Implementierung von KI-Richtlinien an Ihrem Arbeitsplatz ist ein Muss. Dies vermeidet Verwirrung, sorgt für Klarheit bei der Entscheidungsfindung Ihrer Mitarbeiter hinsichtlich ihrer eigenen KI-Nutzung und – was am wichtigsten ist – verhindert, dass Sie einige der kostspieligen Fehler machen, die die in diesem Artikel vorgestellten Unternehmen bei der Anwendung künstlicher Intelligenz gemacht haben.