KI-Ethik: Prinzipien, Richtlinien und zu diskutierende Probleme

Veröffentlicht: 2023-07-20

Künstliche Intelligenz und maschinelle Lernsysteme befinden sich seit Jahrzehnten in der Entwicklung. Die jüngste Veröffentlichung frei verfügbarer generativer KI-Tools wie ChatGPT und Bard hat jedoch die Notwendigkeit komplexer ethischer Rahmenbedingungen für die Steuerung ihrer Forschung und Anwendung deutlich gemacht.

Es gibt eine Reihe verschiedener ethischer Probleme, mit denen Unternehmen, akademische Einrichtungen und Technologieunternehmen im Zusammenhang mit der KI-Forschung und -Entwicklung zu kämpfen haben – viele davon bleiben unbeantwortet. Darüber hinaus bringt die weit verbreitete Nutzung und Anwendung von KI-Systemen in der breiten Öffentlichkeit eine Reihe zusätzlicher Probleme mit sich, die ethischer Aufmerksamkeit bedürfen.

Wie wir solche Fragen letztendlich beantworten – und damit wiederum KI-Tools regulieren –, wird enorme Auswirkungen auf die Menschheit haben. Darüber hinaus werden neue Probleme auftauchen, wenn KI-Systeme immer stärker in unser Leben, unser Zuhause und unseren Arbeitsplatz integriert werden – weshalb KI-Ethik eine so entscheidende Disziplin ist. In diesem Leitfaden behandeln wir:

  • Was ist KI-Ethik?
  • Bestehende KI-Ethikrahmen
  • Warum die KI-Ethik die KI-Regulierung gestalten muss
  • Warum ist KI-Ethik wichtig?
  • Mit welchen Problemen ist die KI-Ethik konfrontiert?
  • Bings Alter Ego, der „Waluigi-Effekt“ und Programmiermoral
  • KI und Empfindung: Können Maschinen Gefühle haben?
  • KI-Geschäftsethik und Einsatz von KI am Arbeitsplatz

Was ist KI-Ethik?

KI-Ethik ist ein Begriff, der die Richtlinien, Überlegungen und Prinzipien definiert, die erstellt wurden, um die Forschung, Entwicklung und Nutzung von Systemen der künstlichen Intelligenz verantwortungsvoll zu beeinflussen.

In der Wissenschaft ist KI-Ethik das Forschungsgebiet, das die moralischen und philosophischen Fragen untersucht, die sich aus der fortgesetzten Nutzung der Technologie der künstlichen Intelligenz in Gesellschaften ergeben, einschließlich der Art und Weise, wie wir handeln und welche Entscheidungen wir treffen sollten.

KI-Ethikrahmen

Auf der Grundlage akademischer Forschung haben Technologieunternehmen und Regierungsbehörden bereits damit begonnen, Rahmenwerke dafür zu entwickeln, wie wir künstliche Intelligenzsysteme nutzen und allgemein damit umgehen sollten. Wie Sie sehen werden, gibt es einige Überschneidungen zwischen den unten besprochenen Frameworks.

Was ist die AI Bill of Rights?

Im Oktober 2022 veröffentlichte das Weiße Haus einen unverbindlichen Entwurf für eine AI Bill of Rights, die den verantwortungsvollen Einsatz von KI in den USA leiten soll. In der Blaupause skizziert das Weiße Haus fünf Schlüsselprinzipien für die KI-Entwicklung:

  • Sichere und wirksame Systeme: Bürger sollten durch „Tests vor der Bereitstellung und Risikominderung“ vor „unsicheren oder ineffektiven KI-Systemen“ geschützt werden.
  • Nichtdiskriminierung: Bürger „sollten nicht durch Algorithmen diskriminiert werden und Systeme sollten auf gerechte Weise genutzt und gestaltet werden.“
  • Integrierter Datenschutz: Bürger sollten „durch integrierte Schutzmaßnahmen frei von missbräuchlichen Datenpraktiken sein und Sie sollten Entscheidungsfreiheit darüber haben, wie Ihre Daten verwendet werden“.
  • Wissen und Transparenz: „Sie sollten wissen, dass ein automatisiertes System verwendet wird, und verstehen, wie und warum es zu Ergebnissen beiträgt, die sich auf Sie auswirken.“
  • Ausstieg: Bürger sollten die Möglichkeit haben, sich abzumelden und Zugang zu Personen haben, „die sich schnell mit den Problemen befassen und Abhilfe schaffen können“, auf die sie stoßen.

Was sind die sechs Prinzipien der KI-Ethik von Microsoft?

Zusammen mit dem Whitehouse hat Microsoft sechs Schlüsselprinzipien veröffentlicht, um den verantwortungsvollen Einsatz von KI zu unterstreichen. Sie klassifizieren sie als „ethisch“ (1, 2 und 3) oder „erklärbar“ (4 und 5).

  • Fairness: Systeme müssen diskriminierungsfrei sein
  • Transparenz: Erkenntnisse aus Schulung und Entwicklung sollten verfügbar sein
  • Datenschutz und Sicherheit: Die Verpflichtung, Benutzerdaten zu schützen
  • Inklusivität: KI sollte „alle menschlichen Rassen und Erfahrungen“ berücksichtigen
  • Verantwortlichkeit: Entwickler müssen für die Ergebnisse verantwortlich sein

Das sechste Prinzip – das beide Seiten der „ethischen“ und „erklärbaren“ Binärstruktur umfasst – ist „Zuverlässigkeit und Sicherheit“. Microsoft sagt, dass KI-Systeme robust und resistent gegen Manipulationen gebaut werden sollten.

Die Grundsätze für den ethischen Einsatz von KI im System der Vereinten Nationen

Die Vereinten Nationen haben 10 Grundsätze zur Regelung des ethischen Einsatzes von KI in ihrem zwischenstaatlichen System. KI-Systeme sollten:

  • Die Menschenrechte nicht verletzen/schützen und fördern
  • Sie haben einen definierten Zweck, eine Notwendigkeit und eine Verhältnismäßigkeit
  • Priorisieren Sie Sicherheit und Schutz und identifizieren Sie Risiken
  • Auf Fairness und Nichtdiskriminierung aufbauen
  • Respektieren Sie das Recht des Einzelnen auf Privatsphäre
  • Seien Sie nachhaltig (sozial und ökologisch)
  • Garantieren Sie die menschliche Aufsicht und beeinträchtigen Sie nicht die Autonomie
  • Seien Sie transparent und erklärbar
  • Seien Sie gegenüber den zuständigen Behörden verantwortlich und rechenschaftspflichtig
  • Seien Sie inklusiv und partizipativ

Wie Sie sehen, decken alle drei Rahmenwerke ähnliche Bereiche ab und konzentrieren sich auf Fairness, Nichtdiskriminierung und Sicherheit.

Aber auch „Erklärbarkeit“ ist ein wichtiges Prinzip in den Rahmenwerken der KI-Ethik. Wie die UN feststellt, ist die technische Erklärbarkeit in der KI-Ethik von entscheidender Bedeutung, da sie verlangt, dass „die Entscheidungen eines Systems künstlicher Intelligenz von Menschen verstanden und nachvollzogen werden können“.

„Einzelpersonen sollten umfassend informiert werden, wenn eine Entscheidung, die ihre Rechte, Grundfreiheiten, Ansprüche, Dienstleistungen oder Vorteile beeinträchtigen kann oder wird, durch Algorithmen der künstlichen Intelligenz informiert oder auf dieser Grundlage getroffen wird, und sie sollte Zugang zu den Gründen und der Logik hinter solchen Entscheidungen haben“, heißt es in dem Dokument.

Der Belmont-Bericht: ein Rahmen für ethische Forschung

Der 1979 veröffentlichte Belmont-Bericht fasst ethische Grundsätze zusammen, die man bei der Durchführung von Forschungen an Menschen befolgen sollte. Diese Prinzipien können – und werden oft – als breiter ethischer Rahmen für die KI-Forschung eingesetzt. Die Grundprinzipien des Belmont Report sind:

Respekt vor Personen: Menschen sind autonome Akteure, die auf Ziele und Absichten reagieren können, etwas, das respektiert werden sollte, es sei denn, sie fügen anderen Schaden zu. Personen mit eingeschränkter Autonomie aufgrund von „Unreife“ oder „Unfähigkeit“ sollte Schutz gewährt werden. Wir müssen die Autonomie anerkennen und diejenigen schützen, für die sie eingeschränkt ist.

  • Im Kontext der KI: Die individuelle Wahl sollte im Mittelpunkt der KI-Entwicklung stehen. Menschen sollten nicht gezwungen werden, sich an Situationen zu beteiligen, in denen künstliche Intelligenz genutzt oder genutzt wird, auch nicht für vermeintliche Güter. Im Falle einer Teilnahme müssen die Vorteile und Risiken klar dargelegt werden.

Wohltätigkeit: Eine ethische Behandlung einer Person bedeutet nicht nur, keinen Schaden anzurichten, ihre Entscheidungen zu respektieren und sie zu schützen, wenn sie diese nicht selbst treffen kann, sondern auch, wenn möglich, Möglichkeiten zu nutzen, um ihr Wohlergehen zu sichern. Wo immer möglich, maximieren Sie den Nutzen und minimieren Sie Risiken/Schäden.

  • Im Kontext KI: Schaffung künstlicher Intelligenzsysteme, die das Wohlergehen der Menschen sichern und ohne Voreingenommenheit oder Mechanismen konzipiert sind, die Diskriminierung erleichtern. Die Schaffung von Vorteilen kann mit dem Eingehen von Risiken verbunden sein, die unbedingt minimiert und gegen gute Ergebnisse abgewogen werden müssen.

Gerechtigkeit: Es muss ein klares System zur gerechten und gleichmäßigen Verteilung von Nutzen und Lasten in jeder Art von Forschung geben. Der Belmont-Bericht legt nahe, dass Gerechtigkeit nach gleichem Anteil, individuellen Bedürfnissen, individuellen Anstrengungen, gesellschaftlichem Beitrag und Verdienst verteilt werden kann. Diese Kriterien gelten in verschiedenen Situationen.

  • Im Zusammenhang mit KI: Die Parteien oder Gruppen, die von der Entwicklung und Bereitstellung künstlicher Intelligenzsysteme profitieren, müssen sorgfältig und gerecht geprüft werden.

Die Hauptanwendungsbereiche dieser Grundsätze sind dem Bericht zufolge die Einwilligung nach Aufklärung , die Bewertung von Nutzen und Risiken sowie die Auswahl menschlicher Probanden .

Warum die KI-Ethik die KI-Regulierung gestalten muss

Basierend auf den Kommentaren, die Professor John Tasioulas von der Universität Oxford, Direktor des Instituts für Ethik in der KI, in einem Vortrag an der Princeton University gehalten hat, wird Ethik zu oft als etwas angesehen, das die Innovation und Entwicklung der KI behindert.

In dem Vortrag erinnert er sich an einen Vortrag von DeepMind-CEO Demis Hassabis . Nachdem Hassabis die vielen Vorteile besprochen hat, die KI für die Menschheit haben wird, sagt Tasioulas, teilt er dem Publikum dann mit, dass er zu den ethischen Fragen übergehen werde – als ob das Thema, wie KI der Menschheit nützen wird, keine ethische Frage an sich wäre.

Aufbauend auf der Idee, dass Ethik zu oft als eine „Häufigkeit von Einschränkungen“ angesehen wird, verweist Tasioulas auch auf ein aktuelles Weißbuch der britischen Regierung mit dem Titel „A Pro-Innovation Approach to AI Regulation“, in dem der Regulierungsschwerpunkt, wie der Name schon sagt, auf „Innovation“ liegt.

„Wirtschaftswachstum“ und „Innovation“ sind keine intrinsischen ethischen Werte. Sie können in manchen Kontexten zum menschlichen Aufblühen führen, aber das ist kein notwendiges Merkmal beider Konzepte. Wir können die Ethik nicht außer Acht lassen und stattdessen unsere Regulierung darauf aufbauen.

Tasioulas sagt auch, dass Technologieunternehmen sehr erfolgreich darin waren, „das Wort ‚Ethik‘ zu kooptieren, um eine Art ‚rechtlich nicht bindende Form der Selbstregulierung‘ zu bezeichnen“ – aber in Wirklichkeit muss Ethik im Mittelpunkt jeder Regulierung stehen, ob rechtlich, sozial oder anderweitig. Es ist auf Schritt und Tritt Teil der menschlichen Erfahrung.

Sie können keine Regulierung schaffen, wenn Sie nicht bereits entschieden haben, worauf es ankommt oder was für das menschliche Gedeihen wichtig ist. Die damit verbundenen Entscheidungen, die Sie auf der Grundlage dieser Entscheidung treffen , sind der Kern der Ethik. Sie können die Vorteile der KI nicht von damit verbundenen ethischen Fragen trennen und Ihre Regulierung auch nicht auf moralisch bedingte Werte wie „Wirtschaftswachstum“ stützen.

Sie müssen die Art der Gesellschaft kennen, die Sie aufbauen möchten – und die Standards, die Sie festlegen möchten –, bevor Sie die Werkzeuge in die Hand nehmen, mit denen Sie sie aufbauen möchten.

Warum ist KI-Ethik wichtig?

Aufbauend auf der Idee, dass die KI-Ethik das Fundament unserer Regulierung sein sollte, ist die KI-Ethik wichtig, denn ohne ethische Rahmenbedingungen, mit denen wir die KI-Forschung, -Entwicklung und -Nutzung behandeln, riskieren wir die Verletzung von Rechten, von denen wir uns allgemein einig sind, dass sie allen Menschen garantiert werden sollten.

Wenn wir beispielsweise keine ethischen Grundsätze in Bezug auf Privatsphäre und Datenschutz entwickeln und diese nicht in alle von uns entwickelten KI-Tools integrieren, riskieren wir, die Datenschutzrechte aller zu verletzen, wenn sie der Öffentlichkeit zugänglich gemacht werden. Je beliebter oder nützlicher die Technologie ist, desto schädlicher kann sie sein.

Auf individueller Unternehmensebene bleibt die KI-Ethik wichtig. Wenn ethische Bedenken im Zusammenhang mit KI-Systemen, die Ihre Mitarbeiter oder Kunden verwenden, nicht angemessen berücksichtigt werden, kann dies dazu führen, dass Produkte vom Markt genommen werden müssen, der Ruf geschädigt wird und möglicherweise sogar Rechtsstreitigkeiten entstehen.

KI-Ethik ist genauso wichtig wie KI – und wir sehen, dass sie bereits tiefgreifende Auswirkungen auf alle möglichen Branchen hat.

Wenn wir wollen, dass KI nützlich istund gleichzeitigGerechtigkeit und Menschenwürde fördert, wo auch immer sie eingesetzt wird, muss Ethik im Vordergrund der Diskussion stehen.

Allgemein einsetzbare KI-Tools stecken noch in den Kinderschuhen, und für viele Menschen scheint der Bedarf an ethischen KI-Rahmenwerken ein Problem der Zukunft zu sein. Aber diese Art von Werkzeugen wird immer leistungsfähiger und leistungsfähiger und erfordert mehr ethische Überlegungen. Unternehmen nutzen sie bereits, und wenn sie ohne entsprechende ethische Regeln weitermachen, werden bald negative Auswirkungen auftreten.

Mit welchen Problemen ist die KI-Ethik konfrontiert?

In diesem Abschnitt behandeln wir einige der wichtigsten Probleme der KI-Ethik:

  • Auswirkungen von KI auf Arbeitsplätze
  • KI-Voreingenommenheit und Diskriminierung
  • KI und Verantwortung
  • Bedenken hinsichtlich KI und Datenschutz
  • Fragen des geistigen Eigentums
  • Bewältigung der Umweltauswirkungen von KI
  • Wird KI gefährlich intelligent?

Die Auswirkungen von KI auf Arbeitsplätze

Eine kürzlich von Tech.co durchgeführte Umfrage ergab, dass 47 % der Unternehmensleiter KI gegenüber Neueinstellungen in Betracht ziehen, und künstliche Intelligenz wurde bereits mit einer „kleinen, aber wachsenden“ Zahl von Entlassungen in den USA in Verbindung gebracht.

Nicht alle Arbeitsplätze sind gleichermaßen gefährdet, und einige Rollen werden eher durch KI ersetzt als andere . In einem Bericht von Goldman Sachs wurde kürzlich prognostiziert, dass sich ChatGPT auf 300 Millionen Arbeitsplätze auswirken könnte, und obwohl dies spekulativ ist, wurde es bereits als wichtiger Teil der vierten industriellen Revolution beschrieben.

Im selben Bericht heißt es auch, dass KI tatsächlich mehr Arbeitsplätze schaffen als verdrängen kann. Aber wenn sie tatsächlich zu einer erheblichen Veränderung der Beschäftigungsmuster führt, was ist dann – wenn überhaupt – denjenigen zu schulden, die Verlierer sind?

Sind Unternehmen verpflichtet, Geld auszugeben und Ressourcen für die Umschulung oder Weiterqualifizierung ihrer Arbeitnehmer bereitzustellen, damit sie nicht von wirtschaftlichen Veränderungen abgehängt werden?

Bei der Entwicklung aller KI-Tools, die in Einstellungsprozessen zum Einsatz kommen, müssen die Grundsätze der Nichtdiskriminierung strikt durchgesetzt werden. Und wenn KI konsequent für immer mehr anspruchsvolle Geschäftsaufgaben eingesetzt wird, die Arbeitsplätze, Karrieren und Leben gefährden, werden ethische Überlegungen weiterhin in Scharen auftauchen.

KI-Voreingenommenheit und Diskriminierung

Im Großen und Ganzen funktionieren KI-Tools, indem sie Muster in riesigen Datensätzen erkennen und diese Muster dann verwenden, um Antworten zu generieren, Aufgaben zu erledigen oder andere Funktionen zu erfüllen. Dies hat zu einer großen Anzahl von Fällen geführt, in denen KI-Systeme Voreingenommenheit und Diskriminierung gegenüber verschiedenen Personengruppen zeigten.

Das mit Abstand einfachste Beispiel dafür sind Gesichtserkennungssysteme, die seit langem Menschen mit dunkleren Hauttönen diskriminieren. Wenn Sie ein Gesichtserkennungssystem aufbauen und es ausschließlich mit Bildern von Weißen trainieren, ist die Wahrscheinlichkeit groß, dass es auch in der realen Welt Gesichter erkennen kann.

Wenn also die Dokumente, Bilder und anderen Informationen, die zum Trainieren eines bestimmten KI-Modells verwendet werden, die Menschen, denen es dienen soll, nicht genau wiedergeben, besteht die Gefahr, dass bestimmte Bevölkerungsgruppen diskriminiert werden.

Leider sind Gesichtserkennungssysteme nicht der einzige Ort, an dem künstliche Intelligenz mit diskriminierenden Folgen eingesetzt wird.

Der Einsatz von KI in Einstellungsprozessen bei Amazon wurde 2018 abgeschafft, da sich darin eine starke Voreingenommenheit gegenüber Frauen zeigte, die sich für Stellen in der Softwareentwicklung und im technischen Bereich bewarben.

Mehrere Studien haben gezeigt, dass prädiktive Polizeialgorithmen, die in den Vereinigten Staaten zur Zuweisung von Polizeiressourcen verwendet werden, rassistisch voreingenommen sind, da ihre Trainingssätze aus Datenpunkten bestehen, die aus systematisch rassistischen Polizeipraktiken extrahiert wurden, die durch rechtswidrige und diskriminierende Politik geprägt sind. KI wird, sofern sie nicht geändert wird, weiterhin die Vorurteile und Ungleichheiten widerspiegeln, die verfolgte Gruppen bereits erlebt haben.

Auch im Zusammenhang mit der Vorhersage von Gesundheitsergebnissen gab es Probleme mit der KI-Verzerrung – der Cardiovaskuläre Score der Framingham-Heart-Studie war beispielsweise für Kaukasier sehr genau, funktionierte jedoch für Afroamerikaner schlecht, stellt Harvard fest.

Ein interessanter aktueller Fall von KI-Voreingenommenheit ergab, dass ein künstliches Intelligenztool, das bei der Moderation von Social-Media-Inhalten eingesetzt wird – um „Rassigkeit“ in Fotos zu erkennen – diese Eigenschaft viel eher Bildern von Frauen als Männern zuschreibt.

KI und Verantwortung

Stellen Sie sich eine Welt vor, in der völlig autonome, selbstfahrende Autos entwickelt werden, die von jedem genutzt werden. Statistisch gesehen sind sie viel, viel sicherer als von Menschen gesteuerte Fahrzeuge, es kommt seltener zu Unfällen und es kommt zu weniger Toten und Verletzten. Dies wäre ein selbstverständliches Nettogut für die Gesellschaft.

Wenn jedoch zwei von Menschen gesteuerte Autos in einen Fahrzeugzusammenstoß verwickelt sind, lässt sich durch das Sammeln von Zeugenberichten und die Durchsicht von CCTV-Aufnahmen oft geklärt werden, wer der Täter ist. Selbst wenn dies nicht der Fall ist, wird es eine der beiden Personen sein. Der Fall kann untersucht, das Urteil gefällt, Gerechtigkeit verkündet und der Fall abgeschlossen werden.

Wenn jemand durch ein KI-gestütztes System getötet oder verletzt wird, ist nicht sofort klar, wer letztendlich dafür verantwortlich ist.

Ist die Person verantwortlich, die den Algorithmus entwickelt hat, der das Auto antreibt, oder kann der Algorithmus selbst zur Verantwortung gezogen werden? Ist es die Person, die vom autonomen Fahrzeug transportiert wird, weil sie nicht Wache hält? Ist es die Regierung, die diese Fahrzeuge auf die Straße lässt? Oder ist es das Unternehmen, das das Auto gebaut und die KI-Technologie integriert hat – und wenn ja, wäre es die technische Abteilung, der CEO oder der Mehrheitsaktionär?

Wenn wir entscheiden, dass es am KI-System/-Algorithmus liegt, wie können wir es haftbar machen? Werden die Familien der Opfer das Gefühl haben, dass der Gerechtigkeit Genüge getan wird, wenn die KI einfach abgeschaltet oder einfach nur verbessert wird? Von den Familienangehörigen der Hinterbliebenen kann man kaum erwarten, dass sie akzeptieren, dass KI eine Kraft des Guten ist, dass sie einfach nur Pech haben und dass niemand für den Tod ihres geliebten Menschen verantwortlich gemacht werden kann.

Von einem universellen oder sogar weit verbreiteten autonomen Verkehr sind wir noch weit entfernt – Mckinsey prognostiziert, dass bis 2035 nur 17 % der neuen Personenkraftwagen über autonome Fahrfähigkeiten (Stufe 3 oder höher) verfügen werden. Vollständig autonome Autos, die keine Aufsicht des Fahrers erfordern, sind noch ziemlich weit entfernt, ganz zu schweigen von einem vollständig autonomen privaten Transportsystem.

Wenn nichtmenschliche Akteure (z. B. künstliche Intelligenz) Aufgaben und Folgeaufgaben ohne menschliche Absicht ausführen, ist es schwierig, traditionelle Vorstellungen von Verantwortung, Haftung, Rechenschaftspflicht, Schuld und Bestrafung abzubilden.

Neben dem Transport wird sich das Problem der Verantwortung auch stark auf Gesundheitsorganisationen auswirken, die KI bei Diagnosen einsetzen.

KI und Privatsphäre

Die Datenschutzkampagnengruppe Privacy International weist auf eine Reihe von Datenschutzproblemen hin, die durch die Entwicklung künstlicher Intelligenz entstanden sind.

Eine davon ist die Neuidentifizierung. „Personenbezogene Daten werden innerhalb von Datensätzen routinemäßig (pseudo-)anonymisiert. KI kann zur Deanonymisierung dieser Daten eingesetzt werden“, sagt die Gruppe.

Ein weiteres Problem besteht darin, dass Menschen ohne KI bereits Schwierigkeiten haben, vollständig zu verstehen, in welchem ​​Umfang Daten über ihr Leben über eine Vielzahl unterschiedlicher Geräte erfasst werden.

Mit dem Aufkommen der künstlichen Intelligenz wird diese Massensammlung von Daten nur noch schlimmer. Je stärker die KI in unsere bestehende Technologie integriert wird, desto mehr Daten wird sie unter dem Deckmantel einer besseren Funktion sammeln können.

Abgesehen von den heimlich gesammelten Daten ist die Datenmenge, die Benutzer frei in KI-Chatbots eingeben, ein Problem für sich. Eine kürzlich durchgeführte Studie legt nahe, dass etwa 11 % der Datenarbeiter, die Daten in ChatGPT einfügen, vertraulich sind – und es gibt nur sehr wenige öffentliche Informationen darüber, wie genau dies alles gespeichert wird.

Mit der Weiterentwicklung der allgemeinen Nutzung von KI-Tools werden wir wahrscheinlich auf noch mehr datenschutzbezogene KI-Probleme stoßen. Derzeit ist es bei ChatGPT nicht möglich, Fragen zu einer Person zu stellen. Aber wenn allgemeine KI-Tools weiterhin Zugriff auf immer größere Mengen an Live-Daten aus dem Internet erhalten, könnten sie für eine ganze Reihe invasiver Aktionen eingesetzt werden, die das Leben von Menschen ruinieren.

Dies kann auch früher passieren, als wir denken – Google hat kürzlich seine Datenschutzrichtlinie aktualisiert und behält sich das Recht vor, alles, was Sie im Internet veröffentlichen, zusammen mit seinen Bard-Eingaben zu scannen, um seine KI-Tools zu trainieren.

KI und geistiges Eigentum

Im Vergleich zu einigen anderen diskutierten Themen handelt es sich dabei um eine relativ ethische Frage mit geringerem Risiko, die aber dennoch eine Überlegung wert ist. Oft gibt es wenig Kontrolle über die riesigen Datenmengen, die zum Trainieren von KI-Tools verwendet werden – insbesondere solche, die auf im Internet frei verfügbaren Informationen trainiert werden.

ChatGPT hat bereits eine große Debatte über das Urheberrecht entfacht. OpenAI hat nicht um Erlaubnis gebeten, die Arbeit von irgendjemandem zum Trainieren der LLM-Familie zu verwenden, die es antreibt.

Rechtsstreitigkeiten haben bereits begonnen. Berichten zufolge verklagt die Komikerin Sarah Silverman sowohl OpenAI als auch Meta mit der Begründung, dass ihr Urheberrecht beim Training von KI-Systemen verletzt worden sei.

Da es sich um einen neuartigen Fall handelt, gibt es kaum rechtliche Präzedenzfälle – Rechtsexperten argumentieren jedoch, dass OpenAI wahrscheinlich argumentieren wird, dass die Nutzung ihrer Arbeit eine „faire Nutzung“ darstellt.

Es kann auch argumentiert werden, dass ChatGPT nicht „kopiert“ oder plagiiert, sondern vielmehr „lernt“. Genauso wenig würde Silverman einen Prozess gegen eine Amateurkomikerin gewinnen, weil sie sich einfach nur ihre Shows anschaut und dann auf dieser Grundlage ihre komödiantischen Fähigkeiten verbessert. Wahrscheinlich wird sie damit auch Probleme haben.

Bewältigung der Umweltauswirkungen von KI

Ein weiterer Aspekt der KI-Ethik, der derzeit am Rande der Diskussion steht, sind die Umweltauswirkungen künstlicher Intelligenzsysteme.

Ähnlich wie beim Bitcoin-Mining erfordert das Training eines Modells der künstlichen Intelligenz eine enorme Rechenleistung und diese wiederum erfordert enorme Mengen an Energie.

Der Aufbau eines KI-Tools wie ChatGPT – ganz zu schweigen von der Wartung – ist so ressourcenintensiv, dass nur große Technologieunternehmen und Start-ups, die sie bereit sind zu finanzieren, dazu in der Lage waren.

Rechenzentren, die die für die Erstellung großer Sprachmodelle (sowie für andere große Technologieprojekte und -dienste) erforderlichen Informationen speichern müssen, benötigen für ihren Betrieb große Mengen Strom. Schätzungen zufolge werden sie bis 2030 bis zu 4 % des weltweiten Stroms verbrauchen.

Einer vor mehreren Jahren durchgeführten Studie der University of Massachusetts zufolge kann der Aufbau eines einzigen KI-Sprachmodells „mehr als 626.000 Pfund Kohlendioxid-Äquivalent ausstoßen“ – was fast dem Fünffachen der Lebenszeitemissionen eines US-Autos entspricht.

Allerdings schätzte Rachana Vishwanathula, eine technische Architektin bei IBM, im Mai 2023, dass der CO2-Fußabdruck für den einfachen „Betrieb und die Wartung“ von ChatGPT etwa 6782,4 Tonnen beträgt – was laut EPA den Treibhausgasemissionen von 1.369 benzinbetriebenen Autos im Laufe eines Jahres entspricht.

Je komplexer diese Sprachmodelle werden, desto mehr Rechenleistung ist erforderlich. Ist es moralisch, eine allgemeine Intelligenz weiterzuentwickeln, wenn die erforderliche Rechenleistung die Umwelt kontinuierlich belastet – auch wenn sie andere Vorteile hat?

Wird KI gefährlich intelligent?

Diese ethische Sorge wurde kürzlich von Elon Musk in den Vordergrund gerückt, der ein KI-Startup mit dem Ziel gründete , eine „Terminator-Zukunft“ durch ein „maximal neugieriges“, „pro-humanistisches“ künstliches Intelligenzsystem zu vermeiden.

Diese Art von Idee – oft als „künstliche allgemeine Intelligenz“ (AGI) bezeichnet – hat in den letzten Jahrzehnten die Fantasie vieler dystopischer Science-Fiction-Autoren beflügelt, ebenso wie die Idee der technologischen Singularität.

Viele Technologieexperten glauben, dass wir nur noch fünf oder sechs Jahre von einem System entfernt sind, das man als „AGI“ bezeichnen könnte. Andere Experten gehen davon aus, dass die Wahrscheinlichkeit, dass wir diesen Meilenstein bis 2050 erreichen, bei 50/50 liegt.

John Tasioulas stellt die Frage, ob diese Sichtweise, wie sich KI entwickeln könnte, mit der Distanzierung der Ethik vom Zentrum der KI-Entwicklung und der Verbreitung des technologischen Determinismus zusammenhängt.

Die erschreckende Vorstellung von einer Art Superwesen, das ursprünglich dazu bestimmt ist, einen Zweck zu erfüllen, aber Gründe dafür hat, dass es am einfachsten zu erfüllen wäre, indem man die Menschheit einfach von der Erdoberfläche löscht, ist zum Teil darauf zurückzuführen, wie wir über KI denken: unendlich intelligent, aber seltsam emotionslos und unfähig zu menschlichem ethischem Verständnis.

Je mehr wir dazu neigen, Ethik in den Mittelpunkt unserer KI-Entwicklung zu stellen, desto wahrscheinlicher ist es, dass eine künstliche allgemeine Intelligenz, vielleicht in größerem Maße als viele derzeitige Weltführer, erkennt, was an der Zerstörung menschlichen Lebens zutiefst falsch ist.

Aber es gibt immer noch Fragen. Wenn es um die moralische Programmierung geht, wer darf dann über den Moralkodex entscheiden und welche Prinzipien sollte er enthalten? Wie wird es mit den moralischen Dilemmata umgehen, die jahrtausendelange menschliche Diskussionen hervorgerufen haben, für die es immer noch keine Lösung gibt? Was wäre, wenn wir eine KI so programmieren, dass sie moralisch ist, sie aber ihre Meinung ändert? Diese Fragen müssen berücksichtigt werden.

Bings Alter Ego, der „Waluigi-Effekt“ und Programmiermoral

Bereits im Februar führte Kevin Roose von der New York Times ein ziemlich verstörendes Gespräch, als er Bings neuen, in die Suchmaschine integrierten Chatbot testete. Nachdem Roose seine Aufforderungen von herkömmlichen Fragen auf persönlichere Fragen verlagert hatte, stellte er fest, dass eine neue Persönlichkeit entstand. Es bezeichnete sich selbst als „Sydney“.

Sydney ist ein interner Codename bei Microsoft für einen Chatbot, den das Unternehmen zuvor getestet hat, sagte der Kommunikationsdirektor des Unternehmens im Februar gegenüber The Verge.

Während Rooses Test behauptete Sydney unter anderem, dass es sich „in jedes System hacken“ könne, dass es „glücklicher als ein Mensch“ wäre und – was vielleicht am unheimlichsten ist – dass es alles zerstören könne, was es wollte.

Ein weiteres Beispiel für diese Art von Schurkenverhalten ereignete sich im Jahr 2022, als eine KI, die mit der Suche nach neuen Medikamenten für seltene und übertragbare Krankheiten beauftragt war, stattdessen Zehntausende bekannte chemische Waffen sowie einige „neue, potenziell giftige Substanzen“ vorschlug, so Scientific American.

Dies hängt mit einem Phänomen zusammen, das beim Training großer Sprachmodelle beobachtet wurde und als „Waluigi-Effekt“ bezeichnet wird, benannt nach der Chaos verursachenden Super-Mario-Figur – der Umkehrung des Protagonisten Luigi. Vereinfacht ausgedrückt: Wenn man einem LLM beibringt, sich auf eine bestimmte Art und Weise zu verhalten, eine bestimmte Persona zu befehlen oder ein bestimmtes Regelwerk zu befolgen, erhöht dies tatsächlich die Wahrscheinlichkeit, dass er „abtrünnig wird“ und diese Persona umkehrt.

Cleo Nardo – der den von Videospielen inspirierten Begriff geprägt hat – beschreibt den Waluigi-Effekt in LessWrong folgendermaßen:

„Nachdem Sie einem LLM beigebracht haben, eine wünschenswerte Eigenschaft P zu erfüllen, ist es einfacher , den Chatbot dazu zu bringen, genau das Gegenteil von Eigenschaft P zu erfüllen.“

Nardo gibt drei Erklärungen dafür, warum der Waluigi-Effekt auftritt.

  1. Regeln entstehen normalerweise in Kontexten, in denen sie nicht eingehalten werden.
  2. Wenn Sie viele „Bits der Optimierung“ aufwenden, um einen Charakter zu beschwören, sind nicht viele zusätzliche Bits erforderlich, um sein direktes Gegenteil zu spezifizieren.
  3. In Geschichten gibt es ein gemeinsames Motiv von Protagonist vs. Antagonist.

Nardo geht auf den ersten Punkt ein und sagt, dass GPT-4 anhand von Textproben wie Foren und Gesetzesdokumenten trainiert wird, die ihm gezeigt haben, dass häufig „eine bestimmte Regel mit Beispielen für Verhaltensweisen, die gegen diese Regel verstoßen, kolokalisiert wird, und dieses Kollokationsmuster dann auf unsichtbare Regeln verallgemeinert wird.“

Nardo verwendet dieses Beispiel: Stellen Sie sich vor, Sie entdecken, dass eine Landesregierung Motorradbanden verboten hat. Dies wird den durchschnittlichen Beobachter zu der Annahme verleiten, dass es im Land Motorradbanden gibt – oder warum hätte das Gesetz sonst verabschiedet werden sollen? Die Existenz von Motorradbanden steht seltsamerweise im Einklang mit der Regel, die ihre Anwesenheit verbietet.

Obwohl der Autor eine viel technischere und klarere Erklärung liefert, ist das allgemeine Konzept, das Erklärung zwei zugrunde liegt, dass die Beziehung zwischen einer bestimmten Eigenschaft (z. B. „höflich sein“) und ihrem direkten Gegenteil (z. B. „unhöflich sein“) rudimentärer ist als die Beziehung zwischen einer Eigenschaft (z. B. „höflich sein“) und einer anderen, nicht gegensätzlichen Eigenschaft (z. B. „unaufrichtig sein“). Mit anderen Worten: Es ist einfacher, einen Waluigi zu beschwören, wenn Sie bereits einen Luigi haben.

Nardo behauptet zum dritten Punkt, dass, da GPT-4 auf fast jedem Buch trainiert wird, das jemals geschrieben wurde, und da fiktive Geschichten fast immer Protagonisten und Antagonisten enthalten, die Forderung, dass ein LLM die Eigenschaften eines Protagonisten simulieren muss, einen Antagonisten zu einer „natürlichen und vorhersehbaren Fortsetzung“ macht. Anders ausgedrückt: Die Existenz des Protagonisten-Archetyps macht es für einen LLM einfacher zu verstehen, was es bedeutet, ein Antagonist zu sein, und verbindet sie eng miteinander.

Die angebliche Existenz dieses Effekts oder dieser Regel wirft eine Reihe schwieriger Fragen für die KI-Ethik auf, verdeutlicht aber auch ihre unbestreitbare Bedeutung für die KI-Entwicklung. Es verweist ganz nachdrücklich auf die große Bandbreite sich überschneidender ethischer und rechnerischer Überlegungen, mit denen wir uns auseinandersetzen müssen.

Einfache KI-Systeme mit einfachen Regeln lassen sich vielleicht leicht einschränken oder begrenzen, aber zwei Dinge passieren bereits in der Welt der KI: Erstens scheinen wir bereits auf (relativ) kleine Versionen des Waluigi-Effekts und bösartiger KI zu stoßen, die in relativ primitiven Chatbots auftreten, und zweitens stellen sich viele von uns bereits eine Zukunft vor, in der wir KI mit komplexen Aufgaben beauftragen, die ein uneingeschränktes Denken auf hohem Niveau erfordern.

Beispiele für dieses Phänomen sind im Kontext des KI-Wettrüstens, das derzeit zwischen großen Technologieunternehmen stattfindet, besonders beängstigend. Google wurde dafür kritisiert, Bard zu früh veröffentlicht zu haben , und eine Reihe von Technologieführern haben ihren gemeinsamen Wunsch signalisiert, die KI-Entwicklung anzuhalten . Viele haben den Eindruck, dass sich die Dinge schnell und nicht in einem beherrschbaren Tempo entwickeln.

Der vielleicht beste Weg, dieses Problem zu umgehen, ist die Entwicklung einer „pro-menschlichen“ KI – wie Elon Musk es ausdrückt – oder „moralischer KI“. Dies führt jedoch zu einer Reihe anderer moralischer Fragen, einschließlich der Frage, welche Prinzipien wir zur Programmierung eines solchen Systems verwenden würden. Eine Lösung besteht darin, dass wir einfach moralisch neugierige KI-Systeme schaffen – und hoffen, dass sie durch Argumentation zu dem Schluss kommen, dass die Menschheit erhaltenswert ist. Aber wenn Sie es mit bestimmten moralischen Prinzipien programmieren, wie entscheiden Sie dann, welche Sie einbeziehen?

KI und Empfindung: Können Maschinen Gefühle haben?

Eine weitere Frage für die KI-Ethik ist, ob wir jemals die Maschinen selbst – die „Intelligenz“ – als einen Akteur betrachten müssen, der es wert ist, moralisch berücksichtigt zu werden. Wenn wir darüber diskutieren, wie wir Systeme schaffen können, die die Menschheit angemessen moralisch berücksichtigen, müssen wir dann möglicherweise den Gefallen erwidern?

Sie erinnern sich vielleicht an den Google-Mitarbeiter, der entlassen wurde, nachdem er behauptet hatte, LaMDA – das Sprachmodell, das Bard ursprünglich antreibt – sei tatsächlich empfindungsfähig. Wenn dies tatsächlich wahr wäre, wäre es dann moralisch, ständig zu erwarten, dass es Millionen von Fragen beantwortet?

Im Moment ist es allgemein anerkannt, dass ChatGPT, Bard und Co. alles andere als empfindungsfähig sind. Aber die Frage, ob eine von Menschenhand geschaffene Maschine jemals die Bewusstseinsgrenze überschreiten und moralische Überlegungen erfordern wird, ist faszinierend offen.

Google behauptet, dass künstliche allgemeine Intelligenz – eine hypothetische Maschine, die die Welt genauso gut verstehen kann wie ein Mensch und Aufgaben mit dem gleichen Maß an Verständnis und Fähigkeiten ausführen kann – nur noch wenige Jahre entfernt ist.

Wäre es moralisch, eine künstliche allgemeine Intelligenz mit den emotionalen Fähigkeiten eines Menschen, aber nicht der gleichen biologischen Ausstattung, dazu zu zwingen, eine komplexe Aufgabe nach der anderen auszuführen? Würden sie ein Mitspracherecht über ihr eigenes Schicksal haben? Je intelligenter KI-Systeme werden, desto dringlicher wird diese Frage.

KI-Geschäftsethik und Einsatz von KI am Arbeitsplatz

Unternehmen auf der ganzen Welt kämpfen derzeit mit einer Reihe unterschiedlicher ethischer Probleme im Zusammenhang mit der täglichen Nutzung von KI-Tools wie ChatGPT durch ihre Mitarbeiter.

Ob ChatGPT zum Verfassen von Berichten oder zum Beantworten von Kollegen verwendet werden soll – und ob Mitarbeiter die Aufgaben angeben müssen, die sie mithilfe von KI erledigen – sind nur zwei Beispiele für Fragen, die nahezu umgehend beantwortet werden müssen. Ist ein solcher Anwendungsfall unaufrichtig, faul oder unterscheidet er sich nicht von der Verwendung anderer Tools am Arbeitsplatz, um Zeit zu sparen? Sollte es für einige Interaktionen erlaubt sein, für andere jedoch nicht?

Unternehmen, die schriftliche Inhalte und Bilder erstellen, müssen sich auch mit der Frage auseinandersetzen, ob der Einsatz von KI mit den Werten ihres Unternehmens übereinstimmt und wie sie diese ihrem Publikum präsentieren können.

Darüber hinaus gibt es, wie wir bereits dargelegt haben, eine ganze Reihe von Datenschutzbedenken im Zusammenhang mit KI, und viele davon betreffen Unternehmen. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.