ChatGPT leitet Benutzer zu einer Abstimmungsseite weiter, wenn sie nach der Wahl gefragt werden

Veröffentlicht: 2024-01-16

OpenAI hat seine Pläne bekannt gegeben, um sicherzustellen, dass ChatGPT sich nicht zu einem störenden Einfluss auf die Wahlen entwickelt, die dieses Jahr weltweit stattfinden, auch in den USA und im Vereinigten Königreich.

Einer der Schritte, die das Unternehmen unternimmt, um sicherzustellen, dass US-Benutzern legitime Wahlinformationen angezeigt werden, besteht darin, sie auf eine „autoritäre“ Wahlseite namens CanIVote.Org weiterzuleiten, auf der Benutzer Informationen zu Wahlverfahren, Wahlorten usw. finden können Früh- und Briefwahl.

Darüber hinaus kündigte das Startup eine Reihe weiterer wichtiger Klarstellungen und Änderungen in Bezug auf politische Inhalte und Missbrauchsprävention auf seinen Plattformen an, die nach wie vor die beliebtesten KI-Tools der Unternehmen sind.

ChatGPT leitet Benutzer auf eine Seite mit Abstimmungsinformationen weiter

„In den Vereinigten Staaten arbeiten wir mit der National Association of Secretaries of State (NASS) zusammen, der landesweit ältesten überparteilichen Berufsorganisation für Beamte“, enthüllte OpenAI diese Woche in einem Blogbeitrag.

Im Rahmen seiner Herangehensweise an die US-Wahl 2024 wird ChatGPT Benutzer direkt an CanIVote.org weiterleiten, wenn ihnen bestimmte Fragen zu Wahlthemen gestellt werden.

CanIVote.org ist eine Webseite, auf der alle Wahlberechtigten in den USA ihren Wählerregistrierungsstatus, den Standort des nächstgelegenen Wahllokals und Informationen darüber erfahren können, was einen gültigen Ausweis für die Stimmabgabe darstellt.

Auf der Website sind auch Informationen zur Briefwahl und vorzeitigen Stimmabgabe über Links zu den Wahlbehörden der Bundesstaaten verfügbar.

Surfshark-Logo Möchten Sie privat im Internet surfen? Oder so aussehen, als wären Sie in einem anderen Land?
Sichern Sie sich mit diesem Sonderangebot von tech.co satte 86 % Rabatt auf Surfshark. Siehe Deal-Button

Wenn diese Art von Aktion in den USA erfolgreich ist, sagt OpenAI, dann werde man den Ansatz während der Wahlzyklen in anderen Regionen wiederholen.

Weitere Schritte, die ChatGPT im Wahljahr unternimmt

Neben der Weiterleitung der Wähler an legitime Quellen für Wahlinformationen gibt es laut OpenAI mehrere weitere Schritte, die unternommen werden, um sicherzustellen, dass ChatGPT im Wahljahr nicht missbraucht wird.

Sie können beispielsweise keinen GPT (einen benutzerdefinierten Chatbot) erstellen , der eine politische Persönlichkeit oder Institution nachahmt und dann so tut, als würde er in ihrem Namen sprechen. Auch „Bewerbungen“, die Menschen von der Teilnahme abschrecken sollen, sind nicht auf der Speisekarte.

„Wir arbeiten daran, relevanten Missbrauch zu antizipieren und zu verhindern – etwa irreführende „ Deepfakes “, groß angelegte Einflussnahmen oder Chatbots, die sich als Kandidaten ausgeben“, sagt Open AI.

„Bevor wir neue Systeme veröffentlichen, erstellen wir ein Red-Team für sie, holen Benutzer und externe Partner um Feedback ein und entwickeln Sicherheitsmaßnahmen, um das Schadenspotenzial zu reduzieren“, fügt das Unternehmen hinzu.

Was die Bildgenerierung angeht, implementiert ChatGPT Anfang dieses Jahres die digitalen Anmeldeinformationen der Coalition for Content Provenance and Authenticity – was das Anbringen eines kryptografischen Markers an allen mit DALL-E generierten Bildern beinhaltet.

OpenAI sagt auch, dass es einige „vielversprechende“ Ergebnisse eines neuen Provenienzklassifikators gesehen hat, mit dem das Unternehmen experimentiert. Die Technologie soll erkennen, ob ein Bild mit DALL-E erstellt wurde, auch wenn es in irgendeiner Weise verändert wurde.

Wird ChatGPT einen guten oder einen schlechten Einfluss auf Wahlen haben?

ChatGPT wird von Unternehmen in den Vereinigten Staaten häufig genutzt und es wird erwartet, dass der Chatbot überzeugend auf eine Lawine politischer und rechtlicher Fragen reagiert, wenn die Wahl näher rückt.

Obwohl ausführlich über die Möglichkeit gesprochen wurde, dass ChatGPT – wie auch andere KI-Tools – zur Verbreitung von Desinformation eingesetzt wird, ist es alles andere als eindeutig, ob ChatGPT speziell einen besonders negativen Einfluss auf Wahlen haben wird.

Natürlich besteht die Gefahr, dass ChatGPT unbeabsichtigt falsche politische Informationen bereitstellt – obwohl OpenAI mit seinem Ansatz dieser Möglichkeit offenbar direkt entgegentritt.

Tatsächlich würden Pläne, Wähler auf eine Website mit legitimen Wahlinformationen zu leiten – und sicherzustellen, dass ChatGPT demokratische Prozesse nicht falsch darstellt –, zumindest oberflächlich betrachtet, darauf hindeuten, dass OpenAI möglicherweise strengere Vorschriften für sich selbst durchgesetzt hat als viele der anderen von uns genutzten Kanäle um Informationen zu beschaffen, wo Desinformation oft schwelert.

Desinformation – sowie andere überzeugende politische Inhalte – strömen bereits in rasantem Tempo über Social-Media-Seiten , Suchmaschinen und sogar einige traditionelle Medienkanäle.

Darüber hinaus verwaltet OpenAI nicht Millionen von Benutzern, die einen endlosen Strom von von Menschen erstellten Inhalten wie Social-Media- Sites produzieren, und es gibt keine entsprechenden Überlegungen zum Ersten Verfassungszusatz. Die Ausgabe von ChatGPT ist nicht ganz so „unkontrolliert“ und auch nicht geschützt.

Theoretisch könnte OpenAI sogar eine „No-Politics“-Regel durchsetzen, wenn es das wirklich wollte. Dieses grobe Prinzip wird bereits auf GPTs angewendet, die nicht so gestaltet werden können, dass sie Figuren oder Institutionen nachahmen.

Die Bedrohung, die KI für demokratische Wahlen im Inland darstellt – und es ist eine sehr reale – geht wahrscheinlich eher von generativen KI-Tools aus, die nicht dem gleichen öffentlichen Druck ausgesetzt sind, ihren „Ansatz“ für die Wahlen im Jahr 2024 bekannt zu machen oder von jemandem, der ein bösartiges KI-Tool entwickelt hat und daher keine Schutzmaßnahmen implementiert.

Natürlich nutzen nationalstaatliche Akteure bereits KI-Instrumente, um Desinformation zu verbreiten, und dies ist wahrscheinlich die wahrscheinlichste Art und Weise, wie KI eingesetzt wird, um demokratische Prozesse zu stören, wenn man die letzten Jahre der Einmischung in Wahlen weiterverfolgt.

Es ist auch wichtig, sich daran zu erinnern, dass es sich um ein KI-System handelt, das uns immer wieder überrascht und sich weiterhin als fehlbar und anfällig für Manipulationen erweist. Und sobald OpenAI Änderungen an ChatGPT vornimmt, wartet eine Armee von Leuten darauf, es an seine logischen Grenzen zu bringen. Eine Flut von Wahlen schafft lediglich eine zusätzliche politische Motivation, dies zu tun.

Was auch immer passiert, die Art und Weise, wie ChatGPT und andere KI-Tools von Wählern genutzt werden, wird das ganze Jahr über die Schlagzeilen beherrschen.