KI-Herausforderungen im Jahr 2024: Erkenntnisse von drei führenden KI-Forschern

Veröffentlicht: 2024-01-13

Das Jahr 2023 war ein Wendepunkt in der Entwicklung der künstlichen Intelligenz und ihrer Rolle in der Gesellschaft.

In diesem Jahr entstand die generative KI, die die Technologie aus dem Schatten in den Mittelpunkt der öffentlichen Vorstellung rückte. Außerdem dominierte mehrere Tage lang das Sitzungsdrama eines KI-Startups den Nachrichtenzyklus.

Und es kam dazu, dass die Biden-Regierung eine Durchführungsverordnung erließ und die Europäische Union ein Gesetz zur Regulierung der KI verabschiedete, Schritte, die sich vielleicht am besten als Versuch beschreiben lassen, ein Pferd aufzuzäumen, das bereits dahingaloppiert.

Wir haben eine Gruppe von KI-Wissenschaftlern zusammengestellt, die einen Blick auf das Jahr 2024 werfen und die Probleme beschreiben, mit denen KI-Entwickler, Regulierungsbehörden und normale Menschen wahrscheinlich konfrontiert werden, sowie ihre Hoffnungen und Empfehlungen äußern.


Casey Fiesler, außerordentlicher Professor für Informationswissenschaft, University of Colorado Boulder

2023 war das Jahr des KI-Hypes. Unabhängig davon, ob die Erzählung lautete, dass KI die Welt retten oder zerstören würde, hatte man oft das Gefühl, dass Visionen davon, was KI eines Tages sein könnte, die aktuelle Realität überwältigten.

Und obwohl ich denke, dass die Antizipation zukünftiger Schäden eine entscheidende Komponente bei der Überwindung ethischer Schulden in der Technologie ist, besteht die Gefahr, dass eine Vision von KI entsteht, wenn man sich zu sehr auf den Hype einlässt, der eher wie Magie wirkt als eine Technologie, die immer noch durch explizite Entscheidungen gestaltet werden kann.

Um die Kontrolle zu übernehmen, ist jedoch ein besseres Verständnis dieser Technologie erforderlich.

Eine der wichtigsten KI-Debatten des Jahres 2023 drehte sich um die Rolle von ChatGPT und ähnlichen Chatbots im Bildungswesen.

Letztes Jahr um diese Zeit konzentrierten sich die wichtigsten Schlagzeilen darauf, wie Schüler es zum Betrügen nutzen könnten und wie Pädagogen versuchten, sie davon abzuhalten – auf eine Weise, die oft mehr schadet als nützt.

Im Laufe des Jahres erkannte man jedoch, dass es für sie benachteiligend sein könnte, den Schülern nichts über KI beizubringen, und viele Schulen hoben ihre Verbote auf.

Ich denke nicht, dass wir die Bildung umgestalten sollten, um KI in den Mittelpunkt von allem zu stellen, aber wenn Schüler nicht lernen, wie KI funktioniert, werden sie ihre Grenzen nicht verstehen – und daher nicht verstehen, wie nützlich und angemessen sie ist wie es nicht ist.

Das gilt nicht nur für Studierende. Je besser die Menschen verstehen, wie KI funktioniert, desto stärker sind sie in der Lage, sie zu nutzen und zu kritisieren.

Meine Prognose oder vielleicht auch meine Hoffnung für 2024 ist, dass es einen enormen Lernschub geben wird.

Im Jahr 1966 schrieb Joseph Weizenbaum, der Erfinder des ELIZA-Chatbots, dass Maschinen „oft ausreichen, um selbst den erfahrensten Beobachter zu verblüffen“, dass ihre Magie jedoch verschwindet, sobald „ihre innere Funktionsweise in einer Sprache erklärt wird, die so deutlich ist, dass sie zum Verständnis anregt“. .“

Die Herausforderung bei generativer künstlicher Intelligenz besteht darin, dass es im Gegensatz zu ELIZAs sehr grundlegender Mustervergleichs- und Substitutionsmethodik viel schwieriger ist, eine Sprache zu finden, die „ausreichend klar“ ist, um die KI-Magie zum Zerbröckeln zu bringen.

Ich denke, dass es möglich ist, dies zu erreichen. Ich hoffe, dass Universitäten, die sich beeilen, mehr technische KI-Experten einzustellen, sich genauso viel Mühe geben, KI-Ethiker einzustellen. Ich hoffe, dass die Medien dabei helfen, den Hype zu durchbrechen. Ich hoffe, dass jeder über seinen eigenen Einsatz dieser Technologie und ihre Folgen nachdenkt.

Und ich hoffe, dass Technologieunternehmen auf fundierte Kritik hören, wenn sie darüber nachdenken, welche Entscheidungen weiterhin die Zukunft prägen werden. Viele der Herausforderungen im kommenden Jahr haben mit Problemen der KI zu tun, mit denen die Gesellschaft bereits konfrontiert ist.


Kentaro Toyama, Professor für Community Information, University of Michigan

1970 sagte Marvin Minsky, der KI-Pionier und Skeptiker neuronaler Netze, gegenüber der Zeitschrift Life: „In drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlichen Menschen haben.“

Mit der Singularität, dem Moment, in dem die künstliche Intelligenz mit der menschlichen Intelligenz übereinstimmt und sie zu übertreffen beginnt – noch nicht ganz da – kann man mit Sicherheit sagen, dass Minsky mindestens um den Faktor 10 daneben lag. Es ist gefährlich, Vorhersagen über KI zu treffen.

Dennoch erscheint es nicht ganz so riskant, Vorhersagen für ein Jahr zu treffen. Was ist von KI im Jahr 2024 zu erwarten?

Erstens: Das Rennen ist eröffnet! Die Fortschritte in der KI waren seit den Tagen von Minskys Blütezeit stetig, aber die öffentliche Veröffentlichung von ChatGPT im Jahr 2022 löste einen umfassenden Wettbewerb um Profit, Ruhm und globale Vormachtstellung aus.

Erwarten Sie eine leistungsfähigere KI sowie eine Flut neuer KI-Anwendungen.

Die große technische Frage ist, wie schnell und wie gründlich KI-Ingenieure die aktuelle Achillesferse des Deep Learning angehen können – das, was man verallgemeinertes hartes Denken nennen könnte, Dinge wie deduktive Logik.

Reichen schnelle Anpassungen bestehender neuronaler Netzalgorithmen aus oder ist ein grundlegend anderer Ansatz erforderlich, wie der Neurowissenschaftler Gary Marcus vorschlägt?

Heerscharen von KI-Wissenschaftlern arbeiten an diesem Problem, daher erwarte ich im Jahr 2024 einige Fortschritte.

Unterdessen dürften neue KI-Anwendungen auch neue Probleme mit sich bringen. Vielleicht hören Sie bald von KI-Chatbots und Assistenten, die miteinander reden und ganze Gespräche in Ihrem Namen, aber hinter Ihrem Rücken führen.

Einiges davon wird durcheinander geraten – komisch, tragisch oder beides.

Deepfakes, KI-generierte Bilder und Videos, die schwer zu erkennen sind, werden trotz der aufkommenden Regulierung wahrscheinlich weit verbreitet sein und Einzelpersonen und Demokratien 1. überall noch größeren Schaden zufügen. Und es wird wahrscheinlich neue Klassen von KI-Katastrophen geben, die vor fünf Jahren noch nicht möglich gewesen wären.

Apropos Probleme: Gerade die Menschen, die am lautesten Alarm wegen KI schlagen – wie Elon Musk und Sam Altman – können sich offenbar nicht davon abhalten, immer leistungsfähigere KI zu entwickeln.

Ich gehe davon aus, dass sie weiterhin das Gleiche tun werden. Sie sind wie Brandstifter, die das Feuer herbeirufen, das sie selbst angefacht haben, und die Behörden anflehen, sie zurückzuhalten.

Und in diesem Sinne hoffe ich am meisten für 2024 – auch wenn es langsam voranzuschreiten scheint – eine stärkere KI-Regulierung auf nationaler und internationaler Ebene.


Anjana Susarla, Professorin für Informationssysteme, Michigan State University

Im Jahr seit der Einführung von ChatGPT geht die Entwicklung generativer KI-Modelle in rasantem Tempo weiter.

Im Gegensatz zu ChatGPT vor einem Jahr, das Texteingabeaufforderungen als Eingaben verwendete und Textausgaben erzeugte, ist die neue Klasse generativer KI-Modelle multimodal trainiert, was bedeutet, dass die für das Training verwendeten Daten nicht nur aus Textquellen wie z Wikipedia und Reddit, aber auch aus Videos auf YouTube, Songs auf Spotify und anderen Audio- und Videoinformationen.

Mit der neuen Generation multimodaler Large Language Models (LLMs), die diese Anwendungen unterstützen, können Sie Texteingaben verwenden, um nicht nur Bilder und Text, sondern auch Audio und Video zu generieren.

Unternehmen bemühen sich darum, LLMs zu entwickeln, die auf einer Vielzahl von Hardware und in einer Vielzahl von Anwendungen eingesetzt werden können, einschließlich der Ausführung eines LLM auf Ihrem Smartphone.

Das Aufkommen dieser leichtgewichtigen LLMs und Open-Source-LLMs könnte eine Welt autonomer KI-Agenten einläuten – eine Welt, auf die die Gesellschaft nicht unbedingt vorbereitet ist.

Diese fortschrittlichen KI-Funktionen bieten eine enorme Transformationskraft in Anwendungen, die von der Wirtschaft bis zur Präzisionsmedizin reichen.

Meine Hauptsorge besteht darin, dass solche fortschrittlichen Fähigkeiten neue Herausforderungen bei der Unterscheidung zwischen von Menschen erstellten Inhalten und von KI erstellten Inhalten mit sich bringen und neue Arten von algorithmischen Schäden mit sich bringen werden.

Die Flut an synthetischen Inhalten, die durch generative KI erzeugt werden, könnte eine Welt auslösen, in der böswillige Personen und Institutionen synthetische Identitäten herstellen und groß angelegte Fehlinformationen orchestrieren können.

Eine Flut von KI-generierten Inhalten, die darauf ausgelegt sind, algorithmische Filter und Empfehlungsmaschinen auszunutzen, könnte bald kritische Funktionen wie Informationsüberprüfung, Informationskompetenz und Serendipity überfordern, die von Suchmaschinen, Social-Media-Plattformen und digitalen Diensten bereitgestellt werden.

Die Federal Trade Commission hat vor Betrug, Täuschung, Verletzungen der Privatsphäre und anderen unlauteren Praktiken gewarnt, die durch die einfache KI-gestützte Erstellung von Inhalten ermöglicht werden.

Während digitale Plattformen wie YouTube Richtlinien für die Offenlegung von KI-generierten Inhalten eingeführt haben, besteht Bedarf an einer genaueren Prüfung algorithmischer Schäden durch Behörden wie die FTC und Gesetzgeber, die sich mit Datenschutzmaßnahmen wie dem American Data Privacy & Protection Act befassen.

Ein neuer parteiübergreifender Gesetzentwurf, der im Kongress eingebracht wurde, zielt darauf ab, algorithmische Kompetenz als Schlüsselbestandteil der digitalen Kompetenz zu kodifizieren.

Da KI zunehmend mit allem, was Menschen tun, verflochten ist, ist es klar, dass es an der Zeit ist, sich nicht auf Algorithmen als Teile der Technologie zu konzentrieren, sondern die Kontexte zu berücksichtigen, in denen die Algorithmen agieren: Menschen, Prozesse und Gesellschaft.

Anmerkung des Herausgebers: Dieser Artikel wurde von Anjana Susarla, Professorin für Informationssysteme, Michigan State University, Casey Fiesler, außerordentlicher Professor für Informationswissenschaft, University of Colorado Boulder, Kentaro Toyama, Professor für Community Information, University of Michigan, verfasst und von The Conversation erneut veröffentlicht unter einer Creative Commons-Lizenz. Lesen Sie den Originalartikel.

Folgen Sie uns auf Flipboard, Google News oder Apple News