Les défis de l’IA en 2024 : points de vue de 3 chercheurs de premier plan en IA

Publié: 2024-01-13

2023 a été un point d’inflexion dans l’évolution de l’intelligence artificielle et de son rôle dans la société.

L’année a vu l’émergence de l’IA générative, qui a fait passer la technologie de l’ombre au centre de l’imaginaire du public. Il a également vu des drames dans les conseils d’administration d’une start-up d’IA dominer le cycle de l’actualité pendant plusieurs jours.

Et cela a vu l’administration Biden publier un décret et l’Union européenne adopter une loi visant à réglementer l’IA, des mesures peut-être mieux décrites comme une tentative de brider un cheval qui galopait déjà.

Nous avons réuni un panel de spécialistes de l'IA pour envisager 2024 et décrire les problèmes que les développeurs d'IA, les régulateurs et les citoyens ordinaires sont susceptibles d'affronter, et pour donner leurs espoirs et leurs recommandations.


Casey Fiesler, professeur agrégé de sciences de l'information, Université du Colorado à Boulder

2023 a été l’année du battage médiatique sur l’IA. Que l’on prétende que l’IA allait sauver le monde ou le détruire, on avait souvent l’impression que les visions de ce que pourrait être l’IA un jour dépassaient la réalité actuelle.

Et même si je pense qu’anticiper les dommages futurs est un élément essentiel pour surmonter la dette éthique dans la technologie, se laisser trop emporter par le battage médiatique risque de créer une vision de l’IA qui ressemble plus à de la magie qu’à une technologie qui peut encore être façonnée par des choix explicites.

Mais prendre le contrôle nécessite une meilleure compréhension de cette technologie.

L’un des débats majeurs sur l’IA en 2023 portait sur le rôle de ChatGPT et des chatbots similaires dans l’éducation.

L’année dernière à la même époque, les gros titres les plus pertinents se concentraient sur la façon dont les élèves pouvaient l’utiliser pour tricher et sur la façon dont les enseignants se démenaient pour les en empêcher – d’une manière qui fait souvent plus de mal que de bien.

Cependant, au fil de l’année, on s’est rendu compte que le fait de ne pas enseigner l’IA aux étudiants pourrait les désavantager, et de nombreuses écoles ont annulé leurs interdictions.

Je ne pense pas que nous devrions réorganiser l'éducation pour mettre l'IA au centre de tout, mais si les étudiants n'apprennent pas comment fonctionne l'IA, ils ne comprendront pas ses limites – et donc comment il est utile et approprié de l'utiliser et de l'utiliser. comment ça ne l'est pas.

Cela n'est pas seulement vrai pour les étudiants. Plus les gens comprennent le fonctionnement de l’IA, plus ils sont en mesure de l’utiliser et de la critiquer.

Ainsi, ma prédiction, ou peut-être mon espoir, pour 2024, est qu’il y aura une énorme poussée d’apprentissage.

En 1966, Joseph Weizenbaum, le créateur du chatbot ELIZA, écrivait que les machines « suffisent souvent à éblouir même l’observateur le plus expérimenté », mais qu’une fois que « leur fonctionnement interne est expliqué dans un langage suffisamment simple pour inciter à la compréhension, leur magie s’effondre ». .»

Le défi de l'intelligence artificielle générative est que, contrairement à la méthodologie très basique de correspondance et de substitution de modèles d'ELIZA, il est beaucoup plus difficile de trouver un langage « suffisamment simple » pour faire s'effondrer la magie de l'IA.

Je pense qu'il est possible de réaliser cela. J’espère que les universités qui s’empressent d’embaucher davantage d’experts techniques en IA consacreront autant d’efforts à embaucher des éthiciens de l’IA. J’espère que les médias contribueront à mettre fin au battage médiatique. J'espère que chacun réfléchira à ses propres utilisations de cette technologie et à ses conséquences.

Et j’espère que les entreprises technologiques écouteront les critiques éclairées lorsqu’elles réfléchiront aux choix qui continueront de façonner l’avenir. De nombreux défis de l’année à venir sont liés aux problèmes d’IA auxquels la société est déjà confrontée.


Kentaro Toyama, professeur d'information communautaire, Université du Michigan

En 1970, Marvin Minsky, pionnier de l’IA et sceptique des réseaux neuronaux, déclarait au magazine Life : « Dans trois à huit ans, nous aurons une machine dotée de l’intelligence générale d’un être humain moyen. »

Avec la singularité, au moment où l’intelligence artificielle égale et commence à dépasser l’intelligence humaine – pas encore tout à fait là – on peut dire sans se tromper que Minsky était en retard d’au moins un facteur 10. Il est périlleux de faire des prédictions sur l’IA.

Pourtant, faire des prédictions sur un an ne semble pas aussi risqué. Que peut-on attendre de l’IA en 2024 ?

Tout d’abord, la course est lancée ! Les progrès de l'IA ont été constants depuis l'époque de Minsky, mais la sortie publique de ChatGPT en 2022 a lancé une compétition tous azimuts pour le profit, la gloire et la suprématie mondiale.

Attendez-vous à une IA plus puissante, en plus d’un flot de nouvelles applications d’IA.

La grande question technique est de savoir dans combien de temps et dans quelle mesure les ingénieurs en IA pourront s’attaquer au talon d’Achille actuel de l’apprentissage profond – ce qu’on pourrait appeler le raisonnement dur généralisé, des choses comme la logique déductive.

Des ajustements rapides aux algorithmes de réseaux neuronaux existants seront-ils suffisants, ou cela nécessitera-t-il une approche fondamentalement différente, comme le suggère le neuroscientifique Gary Marcus ?

Des armées de scientifiques en IA travaillent sur ce problème, je m’attends donc à des progrès en 2024.

Parallèlement, les nouvelles applications de l’IA risquent elles aussi de poser de nouveaux problèmes. Vous pourriez bientôt commencer à entendre parler de chatbots et d’assistants IA qui se parlent, ayant des conversations entières en votre nom mais dans votre dos.

Certains d’entre eux vont se détraquer – de manière comique, tragique ou les deux.

Les deepfakes, les images et vidéos générées par l'IA et difficiles à détecter, sont susceptibles de sévir malgré la réglementation naissante, causant davantage de dommages sordides aux individus et aux démocraties 1. partout dans le monde. Et il est probable qu’il y ait de nouvelles classes de calamités liées à l’IA qui n’auraient pas été possibles il y a à peine cinq ans.

En parlant de problèmes, ceux-là mêmes qui tirent la sonnette d’alarme sur l’IA – comme Elon Musk et Sam Altman – ne semblent pas pouvoir s’empêcher de construire une IA toujours plus puissante.

Je m’attends à ce qu’ils continuent à faire la même chose. Ils sont comme des incendiaires qui déclenchent l'incendie qu'ils ont eux-mêmes attisé et supplient les autorités de les maîtriser.

Et dans cette optique, ce que j’espère le plus pour 2024 – même si cela semble lent à venir – c’est une réglementation plus stricte de l’IA, aux niveaux national et international.


Anjana Susanrla, professeur de systèmes d'information, Michigan State University

Au cours de l’année qui a suivi le dévoilement de ChatGPT, le développement de modèles d’IA génératifs se poursuit à un rythme vertigineux.

Contrairement à ChatGPT il y a un an, qui prenait des invites textuelles comme entrées et produisait une sortie textuelle, la nouvelle classe de modèles d'IA génératifs est entraînée pour être multimodale, ce qui signifie que les données utilisées pour les entraîner ne proviennent pas uniquement de sources textuelles telles que Wikipédia et Reddit, mais aussi des vidéos sur YouTube, des chansons sur Spotify et d'autres informations audio et visuelles.

Avec la nouvelle génération de grands modèles de langage (LLM) multimodaux qui alimentent ces applications, vous pouvez utiliser des entrées de texte pour générer non seulement des images et du texte, mais également de l'audio et de la vidéo.

Les entreprises s'empressent de développer des LLM pouvant être déployés sur une variété de matériels et dans diverses applications, y compris l'exécution d'un LLM sur votre smartphone.

L’émergence de ces LLM légers et open source pourrait ouvrir la voie à un monde d’agents d’IA autonomes – un monde auquel la société n’est pas nécessairement préparée.

Ces capacités avancées d’IA offrent un immense pouvoir de transformation dans des applications allant du commerce à la médecine de précision.

Ma principale préoccupation est que de telles capacités avancées poseront de nouveaux défis pour faire la distinction entre le contenu généré par l’homme et le contenu généré par l’IA, ainsi que de nouveaux types de préjudices algorithmiques.

Le déluge de contenus synthétiques produits par l’IA générative pourrait déclencher un monde dans lequel des personnes et des institutions malveillantes pourraient fabriquer des identités synthétiques et orchestrer une désinformation à grande échelle.

Un flot de contenus générés par l’IA et destinés à exploiter des filtres algorithmiques et des moteurs de recommandation pourraient bientôt prendre le pas sur des fonctions critiques telles que la vérification de l’information, la maîtrise de l’information et le hasard fournis par les moteurs de recherche, les plateformes de médias sociaux et les services numériques.

La Federal Trade Commission a mis en garde contre la fraude, la tromperie, les violations de la vie privée et d'autres pratiques déloyales rendues possibles par la facilité de création de contenu assistée par l'IA.

Alors que les plateformes numériques telles que YouTube ont institué des lignes directrices politiques pour la divulgation du contenu généré par l'IA, il est nécessaire d'examiner plus attentivement les dommages algorithmiques de la part d'agences comme la FTC et de législateurs travaillant sur la protection de la vie privée, comme l'American Data Privacy & Protection Act.

Un nouveau projet de loi bipartisan présenté au Congrès vise à codifier la culture algorithmique en tant qu’élément clé de la culture numérique.

L’IA étant de plus en plus étroitement liée à tout ce que font les gens, il est clair que le moment est venu de ne pas se concentrer sur les algorithmes en tant qu’éléments technologiques, mais de considérer les contextes dans lesquels les algorithmes opèrent : les personnes, les processus et la société.

Note de l'éditeur : cet article a été rédigé par Anjana Susarla, professeur de systèmes d'information, Michigan State University, Casey Fiesler, professeur agrégé de sciences de l'information, University of Colorado Boulder, Kentaro Toyama, professeur d'information communautaire, University of Michigan et republié à partir de The Conversation. sous licence Creative Commons. Lisez l'article original.

Suivez-nous sur Flipboard, Google News ou Apple News