L'intelligence artificielle (IA) est-elle dangereuse ?
Publié: 2023-05-31Le lundi 22 mai 2023, un compte Twitter vérifié appelé "Bloomberg Feed" a partagé un tweet affirmant qu'il y avait eu une explosion au Pentagone, accompagné d'une image. Si vous vous demandez ce que cela a à voir avec l'intelligence artificielle (IA), l'image était une image générée par l'IA, le tweet devenant rapidement viral et déclenchant une brève baisse du marché boursier. Les choses auraient pu être bien pires – un rappel brutal des dangers de l'intelligence artificielle.
Dangers de l'intelligence artificielle
Ce ne sont pas seulement les fausses nouvelles dont nous devons nous inquiéter. Il existe de nombreux risques immédiats ou potentiels associés à l'IA, allant de ceux concernant la confidentialité et la sécurité aux problèmes de préjugés et de droits d'auteur. Nous allons plonger dans certains de ces dangers de l'intelligence artificielle, voir ce qui est fait pour les atténuer maintenant et à l'avenir, et nous demander si les risques de l'IA l'emportent sur les avantages.
Fausses nouvelles
À l'époque où les deepfakes ont fait leur apparition, on craignait qu'ils ne soient utilisés avec de mauvaises intentions. La même chose pourrait être dite pour la nouvelle vague de générateurs d'images AI, comme DALL-E 2, Midjourney ou DreamStudio. Le 28 mars 2023, de fausses images générées par l'IA du pape François portant une doudoune blanche Balenciaga et profitant de plusieurs aventures, notamment le skateboard et le poker, sont devenues virales. À moins d'avoir étudié attentivement les images, il était difficile de distinguer ces images de la réalité.
Alors que l'exemple avec le pape était sans aucun doute un peu amusant, l'image (et le tweet qui l'accompagne) sur le Pentagone était tout sauf cela. Les fausses images générées par l'IA ont le pouvoir de nuire aux réputations, de mettre fin aux mariages ou aux carrières, de créer des troubles politiques et même de déclencher des guerres si elles sont utilisées par les mauvaises personnes. En bref, ces images générées par l'IA ont le potentiel d'être extrêmement dangereuses si elles sont mal utilisées.
Avec les générateurs d'images AI désormais disponibles gratuitement pour tous et Photoshop ajoutant un générateur d'images AI à son logiciel populaire, la possibilité de manipuler des images et de créer de fausses nouvelles est plus grande que jamais.
Confidentialité, sécurité et piratage
La confidentialité et la sécurité sont également d'énormes préoccupations en ce qui concerne les risques de l'IA, un certain nombre de pays interdisant déjà le ChatGPT d'OpenAI. L'Italie a interdit le modèle en raison de problèmes de confidentialité, estimant qu'il n'est pas conforme au Règlement général européen sur la protection des données (RGPD), tandis que les gouvernements de la Chine, de la Corée du Nord et de la Russie l'ont interdit par crainte qu'il ne propage de fausses informations.
Alors pourquoi sommes-nous si préoccupés par la confidentialité lorsqu'il s'agit d'IA ? Les applications et les systèmes d'IA collectent de grandes quantités de données afin d'apprendre et de faire des prédictions. Mais comment ces données sont-elles stockées et traitées ? Il existe un risque réel de violation de données, de piratage et d'informations tombant entre de mauvaises mains.
Ce ne sont pas seulement nos données personnelles qui sont en danger. Le piratage de l'IA est un risque réel - cela ne s'est pas encore produit, mais si des personnes malveillantes pouvaient pirater les systèmes d'IA, cela pourrait avoir de graves conséquences. Par exemple, les pirates pourraient contrôler des véhicules sans conducteur, pirater des systèmes de sécurité IA pour accéder à des emplacements hautement sécurisés, et même pirater des systèmes d'armes avec sécurité IA.
Les experts de la Defense Advanced Research Projects Agency (DARPA) du département américain de la Défense reconnaissent ces risques et travaillent déjà sur le projet Garantir la robustesse de l'IA contre la tromperie (GARD) de la DARPA, s'attaquant au problème de fond en comble. L'objectif du projet est de s'assurer que la résistance au piratage et à la falsification est intégrée aux algorithmes et à l'IA.
Violation de copyright
Un autre des dangers de l'IA est la violation du droit d'auteur. Cela peut ne pas sembler aussi grave que certains autres dangers que nous avons mentionnés, mais le développement de modèles d'IA comme GPT-4 expose tout le monde à un risque accru d'infraction.
Chaque fois que vous demandez à ChatGPT de créer quelque chose pour vous, qu'il s'agisse d'un article de blog sur les voyages ou d'un nouveau nom pour votre entreprise, vous lui fournissez des informations qu'il utilise ensuite pour répondre à de futures requêtes. Les informations qu'il vous renvoie pourraient enfreindre le droit d'auteur de quelqu'un d'autre, c'est pourquoi il est si important d'utiliser un détecteur de plagiat et de modifier tout contenu créé par l'IA avant de le publier.
Biais de la société et des données
L'IA n'est pas humaine, elle ne peut donc pas être biaisée, n'est-ce pas ? Faux. Les personnes et les données sont utilisées pour former des modèles d'IA et des chatbots, ce qui signifie que des données ou des personnalités biaisées se traduiront par une IA biaisée. Il existe deux types de biais dans l'IA : les biais sociétaux et les biais liés aux données.
Avec de nombreux préjugés présents dans la société de tous les jours, que se passe-t-il lorsque ces préjugés font partie de l'IA ? Les programmeurs responsables de la formation du modèle pourraient avoir des attentes biaisées, qui se retrouvent ensuite dans les systèmes d'IA.
Ou les données utilisées pour former et développer une IA pourraient être incorrectes, biaisées ou collectées de mauvaise foi. Cela conduit à un biais de données, qui peut être aussi dangereux qu'un biais sociétal. Par exemple, si un système de reconnaissance faciale est formé en utilisant principalement les visages de personnes blanches, il peut avoir du mal à reconnaître ceux des groupes minoritaires, perpétuant l'oppression.
Les robots prennent nos emplois
Le développement de chatbots tels que ChatGPT et Google Bard a ouvert une toute nouvelle inquiétude concernant l'IA : le risque que des robots prennent nos emplois. Nous voyons déjà des écrivains de l'industrie technologique être remplacés par l'IA, des développeurs de logiciels craignent de perdre leur emploi au profit de bots et des entreprises utilisent ChatGPT pour créer du contenu de blog et du contenu de médias sociaux plutôt que d'embaucher des écrivains humains.
Selon le rapport 2020 sur l'avenir de l'emploi du Forum économique mondial, l'IA devrait remplacer 85 millions d'emplois dans le monde d'ici 2025. Même si l'IA ne remplace pas les écrivains, elle est déjà utilisée comme un outil par beaucoup. Ceux qui occupent des emplois risquant d'être remplacés par l'IA peuvent avoir besoin de s'adapter pour survivre - par exemple, les rédacteurs peuvent devenir des ingénieurs prompts à l'IA, leur permettant de travailler avec des outils comme ChatGPT pour la création de contenu plutôt que d'être remplacés par ces modèles.
Risques potentiels futurs liés à l'IA
Ce sont tous des risques immédiats ou imminents, mais qu'en est-il de certains des dangers les moins probables mais toujours possibles de l'IA que nous pourrions voir à l'avenir ? Ceux-ci incluent des choses comme l'IA programmée pour nuire aux humains, par exemple, des armes autonomes entraînées pour tuer pendant une guerre.
Ensuite, il y a le risque que l'IA puisse se concentrer uniquement sur son objectif programmé, développant des comportements destructeurs alors qu'elle tente d'atteindre cet objectif à tout prix, même lorsque les humains essaient d'empêcher que cela se produise.
Skynet nous a appris ce qui se passe lorsqu'une IA devient sensible. Cependant, bien que l'ingénieur Google Blake Lemoine ait peut-être essayé de convaincre tout le monde que LaMDA, le générateur de chatbot artificiellement intelligent de Google, était sensible en juin 2022, il n'y a heureusement aucune preuve à ce jour suggérant que c'est vrai.
Les enjeux de la régulation de l'IA
Le lundi 15 mai 202, le PDG d'OpenAI, Sam Altman, a assisté à la première audience du Congrès sur l'intelligence artificielle, avertissant : "Si cette technologie tourne mal, elle peut mal tourner." L'OpenAI CO a clairement indiqué qu'il était favorable à la réglementation et a présenté bon nombre de ses propres idées à l'audience. Le problème est que l'IA évolue à une telle vitesse qu'il est difficile de savoir par où commencer avec la réglementation.
Le Congrès veut éviter de commettre les mêmes erreurs commises au début de l'ère des médias sociaux, et une équipe d'experts aux côtés du chef de la majorité au Sénat, Chuck Schumer, travaille déjà sur des réglementations qui obligeraient les entreprises à révéler quelles sources de données elles ont utilisées pour former des modèles et qui les a formés. Cependant, il faudra peut-être un certain temps avant que la manière exacte dont l'IA sera réglementée devienne claire, et il y aura sans aucun doute des réactions négatives de la part des entreprises d'IA.
La menace d'une intelligence artificielle générale
Il existe également le risque de création d'une intelligence artificielle générale (IAG) qui pourrait accomplir toutes les tâches qu'un être humain (ou un animal) pourrait effectuer. Souvent mentionné dans les films de science-fiction, nous sommes probablement encore à des décennies d'une telle création, mais si et quand nous créons un AGI, cela pourrait constituer une menace pour l'humanité.
De nombreuses personnalités publiques approuvent déjà la conviction que l'IA constitue une menace existentielle pour les humains, notamment Stephen Hawking, Bill Gates et même l'ancien PDG de Google, Eric Schmidt, qui a déclaré : « L'intelligence artificielle pourrait poser des risques existentiels et les gouvernements doivent savoir comment s'assurer la technologie n'est pas utilisée à mauvais escient par des personnes malveillantes.
Alors, l'intelligence artificielle est-elle dangereuse et ses risques l'emportent-ils sur ses avantages ? Le jury n'est toujours pas sur celui-là, mais nous voyons déjà des preuves de certains des risques qui nous entourent en ce moment. D'autres dangers sont moins susceptibles de se concrétiser de sitôt, voire pas du tout. Une chose est claire cependant : les dangers de l'IA ne doivent pas être sous-estimés. Il est de la plus haute importance que nous veillons à ce que l'IA soit correctement réglementée dès le départ, afin de minimiser et, espérons-le, d'atténuer tout risque futur.