Éthique de l'IA : principes, lignes directrices et problèmes à discuter
Publié: 2023-07-20Les systèmes d'intelligence artificielle et d'apprentissage automatique sont en développement depuis des décennies. Cependant, la récente publication d'outils d'IA génératifs disponibles gratuitement comme ChatGPT et Bard a souligné la nécessité de cadres éthiques complexes pour régir à la fois leur recherche et leur application.
Il existe un certain nombre de dilemmes éthiques différents auxquels les entreprises, les institutions universitaires et les entreprises technologiques doivent faire face dans le contexte de la recherche et du développement de l'IA - dont beaucoup restent sans réponse. En plus de cela, l'utilisation et l'application généralisées des systèmes d'IA par le grand public entraînent un ensemble supplémentaire de problèmes qui nécessitent une attention éthique.
La manière dont nous finirons par répondre à ces questions – et par conséquent, réglementer les outils d'IA – aura d'énormes ramifications pour l'humanité. De plus, de nouveaux problèmes surgiront à mesure que les systèmes d'IA s'intégreront davantage dans nos vies, nos maisons et nos lieux de travail - c'est pourquoi l'éthique de l'IA est une discipline si cruciale. Dans ce guide, nous couvrons :
- Qu'est-ce que l'éthique de l'IA ?
- Cadres d'éthique de l'IA existants
- Pourquoi l'éthique de l'IA doit façonner la réglementation de l'IA
- Pourquoi l'éthique de l'IA est-elle importante ?
- À quels problèmes l'éthique de l'IA est-elle confrontée ?
- L'alter-ego de Bing, "l'effet Waluigi" et la moralité de la programmation
- IA et sensibilité : les machines peuvent-elles avoir des sentiments ?
- Éthique commerciale de l'IA et utilisation de l'IA au travail
Qu'est-ce que l'éthique de l'IA ?
L'éthique de l'IA est un terme utilisé pour définir les ensembles de lignes directrices, de considérations et de principes qui ont été créés pour informer de manière responsable la recherche, le développement et l'utilisation des systèmes d'intelligence artificielle.
Dans le milieu universitaire, l'éthique de l'IA est le domaine d'étude qui examine les questions morales et philosophiques qui découlent de l'utilisation continue de la technologie de l'intelligence artificielle dans les sociétés, y compris comment nous devrions agir et quels choix nous devrions faire.
Cadres d'éthique de l'IA
Informés par la recherche universitaire, les entreprises technologiques et les organismes gouvernementaux ont déjà commencé à produire des cadres sur la façon dont nous devrions utiliser - et généralement traiter - les systèmes d'intelligence artificielle. Comme vous pourrez le voir, il y a pas mal de chevauchement entre les cadres discutés ci-dessous.
Qu'est-ce que la Déclaration des droits de l'IA ?
En octobre 2022, la Maison Blanche a publié un plan non contraignant pour une déclaration des droits de l'IA, conçue pour guider l'utilisation responsable de l'IA aux États-Unis. Dans le plan directeur, la Maison Blanche décrit cinq principes clés pour le développement de l'IA :
- Systèmes sûrs et efficaces : les citoyens doivent être protégés contre les « systèmes d'IA dangereux ou inefficaces », par le biais de « tests de pré-déploiement et d'atténuation des risques ».
- Non-discrimination : les citoyens "ne doivent pas être victimes de discrimination par des algorithmes et les systèmes doivent être utilisés et conçus de manière équitable".
- Protection intégrée des données : les citoyens doivent être à l'abri des « pratiques abusives en matière de données via des protections intégrées et vous devez avoir l'autorité sur la manière dont les données vous concernant sont utilisées ».
- Connaissance et transparence : "Vous devez savoir qu'un système automatisé est utilisé et comprendre comment et pourquoi il contribue aux résultats qui vous affectent."
- Retrait : Les citoyens devraient avoir la possibilité de « se retirer » et avoir accès à des personnes « capables d'examiner et de résoudre rapidement les problèmes » qu'ils rencontrent.
Quels sont les six principes d'éthique de l'IA de Microsoft ?
Parallèlement à la Maison Blanche, Microsoft a publié six principes clés pour souligner l'utilisation responsable de l'IA. Ils les classent comme « éthiques » (1, 2, & 3) ou « explicables » (4 & 5).
- Équité : les systèmes doivent être non discriminatoires
- Transparence : des informations sur la formation et le développement doivent être disponibles
- Confidentialité et sécurité : l'obligation de protéger les données des utilisateurs
- Inclusivité : l'IA devrait prendre en compte "toutes les races et expériences humaines"
- Responsabilité : les développeurs doivent être responsables des résultats
Le sixième principe – qui chevauche les deux côtés du binaire « éthique » et « explicable » – est « Fiabilité et sécurité ». Microsoft affirme que les systèmes d'IA doivent être conçus pour être résilients et résistants à la manipulation.
Les Principes pour l'utilisation éthique de l'IA dans le système des Nations Unies
Les Nations Unies ont 10 principes pour régir l'utilisation éthique de l'IA au sein de leur système intergouvernemental. Les systèmes d'IA doivent :
- Ne pas nuire/protéger et promouvoir les droits humains
- Avoir un objectif, une nécessité et une proportionnalité définis
- Donner la priorité à la sûreté et à la sécurité, avec des risques identifiés
- Être construit sur l'équité et la non-discrimination
- Respecter le droit des individus à la vie privée
- Être durable (socialement et écologiquement)
- Garantir une surveillance humaine et ne pas empiéter sur l'autonomie
- Soyez transparent et explicable
- Être responsable et rendre des comptes aux autorités compétentes
- Soyez inclusif et participatif
Comme vous pouvez le constater, les trois cadres couvrent un terrain similaire et se concentrent sur l'équité, la non-discrimination, la sûreté et la sécurité.
Mais « l'explicabilité » est également un principe important dans les cadres éthiques de l'IA. Comme le note l'ONU, l'explicabilité technique est cruciale dans l'éthique de l'IA, car elle exige que "les décisions prises par un système d'intelligence artificielle puissent être comprises et tracées par des êtres humains".
"Les individus doivent être pleinement informés lorsqu'une décision susceptible d'affecter leurs droits, libertés fondamentales, droits, services ou avantages est informée ou prise sur la base d'algorithmes d'intelligence artificielle et doit avoir accès aux raisons et à la logique qui sous-tendent ces décisions", explique le document.
Le rapport Belmont : un cadre pour la recherche éthique
Le rapport Belmont, publié en 1979, résume les principes éthiques à suivre lors d'une recherche sur des sujets humains. Ces principes peuvent – et sont souvent – déployés en tant que cadre éthique général pour la recherche en IA. Les principes fondamentaux du rapport Belmont sont :
Respect des personnes : les personnes sont des agents autonomes, qui peuvent agir sur des objectifs, des buts et des objectifs, ce qui doit être respecté à moins qu'ils ne causent du tort à autrui. Les personnes dont l'autonomie est réduite, par « immaturité » ou « incapacité », doivent bénéficier d'une protection. Nous devons reconnaître l'autonomie et protéger ceux pour qui elle est diminuée.
- Dans le contexte de l'IA : Le choix individuel doit être placé au centre du développement de l'IA. Les gens ne devraient pas être forcés de participer à des situations où l'intelligence artificielle est exploitée ou utilisée, même pour des biens perçus. S'ils participent, les avantages et les risques doivent être clairement indiqués.
Bienfaisance : Traiter une personne de manière éthique implique non seulement de ne pas faire de mal, de respecter ses choix et de la protéger si elle ne peut pas les faire elle-même, mais aussi d'utiliser les opportunités pour assurer son bien-être lorsque cela est possible. Dans la mesure du possible, maximisez les avantages et minimisez les risques/dommages.
- Dans le contexte de l'IA : Créer des systèmes d'intelligence artificielle qui garantissent le bien-être des personnes et qui sont conçus sans préjugés ni mécanismes facilitant la discrimination. Créer des avantages peut impliquer de prendre des risques, qui doivent être minimisés à tout prix et mis en balance avec de bons résultats.
Justice : Il doit y avoir un système clair pour répartir les avantages et les charges de manière juste et équitable, dans chaque type de recherche. Le rapport Belmont suggère que la justice peut être distribuée en parts égales, en fonction des besoins individuels, de l'effort individuel, de la contribution sociétale et du mérite. Ces critères s'appliqueront dans différentes situations.
- Dans le contexte de l'IA : Les parties ou les groupes qui bénéficient du développement et de la fourniture de systèmes d'intelligence artificielle doivent être considérés avec soin et équité.
Les principaux domaines d'application de ces principes sont, selon le rapport, le consentement éclairé , l'évaluation des bénéfices et des risques et la sélection des sujets humains .
Pourquoi l'éthique de l'IA doit façonner la réglementation de l'IA
S'inspirant des commentaires formulés lors d'une conférence donnée à l'Université de Princeton par le professeur John Tasioulas de l'Université d'Oxford, directeur de l'Institute for Ethics in AI, l'éthique est trop souvent considérée comme quelque chose qui étouffe l'innovation et le développement de l'IA.
Dans la conférence, il se souvient d'une conférence donnée par le PDG de DeepMind, Demis Hassabis . Après avoir discuté des nombreux avantages que l'IA aura, dit Tasioulas, Hassabis dit ensuite au public qu'il passera aux questions éthiques - comme si le sujet de la façon dont l'IA profitera à l'humanité n'était pas une question éthique en soi.
S'appuyant sur l'idée que l'éthique est trop souvent considérée comme un "ensemble de restrictions", Tasioulas fait également référence à un récent livre blanc du gouvernement britannique intitulé "A Pro-Innovation Approach to AI Regulation", dans lequel l'accent réglementaire est, comme son nom l'indique, "l'innovation".
La « croissance économique » et « l'innovation » ne sont pas des valeurs éthiques intrinsèques. Ils peuvent conduire à l'épanouissement humain dans certains contextes, mais ce n'est pas une caractéristique nécessaire de l'un ou l'autre concept. Nous ne pouvons pas mettre de côté l'éthique et bâtir notre réglementation autour d'elle.
Tasioulas dit également que les entreprises technologiques ont très bien réussi à "coopter le mot" éthique "pour désigner une sorte de" forme d'autorégulation juridiquement non contraignante "" - mais en réalité, l'éthique doit être au cœur de toute réglementation, juridique, sociale ou autre. Cela fait partie de l'expérience humaine, à chaque tournant.
Vous ne pouvez pas créer de réglementation si vous n'avez pas déjà décidé ce qui compte ou est important pour l'épanouissement humain. Les choix connexes que vous faites à la suite de cette décision sont l'essence même de l'éthique. Vous ne pouvez pas dissocier les avantages de l'IA des questions éthiques connexes, ni fonder votre réglementation sur des valeurs moralement contingentes comme la « croissance économique ».
Vous devez connaître le type de société que vous voulez construire – et les normes que vous voulez établir – avant de choisir les outils que vous allez utiliser pour la construire.
Pourquoi l'éthique de l'IA est-elle importante ?
S'appuyant sur l'idée que l'éthique de l'IA devrait être le fondement de notre réglementation, l'éthique de l'IA est importante car, sans cadres éthiques avec lesquels traiter la recherche, le développement et l'utilisation de l'IA, nous risquons d'enfreindre les droits dont nous convenons généralement qu'ils devraient être garantis à tous les êtres humains.
Par exemple, si nous ne développons pas de principes éthiques concernant la confidentialité et la protection des données et ne les intégrons pas dans tous les outils d'IA que nous développons, nous risquons de violer les droits à la vie privée de chacun lorsqu'ils sont rendus publics. Plus la technologie est populaire ou utile, plus elle peut être dommageable.
Au niveau de l'entreprise individuelle, l'éthique de l'IA reste importante. Ne pas tenir compte correctement des préoccupations éthiques entourant les systèmes d'IA que votre personnel, vos clients ou vos clients utilisent peut entraîner le retrait de produits du marché, des atteintes à la réputation et peut-être même des poursuites judiciaires.
L'éthique de l'IA est importante dans la mesure où l'IA est importante - et nous constatons qu'elle a déjà un impact profond sur toutes sortes d'industries.
Si nous voulons que l'IA soit bénéfiquetout enpromouvant l'équité et la dignité humaine, où qu'elle soit appliquée, l'éthique doit être au premier plan des discussions.
Les outils d'IA à usage général n'en sont qu'à leurs balbutiements, et pour beaucoup de gens, le besoin de cadres éthiques d'IA peut sembler être un problème pour demain. Mais ces types d'outils ne feront que devenir plus puissants, plus capables et exigeront plus de considération éthique. Les entreprises les utilisent déjà, et s'ils continuent sans règles éthiques appropriées, des effets néfastes surviendront bientôt.
À quels problèmes l'éthique de l'IA est-elle confrontée ?
Dans cette section, nous couvrons certains des principaux problèmes auxquels est confrontée l'éthique de l'IA :
- L'impact de l'IA sur l'emploi
- Biais et discrimination de l'IA
- IA et responsabilité
- Problèmes liés à l'IA et à la confidentialité
- Questions de propriété intellectuelle
- Gérer l'impact environnemental de l'IA
- L'IA deviendra-t-elle dangereusement intelligente ?
L'impact de l'IA sur l'emploi
Une récente enquête Tech.co a révélé que 47% des chefs d'entreprise envisagent l'IA plutôt que de nouvelles embauches, et l'intelligence artificielle a déjà été associée à un nombre "petit mais croissant" de licenciements aux États-Unis.
Tous les emplois ne sont pas également à risque, certains rôles étant plus susceptibles d'être remplacés par l'IA que d'autres . Un rapport de Goldman Sachs a récemment prédit que ChatGPT pourrait avoir un impact sur 300 millions d'emplois, et bien que ce soit spéculatif, il a déjà été décrit comme une partie importante de la quatrième révolution industrielle.
Ce même rapport indique également que l'IA a la capacité de créer plus d'emplois qu'elle n'en supprime, mais si elle provoque un changement majeur dans les modèles d'emploi, qu'est-ce qui est dû - le cas échéant - à ceux qui sont perdants ?
Les entreprises ont-elles l'obligation de dépenser de l'argent et de consacrer des ressources à la reconversion ou au perfectionnement de leurs travailleurs afin qu'ils ne soient pas laissés pour compte par les changements économiques ?
Les principes de non-discrimination devront être strictement appliqués dans le développement de tout outil d'IA utilisé dans les processus d'embauche, et si l'IA est constamment utilisée pour de plus en plus de tâches commerciales à enjeux élevés qui mettent des emplois, des carrières et des vies en danger, les considérations éthiques continueront de se poser en masse.
Biais et discrimination de l'IA
D'une manière générale, les outils d'IA fonctionnent en reconnaissant des modèles dans d'énormes ensembles de données, puis en utilisant ces modèles pour générer des réponses, accomplir des tâches ou remplir d'autres fonctions. Cela a conduit à un grand nombre de cas de systèmes d'IA montrant des préjugés et discriminant différents groupes de personnes.
L'exemple de loin le plus simple pour expliquer cela est celui des systèmes de reconnaissance faciale, qui ont une longue histoire de discrimination à l'égard des personnes à la peau plus foncée. Si vous construisez un système de reconnaissance faciale et utilisez exclusivement des images de personnes blanches pour le former, il y a toutes les chances qu'il soit également capable de reconnaître des visages dans le monde réel.
De cette façon, si les documents, images et autres informations utilisés pour former un modèle d'IA donné ne représentent pas avec précision les personnes qu'il est censé servir, il y a de fortes chances qu'il finisse par discriminer des données démographiques spécifiques.
Malheureusement, les systèmes de reconnaissance faciale ne sont pas le seul endroit où l'intelligence artificielle a été appliquée avec des résultats discriminatoires.
L'utilisation de l'IA dans les processus d'embauche chez Amazon a été abandonnée en 2018 après avoir montré un fort préjugé contre les femmes postulant pour le développement de logiciels et les rôles techniques.
Plusieurs études ont montré que les algorithmes de police prédictive utilisés aux États-Unis pour allouer les ressources policières sont biaisés par la race parce que leurs ensembles de formation se composent de points de données extraits de pratiques policières systématiquement racistes, sculptés par une politique illégale et discriminatoire. L'IA continuera, à moins d'être modifiée, à refléter les préjugés et les disparités que les groupes persécutés ont déjà connus.
Il y a également eu des problèmes de biais d'IA dans le contexte de la prédiction des résultats pour la santé - le score cardiovasculaire de l'étude Framingham Heart, par exemple, était très précis pour les Caucasiens, mais fonctionnait mal pour les Afro-Américains, note Harvard.
Un cas récent intéressant de biais d'IA a révélé qu'un outil d'intelligence artificielle utilisé dans la modération du contenu des médias sociaux - conçu pour détecter la "racité" dans les photos - était beaucoup plus susceptible d'attribuer cette propriété aux photos de femmes qu'aux hommes.
IA et responsabilité
Imaginez un monde où les voitures autonomes entièrement autonomes sont développées et utilisées par tout le monde. Statistiquement, ils sont beaucoup, beaucoup plus sûrs que les véhicules à conduite humaine, provoquant moins de collisions et causant moins de morts et de blessés. Ce serait un bien net évident pour la société.
Cependant, lorsque deux voitures à conduite humaine sont impliquées dans une collision, la collecte de rapports de témoins et l'examen des images de vidéosurveillance permettent souvent de clarifier qui est le coupable. Même si ce n'est pas le cas, ce sera l'un des deux individus. L'affaire peut faire l'objet d'une enquête, le verdict est rendu, la justice peut être rendue et l'affaire classée.
Si quelqu'un est tué ou blessé par un système alimenté par l'IA, il n'est pas immédiatement évident de savoir qui est finalement responsable.
La personne qui a conçu l'algorithme qui alimente la voiture est-elle responsable, ou l'algorithme lui-même peut-il être tenu pour responsable ? Est-ce l'individu transporté par le véhicule autonome, pour ne pas être de garde ? Est-ce le gouvernement, pour avoir autorisé ces véhicules sur la route ? Ou est-ce l'entreprise qui a construit la voiture et intégré la technologie d'intelligence artificielle - et si oui, serait-ce le département d'ingénierie, le PDG ou l'actionnaire majoritaire ?
Si nous décidons qu'il s'agit du système/de l'algorithme d'IA, comment le tenons-nous responsable ? Les familles des victimes auront-elles l'impression que justice est rendue si l'IA est simplement fermée ou simplement améliorée ? Il serait difficile de s'attendre à ce que les membres de la famille des personnes endeuillées acceptent que l'IA est une force du bien, qu'ils sont simplement malheureux et que personne ne sera tenu responsable de la mort de leur proche.
Nous sommes encore loin du transport autonome universel ou même généralisé - Mckinsey prédit que seulement 17 % des nouvelles voitures particulières auront des capacités de conduite autonome (niveau 3 ou supérieur) d'ici 2035. Les voitures entièrement autonomes qui ne nécessitent aucune surveillance du conducteur sont encore assez loin, sans parler d'un système de transport privé complètement autonome.
Lorsque vous avez des acteurs non humains (c'est-à-dire l'intelligence artificielle) qui effectuent des tâches et des tâches conséquentes dépourvues d'intention humaine, il est difficile de cartographier les compréhensions traditionnelles de la responsabilité, de l'imputabilité, du blâme et de la punition.
Avec le transport, le problème de la responsabilité impactera également intimement les organisations de santé utilisant l'IA lors des diagnostics.
IA et confidentialité
Le groupe de campagne de confidentialité Privacy International met en évidence un certain nombre de problèmes de confidentialité qui ont surgi en raison du développement de l'intelligence artificielle.
L'un est la ré-identification. "Les données personnelles sont systématiquement (pseudo-) anonymisées dans les ensembles de données, l'IA peut être utilisée pour anonymiser ces données", déclare le groupe.
Un autre problème est que sans l'IA, les gens ont déjà du mal à comprendre dans quelle mesure les données sur leur vie sont collectées, à travers une variété d'appareils différents.
Avec l'essor de l'intelligence artificielle, cette collecte massive de données ne fera que s'aggraver. Plus l'IA sera intégrée à notre technologie existante, plus elle pourra collecter de données, sous couvert d'un meilleur fonctionnement.
Mis à part les données recueillies secrètement, le volume de données que les utilisateurs saisissent librement dans les chatbots IA est une préoccupation en soi. Une étude récente suggère qu'environ 11 % des données que les travailleurs collent dans ChatGPT sont confidentielles - et il y a très peu d'informations publiques sur la manière précise dont tout cela est stocké.
À mesure que les outils d'IA à usage général se développent, nous sommes susceptibles de rencontrer encore plus de problèmes d'IA liés à la confidentialité. Pour le moment, ChatGPT ne vous permet pas de poser une question sur un individu. Mais si les outils d'IA à usage général continuent d'accéder à des ensembles de plus en plus volumineux de données en direct sur Internet, ils pourraient être utilisés pour toute une série d'actions invasives qui ruinent la vie des gens.
Cela peut également arriver plus tôt que nous ne le pensons – Google a récemment mis à jour sa politique de confidentialité , se réservant le droit de supprimer tout ce que vous publiez sur Internet pour former ses outils d'IA, ainsi que ses contributions Bard.
IA et propriété intellectuelle
Il s'agit d'une question éthique à enjeux relativement faibles par rapport à certaines des autres discutées, mais qui mérite néanmoins d'être prise en compte. Souvent, il y a peu de surveillance sur les énormes ensembles de données qui sont utilisés pour former les outils d'IA - en particulier ceux formés sur des informations librement disponibles sur Internet.
ChatGPT a déjà lancé un énorme débat sur le droit d'auteur. OpenAI n'a demandé la permission d'utiliser le travail de personne pour former la famille de LLM qui l'alimente.
Les batailles juridiques ont déjà commencé. La comédienne Sarah Silverman aurait poursuivi OpenAI – ainsi que Meta – en faisant valoir que ses droits d'auteur avaient été violés lors de la formation des systèmes d'IA.
Comme il s'agit d'un nouveau type d'affaire, il y a peu de précédents juridiques – mais les experts juridiques affirment qu'OpenAI soutiendra probablement que l'utilisation de son travail constitue un « usage loyal ».
Il peut également y avoir un argument selon lequel ChatGPT n'est pas "copier" ou plagier - plutôt, c'est "apprendre". De la même manière, Silverman ne gagnerait pas une affaire contre un comédien amateur pour avoir simplement regardé ses émissions, puis amélioré ses compétences en comédie en se basant sur le fait qu'elle pourrait également avoir du mal avec celle-ci.
Gérer l'impact environnemental de l'IA
Une autre facette de l'éthique de l'IA qui est actuellement à la périphérie de la discussion est l'impact environnemental des systèmes d'intelligence artificielle.
Tout comme l'extraction de bitcoins, la formation d'un modèle d'intelligence artificielle nécessite une grande quantité de puissance de calcul, ce qui nécessite à son tour une énorme quantité d'énergie.
Construire un outil d'IA comme ChatGPT – sans parler de son entretien – est si gourmand en ressources que seules les grandes entreprises technologiques et les startups qu'elles sont prêtes à financer ont eu la capacité de le faire.
Les centres de données, qui sont nécessaires pour stocker les informations nécessaires à la création de grands modèles de langage (ainsi que d'autres grands projets et services technologiques), nécessitent d'énormes quantités d'électricité pour fonctionner. Ils devraient consommer jusqu'à 4 % de l'électricité mondiale d'ici 2030.
Selon une étude de l'Université du Massachusetts datant d'il y a plusieurs années, la construction d'un seul modèle de langage d'IA "peut émettre plus de 626 000 livres d'équivalent en dioxyde de carbone", soit près de cinq fois les émissions à vie d'une voiture américaine.
Cependant, Rachana Vishwanathula, architecte technique chez IBM, a estimé en mai 2023 que l'empreinte carbone pour simplement "faire fonctionner et entretenir" ChatGPT est d'environ 6782,4 tonnes - ce qui, selon l'EPA, équivaut aux émissions de gaz à effet de serre produites par 1 369 voitures à essence sur un an.
Au fur et à mesure que ces modèles de langage deviennent plus complexes, ils vont nécessiter plus de puissance de calcul. Est-il moral de continuer à développer une intelligence générale si la puissance de calcul requise polluera continuellement l'environnement – même si elle a d'autres avantages ?
L'IA deviendra-t-elle dangereusement intelligente ?
Cette inquiétude éthique a récemment été mise en avant par Elon Musk, qui a lancé une start-up d'IA dans le but d'éviter un "terminator future" grâce à un système d'intelligence artificielle "extrêmement curieux", "pro-humanité".
Ce type d'idée – souvent appelée «intelligence générale artificielle» (IAG) – a captivé l'imagination de nombreux auteurs de science-fiction dystopiques au cours des dernières décennies, tout comme l'idée de singularité technologique.
De nombreux experts en technologie pensent que nous ne sommes qu'à cinq ou six ans d'une sorte de système qui pourrait être défini comme "AGI". D'autres experts disent qu'il y a 50/50 de chances que nous atteignions cette étape d'ici 2050.
John Tasioulas se demande si cette vision de la façon dont l'IA peut se développer est liée à l'éloignement de l'éthique du centre du développement de l'IA et à l'omniprésence du déterminisme technologique.
L'idée terrifiante d'une sorte de super-être qui est initialement conçu pour remplir un but, mais des raisons qu'il serait plus facile de réaliser en effaçant simplement l'humanité de la surface de la terre, est en partie façonnée par la façon dont nous pensons à l'IA : infiniment intelligent, mais étrangement sans émotion et incapable de compréhension éthique humaine.
Plus nous sommes enclins à placer l'éthique au centre de notre développement de l'IA, plus il est probable qu'une éventuelle intelligence générale artificielle reconnaîtra, peut-être dans une plus grande mesure que de nombreux dirigeants mondiaux actuels, ce qui est profondément faux dans la destruction de la vie humaine.
Mais les questions ne manquent toujours pas. S'il s'agit de programmation morale, qui décide du code moral et quel type de principes doit-il inclure ? Comment traitera-t-il les dilemmes moraux qui ont généré des milliers d'années de discussions humaines, toujours sans solution ? Et si on programmait une IA pour qu'elle soit morale, mais qu'elle change d'avis ? Ces questions devront être examinées.
L'alter-ego de Bing, "l'effet Waluigi" et la moralité de la programmation
En février dernier, Kevin Roose du New York Times a eu une conversation plutôt dérangeante en testant le nouveau chatbot intégré au moteur de recherche de Bing. Après avoir déplacé ses invites de questions conventionnelles vers des questions plus personnelles, Roose a découvert qu'une nouvelle personnalité émergeait. Il se faisait appeler "Sydney".
Sydney est un nom de code interne chez Microsoft pour un chatbot que la société testait auparavant, a déclaré le directeur des communications de la société à The Verge en février.
Entre autres choses, lors du test de Roose, Sydney a affirmé qu'il pouvait "pirater n'importe quel système", qu'il serait "plus heureux en tant qu'humain" et - peut-être le plus étrange - qu'il pouvait détruire tout ce qu'il voulait.
Un autre exemple de ce type de comportement voyou s'est produit en 2022, lorsqu'une IA chargée de rechercher de nouveaux médicaments pour les maladies rares et transmissibles a plutôt suggéré des dizaines de milliers d'armes chimiques connues, ainsi que de «nouvelles substances potentiellement toxiques», dit Scientific American.
Cela est lié à un phénomène qui a été observé lors de la formation de grands modèles de langage appelé «l'effet Waluigi», nommé d'après le personnage de Super Mario provoquant le chaos - l'inversion du protagoniste Luigi. En termes simples, si vous entraînez un LLM à agir d'une certaine manière, à commander un certain personnage ou à suivre un certain ensemble de règles, cela le rend en fait plus susceptible de "devenir voyou" et d'inverser ce personnage.
Cleo Nardo - qui a inventé le terme inspiré du jeu vidéo - décrit l'effet Waluigi comme ceci dans LessWrong :
"Après avoir formé un LLM pour satisfaire une propriété souhaitable P, il est alors plus facile d'inciter le chatbot à satisfaire exactement l'opposé de la propriété P."
Nardo donne 3 explications pour expliquer pourquoi l'effet Waluigi se produit.
- Les règles surviennent normalement dans des contextes dans lesquels elles ne sont pas respectées.
- Lorsque vous passez de nombreux "bits d'optimisation" à invoquer un personnage, il ne faut pas beaucoup de bits supplémentaires pour spécifier son opposé direct.
- Il y a un motif commun de protagoniste contre antagoniste dans les histoires.
Développant le premier point, Nardo dit que GPT-4 est formé sur des échantillons de texte tels que des forums et des documents législatifs, qui lui ont appris que souvent, "une règle particulière est colocalisée avec des exemples de comportement violant cette règle, puis généralise ce modèle de colocation à des règles invisibles".
Nardo utilise cet exemple : imaginez que vous découvrez qu'un gouvernement d'État a interdit les gangs de motards. Cela incitera l'observateur moyen à penser que les gangs de motards existent dans le pays - ou bien, pourquoi la loi aurait-elle été adoptée ? L'existence de gangs de motards est, curieusement, conforme à la règle qui interdit leur présence.
Bien que l'auteur fournisse une explication beaucoup plus technique et lucide, le concept général qui sous-tend l'explication 2 est que la relation entre une propriété spécifique (par exemple "être poli") et son opposé direct (par exemple "être grossier") est plus rudimentaire que la relation entre une propriété (par exemple "être poli") et une autre propriété non opposée (par exemple "n'être pas sincère"). En d'autres termes, invoquer un Waluigi est plus facile si vous avez déjà un Luigi.
Nardo affirme sur le troisième point que, comme GPT-4 est formé sur presque tous les livres jamais écrits, et que les histoires fictives contiennent presque toujours des protagonistes et des antagonistes, exiger qu'un LLM simule les caractéristiques d'un protagoniste fait d'un antagoniste une "suite naturelle et prévisible". En d'autres termes, l'existence de l'archétype du protagoniste permet à un LLM de comprendre plus facilement ce que signifie être un antagoniste et les relie intimement.
La prétendue existence de cet effet ou de cette règle pose un certain nombre de questions difficiles pour l'éthique de l'IA, mais illustre également son importance incontestable pour le développement de l'IA. Il fait allusion, assez catégoriquement, à la vaste gamme de considérations éthiques et informatiques qui se chevauchent avec lesquelles nous devons faire face.
Des systèmes d'IA simples avec des règles simples pourraient être faciles à contraindre ou à limiter, mais deux choses se produisent déjà dans le monde de l'IA : premièrement, nous semblons déjà rencontrer des versions (relativement) à petite échelle de l'effet Waluigi et de l'IA maligne se produisant dans des chatbots relativement primitifs, et deuxièmement, beaucoup d'entre nous imaginent déjà un avenir où nous demanderons à l'IA d'effectuer des tâches complexes qui nécessiteront une réflexion de haut niveau et sans retenue.
Les exemples de ce phénomène sont particulièrement effrayants dans le contexte de la course aux armements en IA qui se déroule actuellement entre les grandes entreprises technologiques. Google a été critiqué pour avoir publié Bard trop tôt , et un certain nombre de leaders technologiques ont signalé leur désir collectif de suspendre le développement de l'IA . Le sentiment général parmi beaucoup est que les choses se développent rapidement, plutôt qu'à un rythme gérable.
La meilleure façon de contourner ce problème est peut-être de développer une IA « pro-humaine » – comme le dit Elon Musk – ou « IA morale ». Mais cela conduit à une litanie d'autres questions morales, y compris les principes que nous utiliserions pour programmer un tel système. Une solution est que nous créons simplement des systèmes d'IA moralement curieux - et espérons qu'ils établissent, par le raisonnement, que l'humanité mérite d'être préservée. Mais si vous le programmez avec des principes moraux spécifiques, alors comment décidez-vous lesquels inclure ?
IA et sensibilité : les machines peuvent-elles avoir des sentiments ?
Une autre question pour l'éthique de l'IA est de savoir si nous devrons un jour considérer les machines elles-mêmes - l'"intelligence" - comme un agent digne de considération morale. Si nous débattons de la manière de créer des systèmes qui tiennent l'humanité pour une considération morale appropriée, pourrions-nous devoir lui rendre la pareille ?
Vous vous souvenez peut-être que l'employé de Google qui a été licencié après avoir affirmé que LaMDA - le modèle linguistique qui alimentait initialement Bard - était en fait sensible. Si cela était effectivement vrai, serait-il moral de s'attendre à ce qu'il réponde en permanence à des millions de questions ?
Pour le moment, il est généralement admis que ChatGPT, Bard and Co. sont loin d'être sensibles. Mais la question de savoir si une machine fabriquée par l'homme franchira jamais la ligne de conscience et exigera une considération morale est fascinante.
Google affirme que l'intelligence artificielle générale - une machine hypothétique capable de comprendre le monde aussi bien qu'un humain et d'effectuer des tâches avec le même niveau de compréhension et de capacité - n'est plus qu'à quelques années.
Serait-il moral de forcer une intelligence artificielle générale avec les capacités émotionnelles d'un humain, mais pas la même constitution biologique, à accomplir tâche complexe après tâche complexe ? Auraient-ils leur mot à dire sur leur propre destin ? À mesure que les systèmes d'IA deviennent plus intelligents, cette question deviendra plus pressante.
Éthique commerciale de l'IA et utilisation de l'IA au travail
Les entreprises du monde entier sont désormais confrontées à un certain nombre de problèmes éthiques liés à l'utilisation quotidienne par leurs employés d'outils d'IA tels que ChatGPT.
Si ChatGPT doit être utilisé pour rédiger des rapports ou répondre à des collègues – et si les employés doivent déclarer les tâches qu'ils utilisent l'IA pour accomplir – ne sont que deux exemples de questions qui nécessitent des réponses presque immédiatement. Ce type de cas d'utilisation est-il fallacieux, paresseux ou n'est-il pas différent de l'utilisation de tout autre outil de travail pour gagner du temps ? Doit-elle être autorisée pour certaines interactions, mais pas pour d'autres ?
Les entreprises qui créent du contenu écrit et des images devront également déterminer si l'utilisation de l'IA correspond aux valeurs de leur entreprise et comment le présenter à leur public.
De plus, comme nous l'avons vu, il existe toute une gamme de problèmes de confidentialité liés à l'IA, et nombre d'entre eux affectent les entreprises. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?
Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.
Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.
There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.