Qu’est-ce que l’horloge apocalyptique et quel est l’impact de l’IA sur elle ?

Publié: 2024-01-24

Les scientifiques ont confirmé cette semaine que l'horloge de la fin du monde devait rester à minuit moins 90 secondes pour la deuxième année consécutive.

L’horloge de la fin du monde est une métaphore de la mesure dans laquelle les humains sont sur le point de détruire le monde et a été rapprochée pour la dernière fois de minuit – son point final symbolique – en 2023, en raison des préoccupations climatiques et de la guerre en Ukraine.

Le Bulletin of Atomic Scientists, qui fixe l’heure chaque année, a déclaré qu’elle resterait à 90 secondes malgré la guerre à Gaza, une autre année la plus chaude jamais enregistrée et – ce qui est intéressant – les inquiétudes croissantes autour de l’intelligence artificielle .

Jetons un coup d'œil à ce qu'est exactement l'horloge de la fin du monde et comment l'IA la rapproche de l'annihilation.

Qu'est-ce que l'horloge de la fin du monde ?

Développée pour la première fois en 1947 par J. Robert Oppenheimer et ses collègues scientifiques qui ont développé la bombe atomique, l'horloge de la fin du monde montre à quel point l'humanité est proche de l'anéantissement total. Il a été créé pour faire pression sur les dirigeants mondiaux afin qu’ils s’assurent que les armes nucléaires ne soient plus jamais utilisées, suite aux effets dévastateurs de la Seconde Guerre mondiale.

À partir de minuit moins sept minutes, les aiguilles de l'horloge ont bougé 25 fois au total – retombant même jusqu'à minuit moins 17 minutes après la fin de la guerre froide en 1991.

La guerre est le facteur clé derrière une grande partie du calcul de l’horloge. Mardi, le Bulletin a déclaré que la Chine, la Russie et les États-Unis développaient et modernisaient leurs armes nucléaires ajoutaient au « danger toujours présent de guerre nucléaire par erreur ou mauvais calcul ». De même, la guerre en Ukraine a également créé un « risque permanent d’escalade nucléaire ».

Cependant, les outils d’intelligence artificielle ont également été cités pour expliquer pourquoi l’horloge reste la plus proche de l’Armageddon.

Logo Surfshark Vous souhaitez naviguer sur le Web en privé ? Ou donner l'impression que vous êtes dans un autre pays ?
Obtenez un énorme 86 % de réduction sur Surfshark avec cette offre spéciale tech.co. Voir le bouton Offre

Quel est l’impact de l’IA sur le compte à rebours ?

Les membres du Bulletin of Atomic Scientists incluent les risques d’origine humaine, tels que l’IA, dans leurs calculs d’horloge depuis 2007.

Cependant, grâce aux progrès spectaculaires et rapides de la technologie de l'IA générative, avec des chatbots tels que ChatGPT d'OpenAI qui semblent faire la une des journaux tous les deux jours, sa mention importante dans la liste de cette année n'est pas une surprise.

Le Bulletin disait : « Nous soulignons une question particulièrement préoccupante : la convergence des outils émergents d’intelligence artificielle et des technologies biologiques [qui] peuvent radicalement permettre aux individus d’abuser de la biologie. »

Les entreprises et les organisations récoltent les fruits de l’intelligence artificielle et des grands modèles de langage, grâce à leur contribution à l’augmentation de la productivité et à la minimisation des erreurs. Même le secteur de la santé constate un effet positif de l’IA avec une efficacité accrue du diagnostic. Alors, qu’est-ce qui inquiète exactement les scientifiques atomiques ?

Selon la déclaration de Doomsday Clock :

"Le problème est que les grands modèles de langage permettent à des individus qui, autrement, ne disposent pas du savoir-faire suffisant, d'identifier, d'acquérir et de déployer des agents biologiques susceptibles de nuire à un grand nombre d'humains, d'animaux, de plantes et d'autres éléments de l'environnement."

Qui plus est, l’imprévisibilité de l’IA générative, ainsi que son potentiel à corrompre l’information et à amplifier la désinformation sont autant de menaces pour la démocratie, qui peuvent à leur tour avoir un impact considérable sur la façon dont nous gérons les risques nucléaires, les pandémies et le changement climatique.

D’un point de vue spécifique à la technologie, il existe également une échelle mobile dans l’impact de l’IA sur l’industrie.

Prenons l'exemple mauvais pour les affaires, mais finalement inoffensif, du chatbot en ligne de DPD, qui a été facilement manipulé pour se critiquer lui-même et l'entreprise. Bien qu’elle ne soit pas dévastatrice à grande échelle, il s’agit d’une erreur embarrassante qui peut entraîner des pertes monétaires pour les entreprises.

À l’autre bout de l’échelle, il y a un risque pour la vie. L'année dernière, Tesla a été contrainte de rappeler plus de deux millions de ses véhicules en raison d'un dysfonctionnement du pilote automatique . Cela était dû à une série d'accidents dans lesquels deux voitures distinctes ont percuté l'arrière d'un camion de pompiers et d'une voiture de police garés.

Les Atomic Scientists ont déclaré que « les progrès en matière d’intelligence artificielle et de génie génétique, par exemple, ont un potentiel énorme, mais comportent également des risques considérables en fonction de la manière dont ces technologies sont utilisées ».

La réglementation sur l’IA pourrait-elle être utile ?

L’objectif principal de Doomsday Clock est de sensibiliser et, espérons-le, de mettre en lumière les problèmes mondiaux afin de susciter l’action des politiciens, des dirigeants mondiaux et des citoyens.

La présidente et directrice générale du Bulletin of the Atomic Scientists, Rachel Bronson, a expliqué : « Il y a deux messages clés dans notre déclaration et ils n'en font qu'un : que 90 secondes avant minuit est profondément instable et ne doit pas engendrer la complaisance et deux : les progrès de la technologie s'accélèrent. et dépassant notre capacité à les gouverner ».

Cela signifie que les « nouvelles technologies de rupture » telles que l’IA doivent être traitées au moyen d’une législation et d’une réglementation appropriées.

En octobre dernier, le président américain Joe Biden a signé un décret sur « une IA sûre, sécurisée et digne de confiance » qui appelle à la protection « contre les risques liés à l’utilisation de l’IA pour fabriquer des matériaux biologiques dangereux en développant de nouvelles normes strictes pour le criblage par synthèse biologique ». Même si cette mesure n’est pas juridiquement contraignante, elle constitue un pas dans la bonne direction.

De la même manière, de nombreux pays dans le monde reconnaissent le potentiel nocif de l’IA et mettent en place des réglementations d’atténuation. Cela comprend une proposition de cadre réglementaire par l'Union européenne, une déclaration internationale pour lutter contre les risques liés à l'IA et la formation d'un nouvel organe consultatif des Nations Unies.

Pour vous assurer d’utiliser personnellement l’intelligence artificielle de la manière la plus efficace et la plus sûre, assurez-vous de bien comprendre les limites et les risques de chaque outil d’IA générative avec lequel vous travaillez. Cela vous permettra de mieux contrôler leur utilisation et, espérons-le, de garder cette horloge à distance.