ChatGPT enverra les utilisateurs vers une page de vote lorsqu'ils seront interrogés sur l'élection

Publié: 2024-01-16

OpenAI a dévoilé ses plans pour garantir que ChatGPT ne se transforme pas en une influence perturbatrice lors des élections qui se dérouleront dans le monde entier cette année, notamment aux États-Unis et au Royaume-Uni.

L'une des mesures prises par l'entreprise pour garantir que les utilisateurs américains reçoivent des informations de vote légitimes consiste à les diriger vers un site de vote « faisant autorité » appelé CanIVote.Org, où les utilisateurs peuvent trouver des informations relatives aux procédures électorales, aux lieux de vote, ainsi qu'aux vote anticipé et par correspondance.

La startup a également annoncé une série d'autres clarifications et changements importants concernant le contenu politique et la prévention des abus sur ses plateformes, qui restent les outils d'IA les plus populaires utilisés par les entreprises .

ChatGPT pour diriger les utilisateurs vers une page contenant des informations de vote

« Aux États-Unis, nous travaillons avec la National Association of Secretaries of State (NASS), la plus ancienne organisation professionnelle non partisane de fonctionnaires », a révélé OpenAI dans un article de blog cette semaine.

Dans le cadre de son approche des élections américaines de 2024, ChatGPT enverra les utilisateurs directement vers CanIVote.org lorsqu'on leur posera certaines questions sur les problèmes de vote.

CanIVote.org est une page Web sur laquelle tous les électeurs américains éligibles peuvent connaître leur statut d'inscription sur les listes électorales, l'emplacement de leur bureau de vote le plus proche et des informations sur ce qui constitue une pièce d'identité valide pour voter.

Des informations relatives au vote par correspondance et par anticipation sont également disponibles sur le site, via des liens vers les autorités électorales nationales.

Logo Surfshark Vous souhaitez naviguer sur le Web en privé ? Ou donner l'impression que vous êtes dans un autre pays ?
Obtenez un énorme 86 % de réduction sur Surfshark avec cette offre spéciale tech.co. Voir le bouton Offre

Si ce type d’action réussit aux États-Unis, dit OpenAI, ils répéteront cette approche dans d’autres régions au cours des cycles électoraux.

Autres mesures prises par ChatGPT pendant l'année électorale

En plus de diriger les électeurs vers des sources légitimes d'informations de vote, OpenAI dit qu'il prendra plusieurs autres mesures pour garantir que ChatGPT ne soit pas utilisé à mauvais escient pendant l'année électorale.

Par exemple, vous ne pourrez pas créer un GPT (un chatbot personnalisé) qui imite une personnalité ou une institution politique, puis prétendre parler en son nom. Les « candidatures » visant à dissuader les gens de participer sont également exclues du menu.

« Nous nous efforçons d'anticiper et de prévenir les abus pertinents, tels que les « deepfakes » trompeurs, les opérations d'influence à grande échelle ou les chatbots se faisant passer pour des candidats », explique Open AI.

"Avant de lancer de nouveaux systèmes, nous les regroupons, sollicitons les utilisateurs et les partenaires externes pour obtenir des commentaires et élaborons des mesures d'atténuation de sécurité pour réduire les risques de dommages", ajoute la société.

En termes de génération d'images, au début de cette année, ChatGPT met en œuvre les informations d'identification numériques de la Coalition pour la provenance et l'authenticité du contenu, qui consistent à attacher un marqueur cryptographique à toutes les images générées à l'aide de DALL-E .

OpenAI affirme également avoir constaté des résultats « prometteurs » d’un nouveau classificateur de provenance que l’entreprise expérimente. La technologie est conçue pour détecter si une image a été créée avec DALL-E même si elle a été modifiée d'une manière ou d'une autre.

ChatGPT aura-t-il une bonne ou une mauvaise influence sur les élections ?

ChatGPT est largement utilisé par les entreprises à travers les États-Unis et le chatbot devra répondre de manière convaincante à une avalanche de questions politiques et juridiques à mesure que les élections approchent.

Bien que la possibilité que ChatGPT – ainsi que d’autres outils d’IA – soient utilisés pour diffuser de la désinformation ait été longuement évoquée, la question de savoir si ChatGPT aura spécifiquement un impact particulièrement négatif sur les élections est loin d’être nette.

Bien sûr, il existe un risque que ChatGPT fournisse involontairement des informations politiques incorrectes – bien qu’OpenAI semble aborder cette possibilité de front avec son approche.

En effet, les projets visant à diriger les électeurs vers un site contenant des informations de vote légitimes – et à garantir que ChatGPT ne dénature pas les processus démocratiques – suggéreraient, du moins en apparence, qu'OpenAI aurait pu s'imposer des réglementations plus strictes que la plupart des autres canaux que nous utilisons. pour obtenir des informations, là où la désinformation s’envenime souvent.

La désinformation – ainsi que d’autres contenus politiques persuasifs – circulent déjà rapidement sur les sites de médias sociaux , les moteurs de recherche et même certains canaux de médias traditionnels.

De plus, OpenAI ne gère pas des millions d'utilisateurs produisant un flux incessant de contenu généré par l'homme comme les sites de médias sociaux , et il n'existe pas de considérations équivalentes au premier amendement. La sortie de ChatGPT n'est pas « incontrôlée » de la même manière, et elle n'est pas non plus protégée.

En théorie, OpenAI pourrait même imposer une règle de « non-politique » si elle le voulait vraiment. Ce genre de principe général est déjà appliqué aux GPT, qui ne peuvent pas être conçus pour imiter des chiffres ou des institutions.

La menace que l’IA fait peser sur les élections démocratiques au niveau national – et elle est très réelle – est plus susceptible de provenir d’outils d’IA générative qui ne sont pas soumis au même niveau de pression publique pour faire connaître leur « approche » des élections qui auront lieu en 2024. , ou de quelqu'un qui a construit un outil d'IA malveillant et qui ne mettra donc en œuvre aucun garde-fou.

Bien entendu, les acteurs des États-nations utilisent déjà les outils de l’IA pour diffuser la désinformation, et c’est probablement la manière la plus probable de voir l’IA utilisée pour perturber les processus démocratiques si l’on en croit les dernières années d’ingérence électorale.

Il est également important de se rappeler qu'il s'agit d'un système d'IA qui continue de nous surprendre et continue de se révéler à la fois faillible et ouvert à la manipulation. Et dès qu’OpenAI apporte des modifications à ChatGPT, une armée de personnes attend de le pousser jusqu’à ses limites logiques. Une série d’élections crée simplement une motivation politique supplémentaire pour agir ainsi.

Quoi qu’il arrive, la façon dont ChatGPT et d’autres outils d’IA sont utilisés par les électeurs fera la une des journaux tout au long de l’année.