OpenAI fonctionne-t-il sur GPT-5 ?
Publié: 2023-04-17Réponse rapide : Non, OpenAI ne fonctionne pas sur GPT-5, et ne le sera probablement pas avant un certain temps. La concentration continue d'OpenAI sur le raffinement des capacités de GPT-4.
Lors d'un récent événement du MIT sur les défis et les dangers potentiels des systèmes d'IA, le PDG et cofondateur d'OpenAI, Sam Altman, a pris la parole via un lien vidéo virtuel.
Altman a adressé une lettre ouverte en circulation qui exhortait les institutions, y compris OpenAI, à suspendre tout autre système d'IA créant des systèmes d'IA au-delà des capacités de GPT-4.
La lettre a été cosignée par des personnes comme Elon Musk, le co-fondateur d'Apple Steve Wozniak et d'autres. Vous pouvez lire la lettre ici ou via le menu déroulant ci-dessous :
Les systèmes d'IA dotés d'une intelligence humaine et compétitive peuvent poser de graves risques pour la société et l'humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d'IA. Comme indiqué dans les principes d'Asilomar AI largement approuvés, l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés .
Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d'IA enfermés dans une course effrénée pour développer et déployer des esprits numériques toujours plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable.
Les systèmes d'IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales, et nous devons nous demander : devrions- nous laisser les machines inonder nos canaux d'information de propagande et de contrevérité ? Devrions- nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions- nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions -nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus.
Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration d'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il peut être important d'obtenir un examen indépendant avant de commencer à former de futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux des modèles." Nous sommes d'accord. Ce point est maintenant.
Par conséquent, nous appelons tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA plus puissants que GPT-4 . Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire.
Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d'IA qui sont rigoureusement audités et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. Cela ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes.
La recherche et le développement de l'IA devraient être recentrés sur la fabrication des systèmes puissants et à la pointe de la technologie d'aujourd'hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux.
En parallèle, les développeurs d'IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance de l'IA robustes. Celles-ci devraient au minimum inclure : de nouvelles autorités de réglementation compétentes dédiées à l'IA ; la surveillance et le suivi de systèmes d'IA hautement performants et de vastes pools de capacités de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et à suivre les fuites de modèles ; un solide écosystème d'audit et de certification ; responsabilité pour les dommages causés par l'IA ; un financement public solide pour la recherche technique sur la sécurité de l'IA ; et des institutions bien dotées en ressources pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA entraînera.
L'humanité peut profiter d'un avenir florissant avec l'IA. Après avoir réussi à créer de puissants systèmes d'IA, nous pouvons maintenant profiter d'un « été de l'IA » dans lequel nous récoltons les fruits, concevons ces systèmes pour le bénéfice de tous et donnons à la société une chance de s'adapter. La société a fait une pause sur d'autres technologies avec des effets potentiellement catastrophiques sur la société. Nous pouvons le faire ici. Profitons d'un long été d'IA, ne nous précipitons pas sans préparation dans une chute.
Altman a critiqué la lettre pour avoir commodément ignoré certains détails importants et comment une version antérieure avait répandu des rumeurs selon lesquelles OpenAI entraînait déjà GPT-5. Mais cela soulève une bonne question, n'est-ce pas?
OpenAI fonctionne-t-il sur GPT-5 ?
Réponse courte : Non
Actuellement, OpenAI ne fonctionne pas sur GPT-5 "et ne le fera pas avant un certain temps", a déclaré Altman en adressant la lettre. Altman a affirmé que le développement du GPT-5 n'était pas à son ordre du jour actuel.
Cela dit, Altman a souligné la concentration continue d'OpenAI sur le raffinement des capacités du GPT-4 et la résolution des problèmes de sécurité potentiels non mentionnés dans la lettre ouverte.
Regardez la vidéo présentant la conversation ci-dessous :
"Nous faisons d'autres choses en plus de GPT-4 qui, je pense, ont toutes sortes de problèmes de sécurité qu'il est important de résoudre et qui ont été totalement laissés de côté", a noté Altman - faisant référence aux plugins GPT-4 qui permettent le grand modèle de langage pour naviguer sur Internet.
Pour l'instant, concentrons-nous sur GPT-4
Et cela seul est un autre problème. Bien qu'il y ait la possibilité d'une annonce GPT-5 à l'avenir, nous devons nous concentrer sur ce dont GPT-4 est pleinement capable. Nous n'avons même pas encore vu toutes ses capacités.
"Alors que les capacités deviennent de plus en plus sérieuses, la barre de sécurité doit augmenter", a ajouté Altman. "Je pense qu'il est vraiment important d'avancer avec prudence et une rigueur croissante pour les questions de sécurité. La lettre, je ne pense pas que ce soit la meilleure façon de l'aborder.
Même si OpenAI ne se concentre pas actuellement sur la formation GPT-5, cela ne signifie pas qu'ils ne créent pas d'autres outils audacieux et innovants.
Bien qu'OpenAI ne se concentre peut-être pas sur GPT-5 pour le moment, ils sont activement impliqués dans la création de divers outils pour repousser les limites de l'intelligence artificielle.
Avez-vous des idées à ce sujet? Envoyez-nous une ligne ci-dessous dans les commentaires, ou transférez la discussion sur notre Twitter ou Facebook.
Recommandations des éditeurs :
- ChatGPT et les autres IA linguistiques sont tout aussi irrationnels que nous
- ChatGPT peut-il faire votre travail ? OpenAI dit oui, au moins 19% d'entre vous
- Le bogue ChatGPT a définitivement révélé vos habitudes d'écriture paresseuses (mis à jour)
- L'assistant d'écriture GPT de Linkedin vous aide à créer votre profil