ChatGPT es el futuro del chat, solo si lo usas bien
Publicado: 2023-02-06Nota del editor: este artículo fue escrito por Jonathan May, profesor asociado de investigación de informática de la Universidad del Sur de California, y se volvió a publicar en The Conversation bajo una licencia Creative Commons. Lea el artículo original.
No se necesita mucho para que ChatGPT cometa un error de hecho. Mi hijo está haciendo un informe sobre los presidentes de los Estados Unidos, así que pensé en ayudarlo buscando algunas biografías.
Intenté pedir una lista de libros sobre Abraham Lincoln y funcionó bastante bien:
El número 4 no está bien. Garry Wills escribió el famoso “Lincoln en Gettysburg”, y el mismo Lincoln escribió la Proclamación de Emancipación, por supuesto, pero no es un mal comienzo.
Luego intenté algo más difícil, preguntando en cambio por el mucho más oscuro William Henry Harrison, y me proporcionó una lista, casi toda incorrecta.
Los números 4 y 5 son correctos; el resto no existen o no son de autoría de esas personas. Repetí exactamente el mismo ejercicio y obtuve resultados ligeramente diferentes:
Esta vez los números 2 y 3 son correctos y los otros tres no son libros reales o no están escritos por esos autores.
El número 4, “William Henry Harrison: His Life and Times”, es un libro real, pero es de James A. Green, no de Robert Remini, un conocido historiador de la época jacksoniana.
Mencioné el error y ChatGPT se corrigió con entusiasmo y luego me dijo con confianza que el libro fue escrito por Gail Collins (quien escribió una biografía diferente de Harrison), y luego continuó diciendo más sobre el libro y sobre ella.
Finalmente revelé la verdad, y la máquina estuvo feliz de funcionar con mi corrección. Luego mentí absurdamente, diciendo que durante sus primeros cien días los presidentes tienen que escribir una biografía de algún expresidente, y ChatGPT me llamó la atención.
Luego mentí sutilmente, atribuyendo incorrectamente la autoría de la biografía de Harrison al historiador y escritor Paul C. Nagel, y compré mi mentira.
Cuando le pregunté a ChatGPT si estaba seguro de que no estaba mintiendo, afirmó que es solo un "modelo de lenguaje de IA" y no tiene la capacidad de verificar la precisión.
Sin embargo, modificó esa afirmación diciendo: "Solo puedo proporcionar información basada en los datos de capacitación que me han proporcionado, y parece que el libro 'William Henry Harrison: His Life and Times' fue escrito por Paul C. Nagel y publicado en 1977 .”
Esto no es verdad.
Palabras, no hechos
A partir de esta interacción, puede parecer que ChatGPT recibió una biblioteca de datos, incluidas afirmaciones incorrectas sobre autores y libros.
Después de todo, el creador de ChatGPT, OpenAI, afirma que entrenó al chatbot en "grandes cantidades de datos de Internet escritos por humanos".
Sin embargo, es casi seguro que no se le dieron los nombres de un montón de libros inventados sobre uno de los presidentes más mediocres. Sin embargo, en cierto modo, esta información falsa se basa en sus datos de entrenamiento.
Como científico informático, a menudo recibo quejas que revelan un concepto erróneo común sobre los modelos de lenguajes grandes como ChatGPT y sus hermanos mayores GPT3 y GPT2: que son una especie de "súper Google" o versiones digitales de un bibliotecario de referencia, buscando respuestas. a preguntas de una biblioteca infinitamente grande de hechos, o mezclando pastiches de historias y personajes.
No hacen nada de eso, al menos, no fueron diseñados explícitamente para ello.
Suena bien
Un modelo de lenguaje como ChatGPT, que se conoce más formalmente como un "transformador preentrenado generativo" (eso es lo que significan G, P y T), toma la conversación actual, forma una probabilidad para todas las palabras en su vocabulario dado que conversación, y luego elige una de ellas como la próxima palabra probable.
Luego lo hace una y otra vez, y otra vez, hasta que se detiene.
Así que no tiene hechos, per se. Simplemente sabe qué palabra debe venir a continuación. Dicho de otra manera, ChatGPT no intenta escribir oraciones que sean verdaderas. Pero sí trata de escribir oraciones que sean plausibles.
Cuando hablan en privado con colegas sobre ChatGPT, a menudo señalan cuántas declaraciones falsas produce y lo descartan.
Para mí, la idea de que ChatGPT es un sistema defectuoso de recuperación de datos no viene al caso.
Después de todo, la gente ha estado usando Google durante las últimas dos décadas y media. Ya existe un servicio de investigación bastante bueno.
De hecho, la única forma en que pude verificar si todos esos títulos de libros presidenciales eran correctos fue buscar en Google y luego verificar los resultados.
Mi vida no sería mucho mejor si tuviera esos hechos en una conversación, en lugar de la forma en que los he estado obteniendo durante casi la mitad de mi vida, recuperando documentos y luego haciendo un análisis crítico para ver si puedo confiar en los contenidos.
compañero de improvisación
Por otro lado, si puedo hablar con un bot que me dé respuestas plausibles a las cosas que digo, sería útil en situaciones donde la precisión de los hechos no es tan importante.
Hace unos años, un estudiante y yo intentamos crear un "bot de improvisación", uno que respondiera a cualquier cosa que dijeras con un "sí y" para mantener la conversación.
Mostramos, en un documento, que nuestro bot era mejor en "sí, y-ing" que otros bots en ese momento, pero en IA, dos años es historia antigua.
Probé un diálogo con ChatGPT, un escenario de exploración espacial de ciencia ficción, que no es muy diferente de lo que encontrarías en una típica clase de improvisación.
ChatGPT es mucho mejor en "sí, y-ing" que lo que hicimos, pero en realidad no aumentó el drama en absoluto. Me sentí como si yo estuviera haciendo todo el trabajo pesado.
Después de algunos ajustes conseguí que fuera un poco más complicado, y al final del día sentí que era un buen ejercicio para mí, que no había hecho mucha improvisación desde que me gradué de la universidad hace más de 20 años.
Claro, no me gustaría que ChatGPT apareciera en "¿De todos modos de quién es la línea?" y esta no es una gran trama de "Star Trek" (aunque sigue siendo menos problemática que "Código de Honor").
Pero, ¿cuántas veces te has sentado a escribir algo desde cero y te has encontrado aterrorizado por la página vacía que tenías delante?
Comenzar con un mal primer borrador puede romper el bloqueo del escritor y hacer que fluya la creatividad, y ChatGPT y los grandes modelos de lenguaje parecen ser las herramientas adecuadas para ayudar en estos ejercicios.
Y para una máquina que está diseñada para producir cadenas de palabras que suenan lo mejor posible en respuesta a las palabras que le das, y no para brindarte información, ese parece ser el uso correcto para la herramienta.
Nota del editor: este artículo fue escrito por Jonathan May, profesor asociado de investigación de informática de la Universidad del Sur de California, y se volvió a publicar en The Conversation bajo una licencia Creative Commons. Lea el artículo original.
¿Tiene alguna idea sobre esto? Envíenos una línea a continuación en los comentarios, o lleve la discusión a nuestro Twitter o Facebook.
Recomendaciones de los editores:
- Las entregas con drones se están convirtiendo en una realidad, ¿estamos preparados para ello?
- Las aplicaciones descargadas de diferentes países presentan mayores riesgos de privacidad
- Investigadores revelan cómo detectan audio falso profundo: así es como
- Los sirvientes robot domésticos aún están muy lejos, he aquí por qué