Por qué probablemente deberías dejar de usar ChatGPT para mejorar tu Instagram
Publicado: 2024-08-22¿Alguna vez te has sentido humillado por un chatbot de IA? Bueno, aparentemente no estás solo, ya que casi 400.000 personas participan en una tendencia de las redes sociales en la que consiguen que ChatGPT "toste" públicamente su feed de Instagram.
Los resultados son salvajes, con la herramienta de inteligencia artificial señalando todo, desde vergonzosos selfies en el gimnasio hasta elecciones de vestuario cuestionables, brindando a los usuarios un sinfín de material para sus historias de Instagram y dejando a aún más personas preguntándose... ¿cuándo se volvió tan divertido ChatGPT?
Sin embargo, dado que la tendencia viral de ChatGPT provoca que oleadas de usuarios entreguen información personal, el desafío también está reavivando viejas conversaciones sobre las cuestionables prácticas de recopilación de datos de OpenAI y su mediocre enfoque de seguridad. Continúe leyendo para obtener más información sobre la tendencia viral más mala de Instagram y los riesgos asociados con compartir datos con ChatGPT.
Los usuarios piden a ChatGPT que insulte su perfil de Instagram
Si ha estado en Instagram recientemente, probablemente se haya visto inundado con mensajes de párrafos largos generados por IA que derriban los feeds de sus compañeros usuarios.
La tendencia de “asar mi alimento” se ha extendido por las redes sociales como la pólvora. En el momento de escribir este artículo, 395.000 personas han compartido los resultados de su historia gracias a una plantilla compartible que te permite participar con un par de toques, y su viralidad no es sorprendente.
ChatGPT no se anda con rodeos. Sus asados de IA, que son sorprendentemente divertidos, no temen volverse personales, con el chatbot examinando cada parte del feed de Instagram de un usuario, desde sus pasatiempos y elección de ropa hasta su contenido de viajes.
🔎 ¿Quieres navegar por la web de forma privada? 🌎 ¿O parecer como si estuvieras en otro país?
Obtenga un enorme 86 % de descuento en Surfshark con esta oferta especial de tech.co.
Es el mismo trabajo del genio de la IA que felicitó a Tech.co por ser "la versión de Internet de una taza de café tibia, completamente olvidable e igual de decepcionante". Ay, fingiremos que eso no nos ofende.
Pedirle a ChatGPT que me ase:
“Stefanos Tsitsipas: el tipo que pasa más tiempo filosofando en Twitter que realizando un segundo servicio sólido. Es el único jugador que puede convertir un simple cambio en una charla TED sobre mitología griega y aun así regresar a la cancha con...
– Stefanos Tsitsipas (@steftsitsipas) 19 de agosto de 2024
A pesar de florecer en Instagram, los orígenes del desafío se remontan a X, específicamente, una publicación viral en la que la estrella del tenis griego Stefanos Tsitsipas le pide al popular chatbot de IA que lo ase. La publicación, que describe a Tsisipas como un “tipo que pasa más tiempo filosofando en Twitter que dando un segundo servicio sólido”, recibió más de 451.000 visitas en un día y generó una serie de tendencias imitadoras en otras plataformas de redes sociales.
¿Cuándo se volvió divertido ChatGPT?
La reputación de ChatGPT como una “navaja suiza para la IA” es fundamental para su popularidad. Cuando se trata de sus usos, el límite realmente es su imaginación (más su límite de 4096 caracteres), y el chatbot se utiliza para redactar ensayos, codificar programas de computadora, generar ideas de negocios y más.
Sin embargo, a pesar de su versatilidad, ChatGPT no siempre ha sido conocido por ser divertido y su falta de ingenio ha sido respaldada por investigaciones. El año pasado, los investigadores alemanes Sophie Jentzsch y Kristian Kersting decidieron poner a prueba el potencial cómico de la IA generativa pidiéndole a ChatGPT3.5 de OpenAI que les contara un chiste 1.008 veces seguidas.
El chatbot les ofreció variaciones de una de las 25 configuraciones de chistes más del 90% del tiempo, lo que sugiere que el repertorio cómico de ChatGPT probablemente se aprendió durante sus fases de entrenamiento, no se generó espontáneamente. El estudio encontró que los chistes de ChatGPT "tampoco retuvieron mucho escrutinio lógico", lo que en lenguaje no académico significa que no tenían mucho sentido.
Sin embargo, antes de que los comediantes puedan dar un suspiro de alivio, estos resultados estaban lejos de ser unánimes. De hecho, una investigación reciente sugiere que el chatbot es en realidad más divertido que la mayoría de los humanos, ya que el 70% de los participantes prefieren las bromas de ChatGPT a las de su propia especie, y los investigadores concluyen que el chatbot puede "producir humor escrito con una calidad que supera el humor de los legos". talento".
A decir verdad, el humor es subjetivo, por lo que analizar objetivamente la "diversión" de un chatbot nunca será fácil. Sin embargo, a medida que OpenAI trabaja arduamente para mejorar las capacidades de ChatGPT, la IA solo será cada vez mejor en el dominio de habilidades tradicionalmente humanas como hacer chistes y el pensamiento lateral. Pero mientras ChatGPT encabeza otro momento viral en Instagram, ¿deberíamos confiarle nuestros datos a ese chatbot?
El lado más oscuro de la tendencia viral "Roast Me" de ChatGPT
A medida que la tendencia de 'asarme' de ChatGPT gana impulso, miles de usuarios han entregado voluntariamente datos personales sin pensarlo mucho. Sin embargo, mientras ChatGPT divierte a los usuarios de Instagram con comentarios generados por IA, su creador OpenAI continúa atrayendo reacciones negativas por su enfoque de la seguridad de los datos.
OpenAI admite que guarda todas las conversaciones que tienes con el chatbot con fines de capacitación, pero cuando se trata de abordar cómo se usa exactamente, la compañía es notoriamente reservada. La política de privacidad de OpenAI explica que también podría compartir su información personal con terceros, lo que genera preocupaciones sobre la mercantilización de los datos del usuario.
Es más, una investigación de la Universidad de Carolina del Norte ha descubierto que la transferencia de información confidencial podría ser irreversible. Debido al tamaño del modelo de lenguaje grande (LLM) que impulsa ChatGPT, el estudio concluyó que es extremadamente difícil eliminar permanentemente sus datos de la herramienta de inteligencia artificial en comparación con otros chatbots, y que la información "eliminada" a menudo aún se puede recuperar.
¿Pero qué significa esto realmente? Bueno, a menos que intencionalmente optes por no compartir tu información, significa que los datos que ingresas en ChatGPT se utilizarán para entrenar modelos futuros.
Incluso si confía plenamente en OpenAI con sus datos, el cuestionable perfil de seguridad de la empresa genera preocupaciones sobre la posibilidad de que información confidencial caiga en las manos equivocadas. En 2023, la empresa de Silicon Valley fue víctima de un ciberataque después de que un pirata informático obtuviera acceso a los sistemas de mensajería internos. Si bien los datos de los usuarios no se vieron comprometidos, expertos de la empresa revelan que el incidente se pudo evitar y que OpenAI no estaba haciendo lo suficiente para proteger los datos confidenciales de los ciberdelincuentes y de adversarios extranjeros como China.
Para protegerse, le recomendamos que solo comparta con ChatGPT información que no le importe que se comparta en línea. Cuando se trata de mostrar tu Instagram, desaconsejamos compartir capturas de pantalla que expongan información personal como nombres y direcciones, imágenes claras de tu rostro y ejemplos de tu trabajo creativo.
Obtenga más información sobre qué no compartir con ChatGPT aquí .