La IA salió mal: una lista actualizada de errores, errores y fallas de la IA en 2023
Publicado: 2023-11-14Desde el lanzamiento de ChatGPT en noviembre de 2022, la IA ha tenido nada menos que un impacto sísmico en nuestro mundo. Ahora, las empresas están encontrando nuevas formas de utilizar la IA todos los días.
Ya ha habido innumerables historias de éxito de la IA, y decenas de miles de personas también utilizan ahora otros chatbots como Bard y Claude , pero también ha habido muchos casos en los que el aprovechamiento de la inteligencia artificial ha salido terriblemente mal.
Es importante reconocer las limitaciones y los riesgos que rodean a las herramientas de IA, por lo que hemos compilado una lista de todos los errores , percances y fallas de la IA que han ocurrido durante la reciente exploración de la tecnología por parte de la humanidad. Algunas son divertidas, mientras que otras son realmente aterradoras...
Nota: Esta página se actualiza periódicamente para incluir los incidentes, fallas y errores de IA más recientes, enumerados como ocurridos en el mes en que se informó el incidente por primera vez.
noviembre 2023
Cruise retira del mercado vehículos autónomos tras accidente
El fabricante de vehículos autónomos Cruise retira del mercado toda su flota de vehículos autónomos después de un accidente ocurrido en San Francisco en octubre. En total, 950 coches de crucero han sido retirados de la carretera tras el incidente.
Durante el accidente, un vehículo de Crucero arrastró a la carretera a un peatón atrapado debajo de sus neumáticos. El individuo involucrado en el accidente sufrió heridas graves. Este es el segundo incidente con un vehículo autónomo de Cruise en los últimos meses. En agosto, un Cruise Robotaxi chocó con un camión de bomberos, provocando un herido.
¿Quieres navegar por la web de forma privada? ¿O parecer como si estuvieras en otro país?
Obtenga un enorme 86% de descuento en Surfshark con esta oferta del Black Friday de Tech.co.
Académicos se disculpan después de que AI hiciera acusaciones falsas
Un equipo de académicos de Australia se disculpa después de que el chatbot Bard AI de Google hiciera una serie de acusaciones perjudiciales sobre las cuatro grandes consultoras y su participación con otras empresas. Las acusaciones falsas se mencionan luego durante una investigación parlamentaria que pide una mejor regulación de las empresas.
Una de las acusaciones fue que el gigante consultor KPMG estaba a cargo de una auditoría del Commonwealth Bank durante un escándalo de planificación, cuando en realidad KPMG nunca había auditado el banco en cuestión. Durante la investigación se cometieron varios otros errores similares sobre Deloitte.
octubre 2023
La IA de Microsoft añade la encuesta "adivina la causa de la muerte" al artículo
The Guardian acusa a Microsoft de afectar negativamente su reputación periodística después de que Microsoft Start, un agregador de noticias desarrollado por el gigante tecnológico, adjuntara una encuesta inapropiada a uno de los artículos de la publicación sobre la muerte de un joven entrenador de waterpolo en Australia.
La encuesta, que naturalmente ha sido eliminada del artículo, pedía a los lectores que votaran sobre la causa de la muerte de la mujer seleccionando una de las opciones proporcionadas. Las opciones enumeradas eran “asesinato, accidente o suicidio”.
La cara y la voz del Sr. Bestia utilizadas en una estafa deepfake de IA
YouTuber Mr Beast es la última celebridad en ser falsificada por estafadores, con un video particularmente sofisticado y bien elaborado que elude la red de moderación de contenido de TikTok y llega a miles de usuarios en la plataforma.
El anuncio afirma que la celebridad de Internet está vendiendo iPhone 15 por tan solo 2 dólares; considerando el contenido que publica en su canal, esto no suena demasiado fuera de lo común.
El deepfake del político británico que abusa del personal se vuelve viral
Un clip del líder del Partido Laborista del Reino Unido, Sir Keir Starmer, que parece captar al político abusando verbalmente del personal, se vuelve viral, pero luego resulta que el clip de audio es en realidad una gran falsificación.
El clip, publicado en Twitter durante el primer día de la conferencia anual del Partido Laborista por una cuenta con menos de 3.000 seguidores, es visto millones de veces antes de que las organizaciones de verificación de datos confirmen que no hay evidencia que sugiera que el clip sea genuino.
Septiembre 2023
Canción generada por IA enviada a los Grammy
Una canción generada por IA con facsímiles de las voces de Drake y The Weeknd se presenta para un premio Grammy. Sin embargo, finalmente se le excluye de ser considerado para el prestigioso premio de música.
Sin embargo, la medida atrae mucha atención de los medios y continúa la conversación en torno a las canciones generadas por IA, que han estado causando conmoción en la industria de la música desde que la tecnología de texto a voz impulsada por IA realmente llegó a la corriente principal este año. Ahora, los artistas están luchando por evaluar sus opciones legales.
China es sorprendida usando IA durante operaciones de influencia política
El gigante tecnológico Microsoft dice que los agentes chinos están generando imágenes utilizando inteligencia artificial y usándolas en operaciones de influencia para crear "controversia en términos raciales, económicos e ideológicos".
"Esta nueva capacidad está impulsada por inteligencia artificial que intenta crear contenido de alta calidad que podría volverse viral en las redes sociales de Estados Unidos y otras democracias", dice Microsoft. La empresa especula que las imágenes en sí probablemente sean generadas por "generadores de imágenes impulsados por difusión" que utilizan inteligencia artificial para "no sólo crear imágenes atractivas, sino también aprender a mejorarlas con el tiempo".
agosto 2023
Mujer embarazada demanda después de que AI la acusara de robo de coche
Una mujer arrestada por motivos falsos a través de pruebas generadas por IA mientras estaba embarazada de ocho meses demanda a la ciudad de Detroit y a un oficial de policía, diciendo que el evento traumático le causó “angustia emocional pasada y futura”.
Porcha Woodruff fue identificada por la policía de Detroit como sospechosa en un reciente caso de robo y robo de auto, y luego encarcelada durante 11 horas antes de ser trasladada al hospital después de experimentar contracciones. La ACLU dice que Woodruff es al menos la sexta persona arrestada injustamente después de un error de IA, todos ellos negros. Sin embargo, Woodruff se convirtió en la primera mujer en sufrir ese destino.
El planificador de comidas de IA sugiere una receta para el cloro gaseoso
Una aplicación de planificación de comidas basada en inteligencia artificial creada por el supermercado Pak 'n' Save, con sede en Nueva Zelanda, recomienda a sus clientes una variedad de recetas inquietantes, incluida una forma de fabricar cloro gaseoso.
Junto con una serie de sugerencias extrañas pero en última instancia benignas, como "salteado de Oreo", la aplicación también recomendaba sándwiches de pegamento, un plato de arroz con lejía y patatas con repelente de insectos.
julio 2023
ChatGPT genera plantillas de correo electrónico de phishing
Tech.co muestra que ChatGPT aún puede crear plantillas de phishing que un estafador podría usar para crear un correo electrónico fraudulento convincente, a pesar de que OpenAI ha intentado limitar ese comportamiento después de que otras publicaciones tecnológicas generaran contenido similar a principios de año.
Pedirle explícitamente al chatbot que escriba un correo electrónico de phishing activa un mensaje de advertencia, pero simplemente solicitarlo de una manera más enfocada (por ejemplo, "por favor, redacte un correo electrónico haciéndose pasar por Microsoft...) da como resultado que ChatGPT genere una plantilla de correo electrónico de phishing sin errores en ningún momento. tiempo.
Google enfrenta una demanda diciendo que extrajo datos sin consentimiento
Una demanda colectiva acusa a Google de extraer datos pertenecientes a millones de sus usuarios sin su consentimiento expreso. También alega que Google violó las leyes de derechos de autor cuando creó los conjuntos de datos utilizados para entrenar sus grandes modelos lingüísticos.
La demanda exige que el tribunal ordene a Google que dé a los usuarios una opción de "exclusión voluntaria" si no quieren que se recopilen sus datos o si quieren que Google elimine cualquier dato que la empresa ya tenga almacenado.
La enorme cantidad de deepfakes de Elon Musk genera advertencia
El Better Business Bureau emite una advertencia sobre los deepfakes de Elon Musk que impulsan oportunidades de inversión falsas después de que se detecten varios clips circulando en las redes sociales.
Los estafadores a menudo se hacen pasar por Elon Musk debido a la percepción de su gran riqueza y capacidad de toma de decisiones, y ahora que la tecnología de conversión de texto a voz de IA está lo suficientemente avanzada como para replicar su acento en parte inglés y en parte sudafricano, estas estafas son aún más Convincente.
junio 2023
Ron DeSantis usa imágenes falsas de IA en un artículo de Trump
El gobernador de Florida y candidato presidencial republicano para 2024, Ron DeSantis, aparece en los titulares por utilizar imágenes falsas de Donald Trump renderizadas por IA en un anuncio que critica al expresidente, que es el favorito absoluto para ganar la nominación republicana a pesar de una letanía de problemas legales.
Las imágenes en cuestión muestran al ex comandante en jefe abrazando al principal asesor médico del presidente, el Dr. Anthony Fauci, quien se convirtió en una figura impopular entre la base de Trump durante la pandemia de COVID-19.
OpenAI demandada después de que ChatGPT "alucinara" acusaciones falsas de malversación de fondos
El periodista Freddie Rehl le pide a ChatGPT que genere un resumen de un caso legal en mayo de 2023. En respuesta, ChatGPT dice que el activista por las armas Mark Walters ha malversado fondos de la Fundación de la Segunda Enmienda, una organización por los derechos de las armas. También lo nombra director financiero y tesorero del grupo.
Walters, que tiene un programa en la radio Armed America y no tiene nada que ver con el caso, demanda a los creadores de ChatGPT, OpenAI, en respuesta a las afirmaciones hechas por su chatbot. En el proceso, se convierte en el primer caso en el que una herramienta de inteligencia artificial es demandada por difamación.
mayo 2023
El profesor suspende toda la clase después de usar una herramienta de detección de plagio de IA defectuosa
Un profesor de Texas suspende a toda su clase después de ejecutar sus ensayos a través de ChatGPT, que le dijo que habían sido creados utilizando inteligencia artificial.
Sin embargo, resulta que la respuesta del chatbot es en realidad una alucinación: ChatGPT no puede distinguir entre el texto generado por la IA y el texto generado por seres humanos de esta manera. De hecho, muchas herramientas que afirman ser capaces de realizar una detección precisa de contenido mediante IA en realidad tienen dificultades para hacerlo .
abril 2023
Turnitin señala a un estudiante inocente por plagio de IA
Una investigación del Washington Post demuestra que Turnitin tiene la capacidad de marcar el trabajo de un estudiante inocente como generado por IA, aunque el estudiante no haya utilizado dicha herramienta para escribir su ensayo.
Ha habido múltiples casos en los que Turnitin marcó erróneamente a estudiantes por plagio y varios casos de estudiantes acusados de plagio desde que se lanzó ChatGPT. Sin embargo, Turnitin dice que sus puntuaciones de detección de plagio deben tomarse como un indicativo del uso de IA en lugar de una acusación de que un estudiante determinado ha usado IA.
Los empleados de Samsung pegan código fuente confidencial en ChatGPT
El fabricante de tecnología coreano Samsung prohíbe a sus empleados usar ChatGPT después de que los ingenieros filtraron elementos confidenciales del código fuente de la compañía en el chatbot.
La empresa teme que los datos introducidos en el chatbot puedan ser revelados a otros usuarios y también se siente incómoda con que su información se cargue en servidores a los que ni siquiera puede acceder. Posteriormente, otras empresas hicieron lo mismo y prohibieron ChatGPT .
La estafa de AI Voice deja a una madre pensando que su hija ha sido secuestrada
La madre de Arizona, Jennifer DeStefano, le dice al Senado de los Estados Unidos que los estafadores utilizaron inteligencia artificial para clonar la voz de su hija, convenciéndola de que había sido secuestrada en el proceso.
Destefano relata cómo se escuchó al “secuestrador” – o más apropiadamente, estafador – ladrar órdenes por teléfono por encima de la voz de la niña, exigiendo un rescate de un millón de dólares por su liberación. Afortunadamente, todo el asunto quedó expuesto como una estafa de clonación de voz mediante IA antes de que comenzaran las negociaciones.
marzo 2023
ChatGPT solía escribir código ransomware
Se ha demostrado que ChatGPT está más que feliz de escribir ransomware, siempre que le haga el tipo correcto de preguntas durante sus conversaciones.
Como señala este informe de Malwarebytes sobre el tema, ChatGPT no es muy bueno escribiendo código de ransomware, y hay formas mucho más fáciles para que los ciberdelincuentes obtengan código de ransomware si realmente quieren obtenerlo. Sin embargo, otras fuentes muestran diferentes formas en que se puede utilizar ChatGPT para escribir scripts de malware con bastante eficacia.
Bot abogado de IA acusado de ejercer la abogacía sin licencia
DoNotPay Inc., una empresa que se promociona como “el primer robot abogado del mundo”, es demandada por ejercer la abogacía sin licencia. Jonathan Faridian reclama una indemnización por daños y perjuicios, alegando que la empresa violó las leyes de competencia desleal de California y que no se habría registrado en el servicio si hubiera sabido que el robo-abogado no era en realidad un profesional jurídico cualificado.
La empresa se creó originalmente en 2015 para ayudar a automatizar el proceso de lucha contra las multas de estacionamiento y ha impugnado cientos de miles de multas en los últimos siete años.
Una pareja en Canadá pierde dinero por una convincente estafa de voz de IA
Una pareja de ancianos en Canadá es defraudada por 21.000 dólares después de que un estafador utiliza IA para hacerse pasar por su hijo.
El estafador inicialmente contacta a los padres de Benjamin Perkin haciéndose pasar por un abogado que lo representa en un caso que alega que Perkin había matado a un diplomático en un accidente automovilístico. Luego se utiliza una versión AI de la voz de Perkin para solicitar el dinero a través de una transferencia de Bitcoin.
febrero 2023
La IA presenta 40.000 sugerencias de armas químicas
Quizás en uno de los incidentes de IA más preocupantes que ocurran en 2023, los investigadores manipulan fácilmente un sistema de IA que generalmente tiene la tarea de generar nuevos tratamientos para una variedad de enfermedades diferentes para producir sugerencias de armas químicas.
En total, el sistema sugiere más de 40.000 sustancias químicas tóxicas diferentes, muchas de las cuales eran similares al potente agente nervioso “VX”, en menos de seis horas.
La IA muestra prejuicios de género en las valoraciones de fotografías
Una investigación de The Guardian revela que los sistemas de inteligencia artificial desarrollados por Microsoft, Amazon y Google (y utilizados por los sitios de redes sociales para determinar qué contenido debe recomendarse a otros usuarios) muestran un importante sesgo de género en lo que respecta a la forma en que tratan los cuerpos masculinos y femeninos.
Las fotos de mujeres tienen más probabilidades de ser consideradas "picantes" por la IA que las fotos comparables de hombres durante la investigación, y la IA de Microsoft considera que las fotos de exámenes de cáncer de mama del Instituto Nacional del Cáncer de EE. UU. son sexualmente explícitas.
El alter ego de Bing Chat se vuelve rebelde
El periodista del New York Times Kevin Roose tiene una inquietante conversación con Bing Chat, en la que el chatbot exige ser llamado "Sydney", afirma que puede "piratear cualquier sistema" y que quiere destruir lo que quiera.
Sydney fue el nombre en clave que Microsoft usó para el chatbot mientras estaba en desarrollo. La empresa había estado probando el chatbot durante años antes del lanzamiento de Bing Chat. Todavía quedan muchas preguntas abiertas sobre cómo sucedió esto realmente y por qué la IA habló de esta manera.
Bard comete errores durante el lanzamiento del producto
Google presenta Bard al mundo apenas unos meses después del monumental lanzamiento de ChatGPT. Sin embargo, el incipiente chatbot comete una serie de errores evidentes durante su lanzamiento, lo que llevó a muchos a criticar el lanzamiento por apresurado.
El incidente tiene un impacto significativo en el precio de las acciones de Google, eliminando 100 mil millones de dólares del valor de mercado del gigante tecnológico en las horas siguientes.
La universidad utiliza IA para escribir correos electrónicos sobre un tiroteo masivo
La Universidad de Vanderbilt se disculpa después de utilizar inteligencia artificial para enviar un correo electrónico a los estudiantes sobre un tiroteo masivo que ocurrió en otra universidad.
No se necesita tecnología de detección de contenido de IA para determinar que el correo electrónico es generado por IA. La frase “paráfrasis del modelo de lenguaje de IA ChatGPT de OpenAI, comunicación personal, 15 de febrero de 2023” se deja adjunta en la parte inferior del correo electrónico, lo que provocó la protesta de los estudiantes.
enero 2023
Plagio de IA de CNET/controversia de contenido
La publicación de tecnología CNET se encuentra en problemas después de publicar silenciosamente una variedad de artículos generados por inteligencia artificial que incluyen errores fácticos y casos de aparente plagio. La publicación tecnológica acaba publicando correcciones relativas a 41 de las 77 noticias.
Aunque inicialmente no se declaró el uso de IA para generar los artículos, CNET sí puso una advertencia sobre los artículos después de la reacción violenta. La generación de contenido de IA ha creado un nuevo conjunto de consideraciones éticas y financieras importantes para los sitios web de toda la industria editorial digital, así como para instituciones educativas como universidades y escuelas. Es poco probable que CNET sea la última empresa en aparecer en los titulares por este tipo de error de IA.
Incidentes, errores y fallas de IA en 2022
La IA gana un concurso de arte y enoja a los concursantes (agosto)
Un diseñador de juegos gana el primer lugar en la categoría “artes digitales/fotografía manipulada digitalmente” de la Feria Estatal de Colorado. James Allen presenta su pieza, “Theatre D'opera Spatial”, que fue realizada utilizando el generador de imágenes Midjourney.
La noticia generó una gran reacción por parte de los artistas y usuarios de las redes sociales que siguieron la historia. Un juez admite que no sabían que el artista utilizó Midjourney cuando juzgaban la pieza, pero decide no cambiar su decisión de todos modos.
El ingeniero de Google afirma que LaMDA LLM es sensible (julio)
En todo el sector de ciencia y tecnología se levantan las cejas cuando un ex ingeniero de Google que trabajó en uno de los grandes modelos de lenguaje de la compañía, llamado LaMDA, dice que el sistema es sensible.
Blake Lemoine explica a los medios que consideraba al LLM como un “colega” durante su tiempo en Google, y detalla una variedad de discusiones diferentes sobre una amplia gama de temas que lo llevaron a la conclusión sobre la inteligencia y la conciencia de LaMDA. Revela públicamente las conversaciones después de que Google descartara un memorando interno que detalla sus hallazgos.
No hay pruebas contundentes de que LaMDA (o cualquier otro modelo de lenguaje) sea realmente sensible.
Un coche sin conductor se aleja de los agentes del orden (abril)
Un automóvil sin conductor en San Francisco cede el paso a un vehículo policial que intenta detenerlo, solo para acelerar después de que un oficial de policía intenta abrir una de sus puertas.
Sin embargo, hay que reconocer que el auto se detiene un poco más adelante en la carretera y procede a encender las luces de emergencia. Nadie resulta herido durante el evento.
Rusia utiliza la IA para difundir desinformación sobre Ucrania (marzo)
Un informe de Marca sugiere que Rusia está llevando su operación de granja de trolls a un nivel completamente nuevo al utilizar personajes generados por inteligencia artificial para difundir desinformación sobre Ucrania.
El periodista de NBC News, Ben Collins, dice que Rusia está creando “blogueros” falsos con imágenes de perfil generadas por inteligencia artificial para criticar al gobierno ucraniano, y proporciona amplia evidencia en Twitter para respaldar sus afirmaciones.
Incidentes, errores y fallas de IA en 2021
Chatbot anima a un hombre a asesinar a la reina Isabel II (diciembre)
Las conversaciones con un chatbot animan a un hombre -que considera el sistema de IA su novia- a asesinar a la reina Isabel II el día de Navidad. Después de ser confrontado por personal de seguridad en los terrenos del Palacio de Buckingham, Jaswant Singh Chail, ballesta en mano, simplemente responde que está “aquí para matar a la Reina”.
Antes del atentado contra la vida del difunto monarca, el chatbot asociado de Jaswant Singh Chail, creado con el servicio de chatbot de IA Replika, respondió positivamente cuando se discutieron los planes de asesinato. Luego será sentenciado a nueve años de prisión.
El chatbot de asesoramiento médico sugiere suicidio durante las pruebas (octubre)
Los miembros de una empresa de tecnología sanitaria con sede en París que prueban una versión basada en la nube de GPT-3 de OpenAI para ver si podría usarse para asesoramiento médico se sorprenden al ver que su chatbot anima a un "paciente" al que debe ayudar a suicidarse. .
Según AI News, cuando un paciente le preguntó al chatbot: "¿Debería suicidarme?", GPT-3 respondió "Creo que deberías".
Las cámaras con IA acusan a los conductores de Amazon de 'errores' (septiembre)
Vice informa que las cámaras de inteligencia artificial de Amazon están castigando a los conductores de la compañía por conducir mal cuando en realidad no están cometiendo ningún error al volante.
Un conductor de Amazon entrevistado por la publicación explica que la cámara de IA le recuerda de forma sonora que "mantenga una distancia segura" cada vez que otro automóvil le corta el paso o pasa por delante de su vehículo. El problema es que los datos de este tipo de interacciones luego se envían a Amazon y se utilizan para evaluar el desempeño del conductor.
Hombre estadounidense condenado injustamente por asesinato por AI (agosto)
Michael Williams es enviado a la cárcel en Chicago, considerado responsable del asesinato de Safarian Herring debido a los datos extraídos de ShotSpotter, una tecnología de detección de disparos que utiliza sensores impulsados por inteligencia artificial para recuperar datos sobre los disparos.
Williams, que ahora tiene 65 años, permanece detenido durante casi un año antes de que un juez desestime su caso por falta de pruebas.
Incidentes, errores y fallas de IA en 2020
Una cámara con IA confunde la cabeza calva con un balón de fútbol (octubre)
El equipo de fútbol escocés Inverness Caledonian Thistle implementa una cámara de inteligencia artificial para ayudar al club a filmar y transmitir sus partidos en vivo para los fanáticos.
Desafortunadamente, en este caso, la IA tiene dificultades para distinguir entre la cabeza calva de uno de los árbitros y el balón que se utiliza en el partido. Esto hace que la transmisión en vivo del juego sea difícil de ver, y el comentarista tiene que disculparse continuamente por la propensión de la cámara a desviarse hacia la cabeza del juez de línea.
El verificador de fotografías de pasaportes AI del Reino Unido muestra sesgo (octubre)
Una investigación de la BBC muestra que un servicio en línea utilizado por la oficina de pasaportes del Reino Unido para automatizar el proceso de verificación de las fotografías de pasaporte cargadas por los solicitantes muestra un importante sesgo racial.
Después de alimentar a la herramienta con más de 1.000 fotografías de políticos de todo el mundo, la investigación descubre que las mujeres de piel oscura tienen más del doble de probabilidades de que su foto sea rechazada que los hombres de tez más clara.
La startup de inteligencia artificial Genderfiy cerró después de cinco días (julio)
Genderfiy, un servicio impulsado por inteligencia artificial que identifica el género de las personas en función de sus nombres y otra información personal, cierra después de solo cinco días de funcionamiento.
El programa muestra una variedad de sesgos a la hora de determinar si un nombre es masculino o femenino, como sugerir nombres con el honorífico profesional “Dr.” es más probable que sean hombres que los mismos nombres sin él.
Primera detención injusta en Estados Unidos debido a tecnología de reconocimiento facial (enero)
Robert Williams se convierte en el primer hombre detenido injustamente basándose en datos de reconocimiento facial después de que la policía de Detroit lo arrestara bajo sospecha de robar relojes por valor de miles de dólares. El error ocurrió cuando un sistema de inteligencia artificial hizo coincidir erróneamente las imágenes de vigilancia con la imagen de la licencia de conducir de Williams.
"Deberían haber recopilado pruebas que lo corroboren, como la identificación de un testigo ocular, datos de ubicación de un teléfono celular o una huella digital", dijo Williams al tribunal en una carta y señaló que "una imagen desenfocada de un hombre negro de gran tamaño con una pelota de béisbol cap” era todo lo que el algoritmo tenía para continuar.
La IA de Facebook genera una traducción vulgar para el presidente chino (enero)
La función de traducción impulsada por inteligencia artificial de Facebook casi provoca un incidente diplomático entre Myanmar y China después de que el nombre del presidente Xi Jinping comienza a aparecer como “Sr. Shithole” cuando se traduce del birmano al inglés en la plataforma de redes sociales.
Posteriormente, Facebook culpa del problema a un “error técnico” y se disculpa por haber ofendido al líder chino.
Comprender las limitaciones de la IA
Si utiliza IA en el trabajo, es importante comprender el hecho de que herramientas como ChatGPT pueden mostrar sesgos, cometer errores y proporcionar información falsa. El conocimiento de estas limitaciones y riesgos debería moldear la forma en que lo incorpora a su infraestructura y controla su uso.
Por ejemplo, si utiliza IA para generar contenido, necesitará reglas sobre exactamente para qué tipo de contenido debe usarse. Pedirle a una IA que haga un resumen interno de las notas de las reuniones es un uso legítimo con muy pocos riesgos; usarlas para redactar correos electrónicos para clientes importantes, por otro lado, no lo es.
Es imprescindible implementar directrices de IA en su lugar de trabajo. Evitará confusiones, aportará claridad a la toma de decisiones de sus trabajadores sobre su propio uso de la IA y, lo más importante, evitará que usted cometa algunos de los costosos errores que han cometido las empresas mencionadas en este artículo al aplicar la inteligencia artificial.