¿Es peligrosa la inteligencia artificial (IA)?
Publicado: 2023-05-31El lunes 22 de mayo de 2023, una cuenta verificada de Twitter llamada “Bloomberg Feed” compartió un tuit que afirmaba que había habido una explosión en el Pentágono, acompañado de una imagen. Si se pregunta qué tiene que ver esto con la inteligencia artificial (IA), la imagen fue generada por IA, y el tweet se volvió viral rápidamente y provocó una breve caída en el mercado de valores. Las cosas podrían haber sido mucho peores, un claro recordatorio de los peligros de la inteligencia artificial.
Peligros de la inteligencia artificial
No solo debemos preocuparnos por las noticias falsas. Hay muchos riesgos inmediatos o potenciales asociados con la IA, desde los relacionados con la privacidad y la seguridad hasta los problemas de prejuicios y derechos de autor. Nos sumergiremos en algunos de estos peligros de la inteligencia artificial, veremos qué se está haciendo para mitigarlos ahora y en el futuro, y preguntaremos si los riesgos de la IA superan los beneficios.
Noticias falsas
Cuando llegaron los deepfakes por primera vez, surgieron preocupaciones de que podrían usarse con malas intenciones. Lo mismo podría decirse de la nueva ola de generadores de imágenes de IA, como DALL-E 2, Midjourney o DreamStudio. El 28 de marzo de 2023, se volvieron virales imágenes falsas generadas por IA del Papa Francisco con una chaqueta acolchada blanca de Balenciaga y disfrutando de varias aventuras, como andar en patineta y jugar al póquer. A menos que estudiara las imágenes de cerca, era difícil distinguir estas imágenes de las reales.
Si bien el ejemplo con el Papa fue sin duda un poco divertido, la imagen (y el tweet que la acompaña) sobre el Pentágono fue todo lo contrario. Las imágenes falsas generadas por IA tienen el poder de dañar reputaciones, poner fin a matrimonios o carreras, crear disturbios políticos e incluso iniciar guerras si las manejan las personas equivocadas; en resumen, estas imágenes generadas por IA tienen el potencial de ser muy peligrosas si se usan de manera indebida.
Con los generadores de imágenes de IA ahora disponibles gratuitamente para que cualquiera los use, y Photoshop agregando un generador de imágenes de IA a su popular software, la oportunidad de manipular imágenes y crear noticias falsas es mayor que nunca.
Privacidad, seguridad y piratería
La privacidad y la seguridad también son grandes preocupaciones cuando se trata de los riesgos de la IA, y varios países ya prohíben el ChatGPT de OpenAI. Italia prohibió el modelo debido a problemas de privacidad, creyendo que no cumple con el Reglamento General Europeo de Protección de Datos (GDPR), mientras que los gobiernos de China, Corea del Norte y Rusia lo prohibieron por temor a que difundiera información errónea.
Entonces, ¿por qué nos preocupa tanto la privacidad cuando se trata de IA? Las aplicaciones y los sistemas de IA recopilan grandes cantidades de datos para aprender y hacer predicciones. Pero, ¿cómo se almacenan y procesan estos datos? Existe un riesgo real de filtraciones de datos, piratería y de que la información caiga en manos equivocadas.
No son solo nuestros datos personales los que están en riesgo. La piratería de IA es un riesgo real: aún no ha ocurrido, pero si aquellos con intenciones maliciosas pudieran piratear los sistemas de IA, esto podría tener graves consecuencias. Por ejemplo, los piratas informáticos podrían controlar vehículos sin conductor, piratear sistemas de seguridad de IA para acceder a ubicaciones altamente seguras e incluso piratear sistemas de armas con seguridad de IA.
Los expertos de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) del Departamento de Defensa de EE. UU. reconocen estos riesgos y ya están trabajando en el proyecto Garantizar la Robustez de la IA contra el Engaño (GARD) de DARPA, abordando el problema desde cero. El objetivo del proyecto es garantizar que la resistencia a la piratería y la manipulación esté integrada en los algoritmos y la IA.
Infracción de copyright
Otro de los peligros de la IA es la infracción de los derechos de autor. Puede que esto no suene tan grave como algunos otros peligros que hemos mencionado, pero el desarrollo de modelos de IA como GPT-4 pone a todos en mayor riesgo de infracción.
Cada vez que le pide a ChatGPT que cree algo para usted, ya sea una publicación de blog sobre viajes o un nuevo nombre para su negocio, le proporciona información que luego utiliza para responder consultas futuras. La información que te envía podría estar infringiendo los derechos de autor de otra persona, por lo que es tan importante usar un detector de plagio y editar cualquier contenido creado por IA antes de publicarlo.
Sesgo social y de datos
La IA no es humana, por lo que no puede ser parcial, ¿verdad? Equivocado. Las personas y los datos se utilizan para entrenar modelos de IA y chatbots, lo que significa que los datos o personalidades sesgados darán como resultado una IA sesgada. Hay dos tipos de sesgo en la IA: sesgo social y sesgo de datos.
Con muchos sesgos presentes en la sociedad cotidiana, ¿qué sucede cuando estos sesgos se vuelven parte de la IA? Los programadores responsables de entrenar el modelo podrían tener expectativas sesgadas, que luego se abren paso en los sistemas de IA.
O los datos utilizados para entrenar y desarrollar una IA podrían ser incorrectos, sesgados o recopilados de mala fe. Esto conduce al sesgo de datos, que puede ser tan peligroso como el sesgo social. Por ejemplo, si un sistema de reconocimiento facial se entrena utilizando principalmente rostros de personas blancas, puede tener dificultades para reconocer a los de los grupos minoritarios, perpetuando la opresión.
Robots tomando nuestros trabajos
El desarrollo de chatbots como ChatGPT y Google Bard ha generado una preocupación completamente nueva en torno a la IA: el riesgo de que los robots nos quiten el trabajo. Ya estamos viendo escritores en la industria tecnológica siendo reemplazados por IA, desarrolladores de software preocupados de perder sus trabajos por bots y compañías que usan ChatGPT para crear contenido de blog y contenido de redes sociales en lugar de contratar escritores humanos.
Según el Informe sobre el futuro de los empleos 2020 del Foro Económico Mundial, se espera que la IA reemplace 85 millones de empleos en todo el mundo para 2025. Incluso si la IA no reemplaza a los escritores, muchos ya la están utilizando como herramienta. Aquellos en trabajos en riesgo de ser reemplazados por IA pueden necesitar adaptarse para sobrevivir; por ejemplo, los escritores pueden convertirse en ingenieros rápidos de IA, lo que les permite trabajar con herramientas como ChatGPT para la creación de contenido en lugar de ser reemplazados por estos modelos.
Riesgos potenciales futuros de IA
Todos estos son riesgos inmediatos o inminentes, pero ¿qué pasa con algunos de los peligros menos probables pero aún posibles de la IA que podríamos ver en el futuro? Estos incluyen cosas como que la IA esté programada para dañar a los humanos, por ejemplo, armas autónomas entrenadas para matar durante una guerra.
Luego, existe el riesgo de que la IA pueda concentrarse exclusivamente en su objetivo programado, desarrollando comportamientos destructivos mientras intenta lograr ese objetivo a toda costa, incluso cuando los humanos intentan evitar que esto suceda.
Skynet nos enseñó lo que sucede cuando una IA se vuelve sensible. Sin embargo, aunque el ingeniero de Google, Blake Lemoine, pudo haber tratado de convencer a todos de que LaMDA, el generador de chatbot con inteligencia artificial de Google, era inteligente en junio de 2022, afortunadamente no hay evidencia hasta la fecha que sugiera que eso es cierto.
Los desafíos de la regulación de la IA
El lunes 15 de mayo de 202, el director ejecutivo de OpenAI, Sam Altman, asistió a la primera audiencia del Congreso sobre inteligencia artificial y advirtió: "Si esta tecnología sale mal, puede salir bastante mal". OpenAI CO dejó en claro que está a favor de la regulación y aportó muchas de sus propias ideas a la audiencia. El problema es que la IA está evolucionando a tal velocidad que es difícil saber por dónde empezar con la regulación.
El Congreso quiere evitar cometer los mismos errores cometidos al comienzo de la era de las redes sociales, y un equipo de expertos junto con el líder de la mayoría en el Senado, Chuck Schumer, ya están trabajando en regulaciones que exigirían que las empresas revelen qué fuentes de datos usaron para entrenar modelos y quién. los entrenó. Sin embargo, puede pasar algún tiempo antes de que se aclare exactamente cómo se regulará la IA, y sin duda habrá una reacción violenta de las empresas de IA.
La amenaza de una inteligencia general artificial
También existe el riesgo de la creación de una inteligencia general artificial (AGI) que podría realizar cualquier tarea que un ser humano (o animal) pueda realizar. Mencionado a menudo en películas de ciencia ficción, probablemente todavía estemos a décadas de tal creación, pero si creamos un AGI y cuando lo hagamos, podría representar una amenaza para la humanidad.
Muchas figuras públicas ya respaldan la creencia de que la IA representa una amenaza existencial para los humanos, incluidos Stephen Hawking, Bill Gates e incluso el ex director ejecutivo de Google, Eric Schmidt, quien afirmó: “La inteligencia artificial podría presentar riesgos existenciales y los gobiernos deben saber cómo asegurarse la tecnología no es mal utilizada por personas malvadas”.
Entonces, ¿es peligrosa la inteligencia artificial y sus riesgos superan sus beneficios? El jurado aún está deliberando sobre eso, pero ya estamos viendo evidencia de algunos de los riesgos que nos rodean en este momento. Es menos probable que otros peligros se materialicen en el corto plazo, si es que lo hacen. Sin embargo, una cosa está clara: los peligros de la IA no deben subestimarse. Es de suma importancia que nos aseguremos de que la IA esté debidamente regulada desde el principio, para minimizar y, con suerte, mitigar cualquier riesgo futuro.