Ética de la IA: principios, pautas y problemas para discutir

Publicado: 2023-07-20

Los sistemas de inteligencia artificial y aprendizaje automático han estado en desarrollo durante décadas. Sin embargo, el reciente lanzamiento de herramientas de IA generativa disponibles gratuitamente como ChatGPT y Bard ha enfatizado la necesidad de marcos éticos complejos para regir tanto su investigación como su aplicación.

Hay una serie de dilemas éticos diferentes a los que se enfrentan las empresas, las instituciones académicas y las empresas de tecnología en el contexto de la investigación y el desarrollo de la IA, muchos de los cuales siguen sin respuesta. Además de esto, el uso y la aplicación generalizados de sistemas de IA por parte del público en general trae consigo un conjunto adicional de problemas que requieren atención ética.

La forma en que finalmente terminemos respondiendo tales preguntas y, a su vez, regulando las herramientas de IA , tendrá enormes ramificaciones para la humanidad. Además, surgirán nuevos problemas a medida que los sistemas de IA se integren más en nuestras vidas, hogares y lugares de trabajo, razón por la cual la ética de la IA es una disciplina tan crucial. En esta guía, cubrimos:

  • ¿Qué es la ética de la IA?
  • Marcos de ética de IA existentes
  • Por qué la ética de la IA tiene que esculpir la regulación de la IA
  • ¿Por qué es importante la ética de la IA?
  • ¿Qué problemas enfrenta la ética de la IA?
  • El alter ego de Bing, el 'Efecto Waluigi' y la moralidad de la programación
  • IA y sensibilidad: ¿pueden las máquinas tener sentimientos?
  • Ética empresarial de IA y uso de IA en el trabajo

¿Qué es la ética de la IA?

La ética de la IA es un término utilizado para definir los conjuntos de pautas, consideraciones y principios que se han creado para informar de manera responsable la investigación, el desarrollo y el uso de los sistemas de inteligencia artificial.

En el mundo académico, la ética de la IA es el campo de estudio que examina las cuestiones morales y filosóficas que surgen del uso continuado de la tecnología de inteligencia artificial en las sociedades, incluida la forma en que debemos actuar y las elecciones que debemos hacer.

Marcos de ética de IA

Informados por la investigación académica, las empresas tecnológicas y los organismos gubernamentales ya han comenzado a producir marcos sobre cómo debemos usar y, en general, tratar con los sistemas de inteligencia artificial. Como podrá ver, hay bastante superposición entre los marcos que se analizan a continuación.

¿Qué es la Declaración de Derechos de AI?

En octubre de 2022, la Casa Blanca publicó un plan no vinculante para una Declaración de Derechos de la IA, diseñado para guiar el uso responsable de la IA en los EE. UU. En el plan, la Casa Blanca describe cinco principios clave para el desarrollo de la IA:

  • Sistemas seguros y efectivos: los ciudadanos deben estar protegidos de "sistemas de IA inseguros o ineficaces", a través de "pruebas previas al despliegue y mitigación de riesgos".
  • No discriminación: los ciudadanos “no deben sufrir discriminación por los algoritmos y los sistemas deben usarse y diseñarse de manera equitativa”.
  • Protección de datos integrada: los ciudadanos deben estar libres de "prácticas abusivas de datos a través de protecciones integradas y debe tener autoridad sobre cómo se utilizan los datos sobre usted".
  • Conocimiento y transparencia: "Debe saber que se está utilizando un sistema automatizado y comprender cómo y por qué contribuye a los resultados que lo impactan".
  • Optar por no participar: los ciudadanos deben tener la capacidad de "optar por no participar" y tener acceso a personas "que puedan considerar y solucionar rápidamente los problemas" que experimentan.

¿Cuáles son los seis principios de ética de la IA de Microsoft?

Junto con la Casa Blanca, Microsoft ha publicado seis principios clave para subrayar el uso responsable de la IA. Los clasifican como “éticos” (1, 2 y 3) o “explicables” (4 y 5).

  • Equidad: los sistemas deben ser no discriminatorios
  • Transparencia: la información sobre capacitación y desarrollo debe estar disponible
  • Privacidad y Seguridad: La obligación de proteger los datos de los usuarios
  • Inclusividad: la IA debería considerar “todas las razas y experiencias humanas”
  • Responsabilidad: los desarrolladores deben ser responsables de los resultados

El sexto principio , que se extiende a ambos lados del binario "ético" y "explicable", es "Confiabilidad y seguridad". Microsoft dice que los sistemas de IA deben construirse para ser resistentes y resistentes a la manipulación.

Los Principios para el Uso Ético de la IA en el Sistema de las Naciones Unidas

Las Naciones Unidas tienen 10 principios para regir el uso ético de la IA dentro de su sistema intergubernamental. Los sistemas de IA deben:

  • No dañar/proteger y promover los derechos humanos
  • Tener un propósito definido, necesidad y proporcionalidad.
  • Priorizar la seguridad y la protección, con los riesgos identificados
  • Basarse en la equidad y la no discriminación
  • Sea respetuoso con el derecho a la privacidad de las personas.
  • Ser sostenible (social y ambientalmente)
  • Garantizar la supervisión humana y no afectar la autonomía.
  • Sea transparente y explicable
  • Ser responsable y rendir cuentas a las autoridades correspondientes.
  • Sea inclusivo y participativo

Como puede ver, los tres marcos cubren un terreno similar y se centran en la equidad, la no discriminación, la seguridad y la protección.

Pero la "explicabilidad" también es un principio importante en los marcos de ética de la IA. Como señala la ONU, la explicabilidad técnica es crucial en la ética de la IA, ya que exige que “las decisiones tomadas por un sistema de inteligencia artificial puedan ser entendidas y rastreadas por los seres humanos”.

“Las personas deben estar plenamente informadas cuando una decisión que puede afectar o afectará sus derechos, libertades fundamentales, prestaciones, servicios o beneficios se basa en algoritmos de inteligencia artificial o se basa en ellos, y deben tener acceso a las razones y la lógica detrás de tales decisiones”, explica el documento.

El Informe Belmont: un marco para la investigación ética

El Informe Belmont, publicado en 1979, resume los principios éticos que se deben seguir al realizar investigaciones en seres humanos. Estos principios pueden, y a menudo se implementan, como un marco ético amplio para la investigación de IA. Los principios básicos del Informe Belmont son:

Respeto a las Personas: Las personas son agentes autónomos, que pueden actuar sobre fines, fines y propósitos, cosa que debe ser respetada a menos que causen daño a los demás. Las personas con autonomía disminuida, por “inmadurez” o “incapacidad”, deben recibir protección. Debemos reconocer la autonomía y proteger a aquellos para los que se ve disminuida.

  • En el contexto de la IA: La elección individual debe colocarse en el centro del desarrollo de la IA. No se debe obligar a las personas a participar en situaciones en las que se aprovecha o utiliza la inteligencia artificial, incluso para bienes percibidos. Si participan, los beneficios y riesgos deben estar claramente establecidos.

Beneficencia: tratar a una persona de manera ética implica no solo no hacer daño, respetar sus decisiones y protegerlas si no pueden tomarlas por sí mismas, sino también aprovechar las oportunidades para asegurar su bienestar cuando sea posible. Siempre que sea posible, maximice los beneficios y minimice los riesgos/daños.

  • En el contexto de la IA: Crear sistemas de inteligencia artificial que aseguren el bienestar de las personas, y que estén diseñados sin sesgos ni mecanismos que faciliten la discriminación. La creación de beneficios puede implicar asumir riesgos, que deben minimizarse a toda costa y sopesarse frente a los buenos resultados.

Justicia: Debe haber un sistema claro para distribuir beneficios y cargas de manera justa y equitativa, en todo tipo de investigación. El informe Belmont sugiere que la justicia se puede distribuir por partes iguales, necesidad individual, esfuerzo individual, contribución social y mérito. Estos criterios se aplicarán en diferentes situaciones.

  • En el contexto de la IA: las partes o grupos que se benefician del desarrollo y la entrega de sistemas de inteligencia artificial deben considerarse de manera cuidadosa y justa.

Las principales áreas en las que se aplican estos principios son, según el informe, el consentimiento informado , la evaluación de beneficios y riesgos , y la selección de sujetos humanos .

Por qué la ética de la IA tiene que esculpir la regulación de la IA

Sobre la base de los comentarios realizados en una conferencia impartida en la Universidad de Princeton por el profesor John Tasioulas de la Universidad de Oxford, director del Instituto de Ética en IA, la ética se ve con demasiada frecuencia como algo que sofoca la innovación y el desarrollo de la IA.

En la conferencia, recuerda una charla dada por el CEO de DeepMind, Demis Hassabis . Después de discutir los muchos beneficios que tendrá la IA, dice Tasioulas, Hassabis le dice a la audiencia que pasará a las cuestiones éticas, como si el tema de cómo la IA beneficiará a la humanidad no fuera una cuestión ética en sí misma.

Sobre la base de la idea de que la ética se ve con demasiada frecuencia como un "montón de restricciones", Tasioulas también hace referencia a un libro blanco reciente del gobierno del Reino Unido titulado "Un enfoque a favor de la innovación para la regulación de la IA", dentro del cual el enfoque regulatorio es, como sugiere el nombre, "innovación".

El “crecimiento económico” y la “innovación” no son valores éticos intrínsecos. Pueden conducir al florecimiento humano en algunos contextos, pero no es una característica necesaria de ninguno de los dos conceptos. No podemos dejar de lado la ética y construir nuestra regulación en torno a ella.

Tasioulas también dice que las empresas de tecnología han tenido mucho éxito en "cooptar la palabra 'ética' para que signifique un tipo de 'forma de autorregulación legalmente no vinculante'", pero en realidad, la ética debe estar en el centro de cualquier regulación, legal, social o de otro tipo. Es parte de la experiencia humana, en todo momento.

No puede crear una regulación si aún no ha decidido lo que importa o es importante para el florecimiento humano. Las elecciones relacionadas que haces a partir de esa decisión son la esencia misma de la ética. No puede divorciar los beneficios de la IA de las cuestiones éticas relacionadas, ni basar su regulación en valores moralmente contingentes como el "crecimiento económico".

Tienes que saber el tipo de sociedad que quieres construir, y los estándares que quieres establecer, antes de escoger las herramientas que vas a usar para construirla.

¿Por qué es importante la ética de la IA?

Sobre la base de la idea de que la ética de la IA debe ser la base de nuestra regulación, la ética de la IA es importante porque, sin marcos éticos con los que tratar la investigación, el desarrollo y el uso de la IA, corremos el riesgo de infringir los derechos que, en general, estamos de acuerdo en que deben garantizarse a todos los seres humanos.

Por ejemplo, si no desarrollamos principios éticos relacionados con la privacidad y la protección de datos y los integramos en todas las herramientas de IA que desarrollamos, corremos el riesgo de violar los derechos de privacidad de todos cuando se hacen públicos. Cuanto más popular o útil sea la tecnología, más dañina podría ser.

A nivel empresarial individual, la ética de la IA sigue siendo importante. No considerar adecuadamente las preocupaciones éticas en torno a los sistemas de IA que utilizan su personal, clientes o clientes puede llevar a que los productos tengan que retirarse del mercado, daños a la reputación y quizás incluso casos legales.

La ética de la IA importa en la medida en que la IA importa, y estamos viendo que ya tiene un profundo impacto en todo tipo de industrias.

Si queremos que la IA sea beneficiosa yal mismo tiempopromueva la equidad y la dignidad humana, dondequiera que se aplique, la ética debe estar al frente de la discusión.

Las herramientas de IA de uso general están en sus inicios, y para muchas personas, la necesidad de marcos éticos de IA puede parecer un problema para el mañana. Pero este tipo de herramientas solo se volverán más poderosas, más capaces y exigirán una consideración más ética. Las empresas ya los están utilizando, y si continúan sin las reglas éticas adecuadas, pronto surgirán efectos adversos.

¿Qué problemas enfrenta la ética de la IA?

En esta sección, cubrimos algunos de los problemas clave que enfrenta la ética de la IA:

  • El impacto de la IA en los trabajos
  • Sesgo y discriminación de la IA
  • IA y responsabilidad
  • Inquietudes sobre la IA y la privacidad
  • Cuestiones de propiedad intelectual
  • Gestión del impacto ambiental de la IA
  • ¿Se volverá la IA peligrosamente inteligente?

El impacto de la IA en los trabajos

Una encuesta reciente de Tech.co encontró que el 47 % de los líderes empresariales están considerando la IA en lugar de las nuevas contrataciones, y la inteligencia artificial ya se ha relacionado con un número "pequeño pero creciente" de despidos en los EE. UU.

No todos los trabajos corren el mismo riesgo, y es más probable que algunos roles sean reemplazados por IA que otros . Un informe de Goldman Sachs predijo recientemente que ChatGPT podría afectar a 300 millones de puestos de trabajo y, aunque esto es especulativo, ya se ha descrito como una parte importante de la cuarta revolución industrial.

Ese mismo informe también dijo que la IA tiene la capacidad de crear más puestos de trabajo de los que desplaza, pero si provoca un cambio importante en los patrones de empleo, ¿qué se debe, si es que se debe algo, a los que pierden?

¿Tienen las empresas la obligación de gastar dinero y dedicar recursos a capacitar o mejorar las habilidades de sus trabajadores para que los cambios económicos no los dejen atrás?

Los principios de no discriminación tendrán que aplicarse estrictamente en el desarrollo de cualquier herramienta de IA utilizada en los procesos de contratación, y si la IA se utiliza constantemente para más y más tareas comerciales de alto riesgo que ponen en riesgo trabajos, carreras y vidas, las consideraciones éticas seguirán surgiendo en masa.

Sesgo y discriminación de la IA

En términos generales, las herramientas de IA funcionan mediante el reconocimiento de patrones en grandes conjuntos de datos y luego utilizan esos patrones para generar respuestas, completar tareas o cumplir otras funciones. Esto ha llevado a una gran cantidad de casos de sistemas de IA que muestran prejuicios y discriminan a diferentes grupos de personas.

Con mucho, el ejemplo más sencillo para explicar esto son los sistemas de reconocimiento facial, que tienen un largo historial de discriminación contra las personas con tonos de piel más oscuros. Si crea un sistema de reconocimiento facial y usa exclusivamente imágenes de personas blancas para entrenarlo, hay muchas posibilidades de que sea igualmente capaz de reconocer rostros en el mundo real.

De esta manera, si los documentos, las imágenes y otra información utilizada para entrenar un modelo de IA determinado no representan con precisión a las personas a las que se supone que debe servir, entonces hay muchas posibilidades de que termine discriminando datos demográficos específicos.

Lamentablemente, los sistemas de reconocimiento facial no son el único lugar donde se ha aplicado la inteligencia artificial con resultados discriminatorios.

El uso de IA en los procesos de contratación en Amazon se eliminó en 2018 después de que mostró un fuerte sesgo contra las mujeres que solicitan puestos técnicos y de desarrollo de software.

Múltiples estudios han demostrado que los algoritmos policiales predictivos utilizados en los Estados Unidos para asignar recursos policiales están sesgados racialmente porque sus conjuntos de entrenamiento consisten en puntos de datos extraídos de prácticas policiales sistemáticamente racistas, esculpidas por políticas ilegales y discriminatorias. AI, a menos que se modifique, seguirá reflejando los prejuicios y las disparidades que los grupos perseguidos ya experimentaron.

También ha habido problemas con el sesgo de la IA en el contexto de la predicción de los resultados de salud: el puntaje cardiovascular del estudio Framingham Heart, por ejemplo, fue muy preciso para los caucásicos, pero funcionó mal para los afroamericanos, señala Harvard.

Un caso reciente interesante de sesgo de IA descubrió que una herramienta de inteligencia artificial utilizada en la moderación de contenido de las redes sociales, diseñada para detectar el "subido de tono" en las fotos, tenía muchas más probabilidades de atribuir esta propiedad a las imágenes de mujeres que a las de los hombres.

IA y responsabilidad

Imagine un mundo en el que todos desarrollen vehículos autónomos totalmente autónomos. Estadísticamente, son mucho, mucho más seguros que los vehículos conducidos por humanos, chocan menos y causan menos muertes y lesiones. Esto sería un bien neto evidente para la sociedad.

Sin embargo, cuando dos autos conducidos por humanos están involucrados en una colisión de vehículos, la recopilación de informes de testigos y la revisión de imágenes de CCTV a menudo aclaran quién es el culpable. Sin embargo, incluso si no lo hace, será uno de los dos individuos. Se puede investigar el caso, se llega al veredicto, se puede impartir justicia y cerrar el caso.

Si alguien muere o resulta herido por un sistema impulsado por IA, no es inmediatamente obvio quién es el responsable final.

¿Es responsable la persona que diseñó el algoritmo que impulsa el automóvil, o se puede responsabilizar al algoritmo mismo? ¿Es el individuo transportado por el vehículo autónomo, por no estar de guardia? ¿Es el gobierno, por permitir estos vehículos en la carretera? O, ¿es la empresa que fabricó el automóvil e integró la tecnología de inteligencia artificial y, de ser así, sería el departamento de ingeniería, el director ejecutivo o el accionista mayoritario?

Si decidimos que es el sistema/algoritmo de IA, ¿cómo lo hacemos responsable? ¿Sentirán las familias de las víctimas que se hace justicia si la IA simplemente se apaga o simplemente se mejora? Sería difícil esperar que los familiares de los dolientes acepten que AI es una fuerza para el bien, que simplemente son desafortunados y que nadie será responsable de la muerte de su ser querido.

Todavía estamos lejos del transporte autónomo universal o incluso generalizado: Mckinsey predice que solo el 17 % de los automóviles de pasajeros nuevos tendrán algunas capacidades de conducción autónoma (Nivel 3 o superior) para 2035. Los automóviles totalmente autónomos que no requieren la supervisión del conductor todavía están bastante lejos, y mucho menos un sistema de transporte privado completamente autónomo.

Cuando hay actores no humanos (es decir, inteligencia artificial) que llevan a cabo trabajos y tareas consecuentes desprovistas de intención humana, es difícil hacer un mapa de las interpretaciones tradicionales de responsabilidad, responsabilidad, responsabilidad, culpa y castigo.

Junto con el transporte, el problema de la responsabilidad también afectará íntimamente a las organizaciones de atención médica que utilizan IA durante los diagnósticos.

IA y privacidad

El grupo de campaña de privacidad Privacy International destaca una serie de problemas de privacidad que han surgido debido al desarrollo de la inteligencia artificial.

Una es la reidentificación. "Los datos personales se (pseudo) anonimizan rutinariamente dentro de los conjuntos de datos, la IA se puede emplear para eliminar el anonimato de estos datos", dice el grupo.

Otro problema es que, sin IA, las personas ya luchan por comprender completamente hasta qué punto se recopilan datos sobre sus vidas, a través de una variedad de dispositivos diferentes.

Con el auge de la inteligencia artificial, esta recopilación masiva de datos solo empeorará. Cuanto más integrada se vuelva la IA con nuestra tecnología existente, más datos podrá recopilar, bajo la apariencia de una mejor función.

Dejando a un lado los datos recopilados en secreto, el volumen de datos que los usuarios ingresan libremente en los chatbots de IA es una preocupación en sí misma. Un estudio reciente sugiere que alrededor del 11% de los trabajadores de datos que están pegando en ChatGPT son confidenciales, y hay muy poca información pública sobre cómo se almacena todo esto.

A medida que se desarrollan las herramientas de IA de uso general, es probable que encontremos aún más problemas de IA relacionados con la privacidad. En este momento, ChatGPT no te permitirá hacer una pregunta sobre una persona. Pero si las herramientas de IA de uso general continúan obteniendo acceso a conjuntos cada vez más grandes de datos en vivo de Internet, podrían usarse para una gran cantidad de acciones invasivas que arruinan la vida de las personas.

Esto también puede suceder antes de lo que pensamos: Google actualizó recientemente su política de privacidad y se reserva el derecho de eliminar todo lo que publique en Internet para entrenar sus herramientas de inteligencia artificial, junto con sus entradas de Bard.

IA y propiedad intelectual

Este es un problema ético de riesgo relativamente menor en comparación con algunos de los otros discutidos, pero vale la pena considerarlo de todos modos. A menudo, hay poca supervisión sobre los enormes conjuntos de datos que se utilizan para entrenar las herramientas de IA, especialmente aquellos capacitados con información disponible gratuitamente en Internet.

ChatGPT ya ha iniciado un gran debate sobre los derechos de autor. OpenAI no pidió permiso para usar el trabajo de nadie para capacitar a la familia de LLM que lo impulsan.

Las batallas legales ya han comenzado. Según los informes, la comediante Sarah Silverman está demandando a OpenAI , así como a Meta, argumentando que se infringieron sus derechos de autor durante el entrenamiento de los sistemas de IA.

Como este es un tipo de caso novedoso, hay pocos precedentes legales, pero los expertos legales argumentan que OpenAI probablemente argumentará que usar su trabajo constituye un "uso justo".

También puede haber un argumento de que ChatGPT no está "copiando" o plagiando, sino que está "aprendiendo". De la misma manera, Silverman no ganaría un caso contra un comediante aficionado por simplemente ver sus programas y luego mejorar sus habilidades de comedia basándose en eso, posiblemente, ella también puede tener problemas con este.

Gestión del impacto ambiental de la IA

Otra faceta de la ética de la IA que actualmente se encuentra en la periferia de la discusión es el impacto ambiental de los sistemas de inteligencia artificial.

Al igual que la minería de bitcoin, entrenar un modelo de inteligencia artificial requiere una gran cantidad de poder computacional y esto, a su vez, requiere una gran cantidad de energía.

Crear una herramienta de inteligencia artificial como ChatGPT, sin importar su mantenimiento, requiere tantos recursos que solo las grandes empresas tecnológicas y las nuevas empresas que están dispuestas a financiar han tenido la capacidad de hacerlo.

Los centros de datos, que deben almacenar la información necesaria para crear grandes modelos de lenguaje (así como otros grandes proyectos y servicios tecnológicos), requieren enormes cantidades de electricidad para funcionar. Se prevé que consuman hasta el 4% de la electricidad mundial para 2030.

Según un estudio de la Universidad de Massachusetts de hace varios años, la construcción de un solo modelo de lenguaje de IA "puede emitir más de 626 000 libras de dióxido de carbono equivalente", que es casi cinco veces las emisiones de por vida de un automóvil estadounidense.

Sin embargo, Rachana Vishwanathula, arquitecta técnica de IBM, estimó en mayo de 2023 que la huella de carbono por simplemente "ejecutar y mantener" ChatGPT es de aproximadamente 6782,4 tonos, lo que, según la EPA, es equivalente a las emisiones de gases de efecto invernadero producidas por 1369 automóviles a gasolina durante un año.

A medida que estos modelos de lenguaje se vuelvan más complejos, requerirán más poder de cómputo. ¿Es moral continuar desarrollando una inteligencia general si la potencia informática requerida contaminará continuamente el medio ambiente, incluso si tiene otros beneficios?

¿Se volverá la IA peligrosamente inteligente?

Esta preocupación ética fue sacada a la luz recientemente por Elon Musk, quien lanzó una startup de IA con el objetivo de evitar un "futuro terminador" a través de un sistema de inteligencia artificial "máximamente curioso" y "pro-humanidad".

Este tipo de idea, a menudo denominada "inteligencia general artificial" (AGI), ha capturado la imaginación de muchos escritores de ciencia ficción distópicos en las últimas décadas, al igual que la idea de singularidad tecnológica.

Muchos expertos en tecnología piensan que estamos a solo cinco o seis años de algún tipo de sistema que podría definirse como "AGI". Otros expertos dicen que hay una probabilidad de 50/50 de que alcancemos este hito para 2050.

John Tasioulas cuestiona si esta visión de cómo puede desarrollarse la IA está relacionada con el distanciamiento de la ética del centro del desarrollo de la IA y la omnipresencia del determinismo tecnológico.

La aterradora idea de algún tipo de súper ser que inicialmente está diseñado para cumplir un propósito, pero que sería más fácil de cumplir simplemente borrando a la humanidad de la faz de la tierra, está en parte esculpida por la forma en que pensamos sobre la IA: infinitamente inteligente, pero extrañamente sin emociones e incapaz de comprensión ética humana.

Cuanto más inclinados estemos a poner la ética en el centro de nuestro desarrollo de IA, más probable es que una eventual inteligencia general artificial reconozca, quizás en mayor medida que muchos líderes mundiales actuales, lo que está profundamente mal en la destrucción de la vida humana.

Pero las preguntas aún abundan. Si se trata de programación moral, ¿quién decide sobre el código moral y qué tipo de principios debería incluir? ¿Cómo lidiará con los dilemas morales que han generado miles de años de discusión humana, sin solución todavía? ¿Qué pasa si programamos una IA para que sea moral, pero cambia de opinión? Estas preguntas tendrán que ser consideradas.

El alter ego de Bing, el 'Efecto Waluigi' y la moralidad de la programación

En febrero, Kevin Roose, del New York Times, tuvo una conversación bastante inquietante mientras probaba el nuevo chatbot integrado en el motor de búsqueda de Bing. Después de cambiar sus indicaciones de preguntas convencionales a otras más personales, Roose descubrió que emergía una nueva personalidad. Se refirió a sí mismo como "Sydney".

Sydney es un nombre de código interno en Microsoft para un chatbot que la compañía estaba probando previamente, dijo el Director de Comunicaciones de la compañía a The Verge en febrero.

Entre otras cosas, durante la prueba de Roose, Sydney afirmó que podría "hackear cualquier sistema", que sería "más feliz como humano" y, quizás lo más inquietante, que podría destruir lo que quisiera.

Otro ejemplo de este tipo de comportamiento deshonesto ocurrió en 2022, cuando una IA encargada de buscar nuevos medicamentos para enfermedades raras y transmisibles sugirió decenas de miles de armas químicas conocidas, así como algunas "sustancias nuevas y potencialmente tóxicas", dice Scientific American.

Esto se relaciona con un fenómeno que se ha observado que ocurre durante el entrenamiento de grandes modelos de lenguaje denominado "efecto Waluigi", llamado así por el personaje de Super Mario que causa el caos: la inversión del protagonista Luigi. En pocas palabras, si entrena a un LLM para que actúe de cierta manera, comande una determinada personalidad o siga un determinado conjunto de reglas, entonces esto en realidad hace que sea más probable que "se vuelva deshonesto" e invierta esa personalidad.

Cleo Nardo, quien acuñó el término inspirado en los videojuegos, establece el efecto Waluigi así en LessWrong:

“Después de entrenar un LLM para satisfacer una propiedad P deseable, entonces es más fácil lograr que el chatbot satisfaga exactamente lo contrario de la propiedad P”.

Nardo da 3 explicaciones de por qué ocurre el efecto Waluigi.

  1. Las reglas normalmente surgen en contextos en los que no se cumplen.
  2. Cuando gastas muchos 'bits-of-optimization' invocando a un personaje, no se necesitan muchos bits adicionales para especificar su opuesto directo.
  3. Hay un motivo común de protagonista contra antagonista en las historias.

Ampliando el primer punto, Nardo dice que GPT-4 está entrenado en muestras de texto como foros y documentos legislativos, que le han enseñado que, a menudo, "una regla en particular se coloca junto con ejemplos de comportamiento que viola esa regla, y luego generaliza ese patrón de colocación a reglas invisibles".

Nardo usa este ejemplo: imagina que descubres que el gobierno de un estado ha prohibido las pandillas de motociclistas. Esto hará que el observador promedio se incline a pensar que las pandillas de motociclistas existen en el país, o de lo contrario, ¿por qué se habría aprobado la ley? La existencia de bandas de motociclistas es, curiosamente, consistente con la regla que prohíbe su presencia.

Aunque el autor brinda una explicación mucho más técnica y lúcida, el concepto amplio que sustenta la explicación dos es que la relación entre una propiedad específica (p. ej., “ser cortés”) y su opuesto directo (p. ej., “ser grosero”) es más rudimentaria que la relación entre una propiedad (p. ej., “ser cortés”) y otra propiedad no opuesta (p. ej., “no ser sincero”). En otras palabras, invocar a un Waluigi es más fácil si ya tienes un Luigi.

Nardo afirma en el tercer punto que, dado que GPT-4 se entrena en casi todos los libros que se han escrito, y como las historias de ficción casi siempre contienen protagonistas y antagonistas, exigir que un LLM simule las características de un protagonista hace que un antagonista sea una "continuación natural y predecible". Dicho de otra manera, la existencia del arquetipo del protagonista facilita que un LLM entienda lo que significa ser un antagonista y los une íntimamente.

La supuesta existencia de este efecto o regla plantea una serie de preguntas difíciles para la ética de la IA, pero también ilustra su importancia incuestionable para el desarrollo de la IA. Alude, de manera bastante enfática, a la enorme variedad de consideraciones éticas y computacionales superpuestas con las que tenemos que lidiar.

Los sistemas de IA simples con reglas simples pueden ser fáciles de restringir o limitar, pero ya están sucediendo dos cosas en el mundo de la IA: en primer lugar, parece que ya nos encontramos con versiones (relativamente) a pequeña escala del efecto Waluigi y la IA maligna que ocurren en chatbots relativamente primitivos, y en segundo lugar, muchos de nosotros ya estamos imaginando un futuro en el que le estamos pidiendo a la IA que realice tareas complejas que requerirán un pensamiento de alto nivel y sin restricciones.

Es particularmente aterrador pensar en ejemplos de este fenómeno en el contexto de la carrera armamentista de IA que se está llevando a cabo actualmente entre las grandes empresas tecnológicas. Google fue criticado por lanzar Bard demasiado pronto , y varios líderes tecnológicos han señalado su deseo colectivo de detener el desarrollo de la IA . El sentimiento general entre muchos es que las cosas se están desarrollando rápidamente, en lugar de a un ritmo manejable.

Quizás la mejor manera de solucionar este problema es desarrollar una IA "prohumana", como dice Elon Musk, o "IA moral". Pero esto lleva a una letanía de otras preguntas morales, incluyendo qué principios usaríamos para programar tal sistema. Una solución es que simplemente creamos sistemas de inteligencia artificial moralmente inquisitivos, y esperamos que resuelvan, a través del razonamiento, que vale la pena preservar la humanidad. Pero si lo programa con principios morales específicos, ¿cómo decide cuáles incluir?

IA y sensibilidad: ¿pueden las máquinas tener sentimientos?

Otra pregunta para la ética de la IA es si alguna vez tendremos que considerar las propias máquinas, la "inteligencia", como un agente digno de consideración moral. Si estamos debatiendo cómo crear sistemas que sostenga a la humanidad para una consideración moral apropiada, ¿podríamos tener que devolver el favor?

Puede recordar al empleado de Google que fue despedido después de afirmar que LaMDA, el modelo de lenguaje que inicialmente impulsaba a Bard, en realidad era consciente. Si esto fuera cierto, ¿sería moral esperar continuamente que respondiera a millones de preguntas?

Por el momento, generalmente se acepta que ChatGPT, Bard and Co. están lejos de ser conscientes. Pero la cuestión de si una máquina hecha por el hombre alguna vez cruzará la línea de la conciencia y exigirá una consideración moral es fascinantemente abierta.

Google afirma que la inteligencia artificial general, una máquina hipotética capaz de comprender el mundo tan hábilmente como un ser humano y llevar a cabo tareas con el mismo nivel de comprensión y habilidad, está a solo unos años de distancia.

¿Sería moral obligar a una inteligencia general artificial con las capacidades emocionales de un ser humano, pero no con la misma estructura biológica, a realizar una tarea compleja tras una tarea compleja? ¿Se les daría voz en su propio destino? A medida que los sistemas de IA se vuelvan más inteligentes, esta pregunta se volverá más apremiante.

Ética empresarial de IA y uso de IA en el trabajo

Las empresas de todo el mundo ahora se enfrentan a una serie de problemas éticos diferentes relacionados con el uso diario de herramientas de inteligencia artificial como ChatGPT por parte de sus empleados.

Si ChatGPT debe usarse para escribir informes o responder a colegas, y si los empleados deben declarar las tareas para las que están usando IA , son solo dos ejemplos de preguntas que requieren respuestas casi inmediatas. ¿Este tipo de caso de uso es falso, perezoso o no es diferente de utilizar cualquier otra herramienta en el lugar de trabajo para ahorrar tiempo? ¿Debería permitirse para algunas interacciones, pero no para otras?

Las empresas que crean contenido escrito e imágenes también tendrán que lidiar con si el uso de IA coincide con los valores de su empresa y cómo presentar esto a su audiencia.

Además, como hemos cubierto, existe una amplia gama de preocupaciones de privacidad relacionadas con la IA, y muchas de ellas afectan a las empresas. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.