Desafíos de la IA en 2024: opiniones de tres investigadores líderes en IA

Publicado: 2024-01-13

2023 fue un punto de inflexión en la evolución de la inteligencia artificial y su papel en la sociedad.

Ese año vio el surgimiento de la IA generativa, que llevó la tecnología de las sombras al centro del escenario en la imaginación del público. También vio el drama en la sala de juntas de una startup de inteligencia artificial dominar el ciclo de noticias durante varios días.

Y vio a la administración Biden emitir una orden ejecutiva y a la Unión Europea aprobar una ley destinada a regular la IA, medidas que quizás se describan mejor como un intento de frenar un caballo que ya está galopando.

Hemos reunido un panel de académicos de IA para mirar hacia el año 2024 y describir los problemas que probablemente enfrentarán los desarrolladores de IA, los reguladores y la gente común, y para expresar sus esperanzas y recomendaciones.


Casey Fiesler, profesor asociado de ciencias de la información, Universidad de Colorado Boulder

2023 fue el año del revuelo por la IA. Independientemente de si la narrativa era que la IA iba a salvar el mundo o destruirlo, a menudo parecía como si las visiones de lo que la IA podría ser algún día abrumaran la realidad actual.

Y aunque creo que anticipar daños futuros es un componente crítico para superar la deuda ética en tecnología, dejarse llevar demasiado por la exageración corre el riesgo de crear una visión de la IA que parece más mágica que una tecnología que aún puede moldearse mediante elecciones explícitas.

Pero tomar el control requiere una mejor comprensión de esa tecnología.

Uno de los principales debates sobre IA de 2023 giró en torno al papel de ChatGPT y chatbots similares en la educación.

El año pasado por estas fechas, los titulares más relevantes se centraron en cómo los estudiantes podrían usarlo para hacer trampa y cómo los educadores luchaban para evitar que lo hicieran, de maneras que a menudo hacen más daño que bien.

Sin embargo, a medida que avanzaba el año, se reconoció que no enseñar a los estudiantes sobre la IA podría ponerlos en desventaja, y muchas escuelas revocaron sus prohibiciones.

No creo que debamos renovar la educación para poner la IA en el centro de todo, pero si los estudiantes no aprenden cómo funciona la IA, no entenderán sus limitaciones y, por lo tanto, no entenderán cómo es útil y apropiado usarla y como no lo es.

Esto no es sólo cierto para los estudiantes. Cuanto más entiendan las personas cómo funciona la IA, más empoderadas estarán para utilizarla y criticarla.

Entonces, mi predicción, o quizás mi esperanza, para 2024 es que habrá un gran impulso para aprender.

En 1966, Joseph Weizenbaum, el creador del chatbot ELIZA, escribió que las máquinas son “a menudo suficientes para deslumbrar incluso al observador más experimentado”, pero que una vez que su “funcionamiento interno se explica en un lenguaje lo suficientemente claro como para inducir la comprensión, su magia se desmorona”. .”

El desafío con la inteligencia artificial generativa es que, en contraste con la metodología muy básica de coincidencia y sustitución de patrones de ELIZA, es mucho más difícil encontrar un lenguaje "suficientemente sencillo" para hacer que la magia de la IA se desmorone.

Creo que es posible que esto suceda. Espero que las universidades que se apresuran a contratar más expertos técnicos en IA pongan el mismo esfuerzo en contratar especialistas en ética en IA. Espero que los medios de comunicación ayuden a superar el revuelo. Espero que todos reflexionen sobre sus propios usos de esta tecnología y sus consecuencias.

Y espero que las empresas de tecnología escuchen las críticas informadas al considerar qué opciones seguirán dando forma al futuro. Muchos de los desafíos del próximo año tienen que ver con los problemas de la IA que la sociedad ya enfrenta.


Kentaro Toyama, profesor de información comunitaria, Universidad de Michigan

En 1970, Marvin Minsky, el pionero de la IA y escéptico de las redes neuronales, dijo a la revista Life: “Dentro de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio”.

Con la singularidad, en el momento en que la inteligencia artificial iguala y comienza a superar la inteligencia humana (aún no ha llegado), es seguro decir que Minsky estaba equivocado por al menos un factor de 10. Es peligroso hacer predicciones sobre la IA.

Aun así, hacer predicciones a un año no parece tan arriesgado. ¿Qué se puede esperar de la IA en 2024?

Primero, ¡la carrera ha comenzado! El progreso en IA había sido constante desde los días del apogeo de Minsky, pero el lanzamiento público de ChatGPT en 2022 inició una competencia total por ganancias, gloria y supremacía global.

Espere una IA más potente, además de una avalancha de nuevas aplicaciones de IA.

La gran pregunta técnica es qué tan pronto y con qué profundidad los ingenieros de IA pueden abordar el actual talón de Aquiles del aprendizaje profundo: lo que podría llamarse razonamiento duro generalizado, cosas como la lógica deductiva.

¿Serán suficientes ajustes rápidos a los algoritmos de redes neuronales existentes, o requerirán un enfoque fundamentalmente diferente, como sugiere el neurocientífico Gary Marcus?

Ejércitos de científicos de IA están trabajando en este problema, por lo que espero algunos avances en 2024.

Mientras tanto, es probable que las nuevas aplicaciones de IA también generen nuevos problemas. Es posible que pronto empieces a oír hablar de chatbots de IA y asistentes que hablan entre sí y mantienen conversaciones enteras en tu nombre pero a tus espaldas.

Algunas cosas se volverán locas: cómicamente, trágicamente o ambas cosas.

Es probable que los deepfakes, imágenes y vídeos generados por IA que son difíciles de detectar, se vuelvan rampantes a pesar de la incipiente regulación, causando más daños sórdidos a las personas y a las democracias en todas partes. Y es probable que haya nuevas clases de calamidades de la IA que no habrían sido posibles ni siquiera hace cinco años.

Hablando de problemas, las mismas personas que hacen sonar las alarmas más fuertes sobre la IA, como Elon Musk y Sam Altman, no parecen poder evitar construir una IA cada vez más poderosa.

Espero que sigan haciendo más de lo mismo. Son como pirómanos que provocan el incendio que ellos mismos han provocado, rogando a las autoridades que los detengan.

Y en ese sentido, lo que más espero para 2024 –aunque parece que llegará lentamente– es una regulación más estricta de la IA, a nivel nacional e internacional.


Anjana Susarla, profesora de sistemas de información, Universidad Estatal de Michigan

En el año transcurrido desde la presentación de ChatGPT, el desarrollo de modelos de IA generativa continúa a un ritmo vertiginoso.

A diferencia de ChatGPT hace un año, que tomaba indicaciones textuales como entradas y producía salidas textuales, la nueva clase de modelos generativos de IA está entrenada para ser multimodal, lo que significa que los datos utilizados para entrenarlos provienen no solo de fuentes textuales como Wikipedia y Reddit, pero también vídeos de YouTube, canciones de Spotify y otra información visual y de audio.

Con la nueva generación de modelos de lenguaje grande (LLM) multimodales que impulsan estas aplicaciones, puede usar entradas de texto para generar no solo imágenes y texto, sino también audio y video.

Las empresas están compitiendo para desarrollar LLM que puedan implementarse en una variedad de hardware y en una variedad de aplicaciones, incluida la ejecución de un LLM en su teléfono inteligente.

La aparición de estos LLM ligeros y de código abierto podría marcar el comienzo de un mundo de agentes autónomos de IA, un mundo para el que la sociedad no está necesariamente preparada.

Estas capacidades avanzadas de IA ofrecen un inmenso poder transformador en aplicaciones que van desde los negocios hasta la medicina de precisión.

Mi principal preocupación es que capacidades tan avanzadas planteen nuevos desafíos para distinguir entre contenido generado por humanos y contenido generado por IA, además de plantear nuevos tipos de daños algorítmicos.

La avalancha de contenido sintético producido por la IA generativa podría desencadenar un mundo en el que personas e instituciones malintencionadas puedan fabricar identidades sintéticas y orquestar información errónea a gran escala.

Una avalancha de contenido generado por IA preparado para explotar filtros algorítmicos y motores de recomendación pronto podría dominar funciones críticas como la verificación de información, la alfabetización informacional y la casualidad proporcionada por los motores de búsqueda, las plataformas de redes sociales y los servicios digitales.

La Comisión Federal de Comercio ha advertido sobre fraudes, engaños, infracciones de la privacidad y otras prácticas desleales posibles gracias a la facilidad de creación de contenidos asistida por IA.

Si bien las plataformas digitales como YouTube han instituido pautas políticas para la divulgación de contenido generado por IA, es necesario un mayor escrutinio de los daños algorítmicos por parte de agencias como la FTC y legisladores que trabajan en protecciones de la privacidad, como la Ley Estadounidense de Protección y Privacidad de Datos.

Un nuevo proyecto de ley bipartidista presentado en el Congreso tiene como objetivo codificar la alfabetización algorítmica como una parte clave de la alfabetización digital.

Con la IA cada vez más entrelazada con todo lo que hace la gente, está claro que ha llegado el momento de centrarse no en los algoritmos como piezas de tecnología, sino de considerar los contextos en los que operan los algoritmos: personas, procesos y sociedad.

Nota del editor: este artículo fue escrito por Anjana Susarla, profesora de sistemas de información, Universidad Estatal de Michigan, Casey Fiesler, profesor asociado de ciencias de la información, Universidad de Colorado Boulder, Kentaro Toyama, profesor de información comunitaria, Universidad de Michigan y republicado en The Conversation bajo una licencia Creative Commons. Lea el artículo original.

Síguenos en Flipboard, Google News o Apple News