Desafios de IA em 2024: insights de três pesquisadores líderes em IA

Publicados: 2024-01-13

2023 foi um ponto de inflexão na evolução da inteligência artificial e do seu papel na sociedade.

O ano viu o surgimento da IA ​​generativa, que moveu a tecnologia das sombras para o centro das atenções na imaginação do público. Também viu o drama da diretoria em uma startup de IA dominar o ciclo de notícias por vários dias.

E viu a administração Biden emitir uma ordem executiva e a União Europeia aprovar uma lei destinada a regulamentar a IA, movimentos talvez melhor descritos como uma tentativa de refrear um cavalo que já galopa.

Reunimos um painel de estudiosos de IA para olhar para 2024 e descrever os problemas que os desenvolvedores de IA, reguladores e pessoas comuns provavelmente enfrentarão, e para dar suas esperanças e recomendações.


Casey Fiesler, Professor Associado de Ciência da Informação, Universidade do Colorado Boulder

2023 foi o ano do hype da IA. Independentemente de a narrativa ser de que a IA iria salvar o mundo ou destruí-lo, muitas vezes parecia que as visões do que a IA poderia ser um dia superavam a realidade atual.

E embora eu pense que antecipar danos futuros é uma componente crítica para superar a dívida ética na tecnologia, deixar-se levar pelo hype corre o risco de criar uma visão da IA ​​que parece mais mágica do que uma tecnologia que ainda pode ser moldada por escolhas explícitas.

Mas assumir o controle requer uma melhor compreensão dessa tecnologia.

Um dos principais debates sobre IA em 2023 girou em torno do papel do ChatGPT e de chatbots semelhantes na educação.

Por esta altura, no ano passado, as manchetes mais relevantes centraram-se na forma como os alunos poderiam usá-lo para colar e como os educadores se esforçavam para evitar que o fizessem – de formas que muitas vezes fazem mais mal do que bem.

No entanto, à medida que o ano avançava, reconheceu-se que o facto de não ensinar os alunos sobre IA poderia colocá-los em desvantagem, e muitas escolas revogaram as suas proibições.

Não creio que devamos renovar a educação para colocar a IA no centro de tudo, mas se os alunos não aprenderem como a IA funciona, não compreenderão as suas limitações – e, portanto, como é útil e apropriado utilizá-la e como não é.

Isso não é verdade apenas para os estudantes. Quanto mais as pessoas entendem como a IA funciona, mais capacitadas elas ficam para usá-la e criticá-la.

Portanto, a minha previsão, ou talvez a minha esperança, para 2024 é que haverá um enorme impulso para aprender.

Em 1966, Joseph Weizenbaum, o criador do chatbot ELIZA, escreveu que as máquinas são “muitas vezes suficientes para deslumbrar até o observador mais experiente”, mas que uma vez que o seu “funcionamento interno é explicado em linguagem suficientemente simples para induzir a compreensão, a sua magia desmorona”. .”

O desafio da inteligência artificial generativa é que, em contraste com a metodologia básica de correspondência e substituição de padrões da ELIZA, é muito mais difícil encontrar uma linguagem “suficientemente clara” para fazer com que a magia da IA ​​desmorone.

Acho que é possível fazer isso acontecer. Espero que as universidades que estão correndo para contratar mais especialistas técnicos em IA se esforcem igualmente para contratar especialistas em ética em IA. Espero que os meios de comunicação ajudem a acabar com o hype. Espero que todos reflitam sobre o uso que fazem desta tecnologia e suas consequências.

E espero que as empresas tecnológicas ouçam as críticas informadas ao considerarem que escolhas continuam a moldar o futuro. Muitos dos desafios do próximo ano têm a ver com problemas de IA que a sociedade já enfrenta.


Kentaro Toyama, professor de informação comunitária, Universidade de Michigan

Em 1970, Marvin Minsky, o pioneiro da IA ​​e cético em relação às redes neurais, disse à revista Life: “Em três a oito anos teremos uma máquina com a inteligência geral de um ser humano médio”.

Com a singularidade, no momento em que a inteligência artificial se equipara e começa a exceder a inteligência humana – ainda não chegou – é seguro dizer que Minsky estava errado por pelo menos um factor de 10. É perigoso fazer previsões sobre a IA.

Ainda assim, fazer previsões para o próximo ano não parece tão arriscado. O que se pode esperar da IA ​​em 2024?

Primeiro, a corrida começou! O progresso na IA tem sido constante desde os dias do auge de Minsky, mas o lançamento público do ChatGPT em 2022 deu início a uma competição total por lucro, glória e supremacia global.

Espere uma IA mais poderosa, além de uma enxurrada de novos aplicativos de IA.

A grande questão técnica é quando e com que profundidade os engenheiros de IA podem abordar o actual calcanhar de Aquiles da aprendizagem profunda – o que pode ser chamado de raciocínio difícil generalizado, coisas como a lógica dedutiva.

Serão suficientes ajustes rápidos nos algoritmos de redes neurais existentes ou exigirão uma abordagem fundamentalmente diferente, como sugere o neurocientista Gary Marcus?

Exércitos de cientistas de IA estão a trabalhar neste problema, por isso espero algum progresso em 2024.

Entretanto, é provável que novas aplicações de IA também resultem em novos problemas. Em breve você poderá começar a ouvir sobre chatbots e assistentes de IA conversando entre si, tendo conversas inteiras em seu nome, mas pelas suas costas.

Parte disso vai dar errado – comicamente, tragicamente ou ambos.

Deepfakes, imagens e vídeos gerados por IA que são difíceis de detectar, provavelmente se espalharão de forma desenfreada, apesar da regulamentação nascente, causando danos ainda mais desprezíveis aos indivíduos e às democracias 1. em todos os lugares. E é provável que surjam novos tipos de calamidades relacionadas com a IA que não teriam sido possíveis nem há cinco anos.

Falando em problemas, as mesmas pessoas que soam os alarmes mais altos sobre a IA – como Elon Musk e Sam Altman – parecem não conseguir impedir-se de construir uma IA cada vez mais poderosa.

Espero que eles continuem fazendo mais do mesmo. Eles são como incendiários provocando o incêndio que eles próprios atiçaram, implorando às autoridades que os contenham.

E, nesse sentido, o que mais espero para 2024 – embora pareça lento a chegar – é uma regulamentação mais forte da IA, a nível nacional e internacional.


Anjana Susarla, professora de sistemas de informação, Michigan State University

No ano desde o lançamento do ChatGPT, o desenvolvimento de modelos generativos de IA continua a um ritmo vertiginoso.

Em contraste com o ChatGPT do ano passado, que recebia instruções textuais como entradas e produzia resultados textuais, a nova classe de modelos generativos de IA são treinados para serem multimodais, o que significa que os dados usados ​​para treiná-los não vêm apenas de fontes textuais, como Wikipedia e Reddit, mas também de vídeos no YouTube, músicas no Spotify e outras informações audiovisuais.

Com a nova geração de modelos multimodais de linguagem grande (LLMs) que alimentam esses aplicativos, você pode usar entradas de texto para gerar não apenas imagens e texto, mas também áudio e vídeo.

As empresas estão correndo para desenvolver LLMs que possam ser implantados em diversos hardwares e em diversos aplicativos, incluindo a execução de um LLM em seu smartphone.

O surgimento destes LLMs leves e LLMs de código aberto poderá inaugurar um mundo de agentes autónomos de IA – um mundo para o qual a sociedade não está necessariamente preparada.

Esses recursos avançados de IA oferecem imenso poder transformador em aplicações que vão desde negócios até medicina de precisão.

A minha principal preocupação é que tais capacidades avançadas representem novos desafios para distinguir entre conteúdos gerados por humanos e conteúdos gerados por IA, bem como representem novos tipos de danos algorítmicos.

O dilúvio de conteúdos sintéticos produzidos pela IA generativa poderá desencadear um mundo onde pessoas e instituições maliciosas poderão fabricar identidades sintéticas e orquestrar desinformação em grande escala.

Uma enxurrada de conteúdos gerados por IA preparados para explorar filtros algorítmicos e motores de recomendação poderá em breve dominar funções críticas como a verificação de informações, a literacia informacional e a serendipidade fornecidas por motores de busca, plataformas de redes sociais e serviços digitais.

A Comissão Federal de Comércio alertou sobre fraude, engano, violações de privacidade e outras práticas injustas possibilitadas pela facilidade de criação de conteúdo assistida por IA.

Embora plataformas digitais como o YouTube tenham instituído diretrizes políticas para a divulgação de conteúdo gerado por IA, há necessidade de um maior escrutínio dos danos algorítmicos por parte de agências como a FTC e de legisladores que trabalham em proteções de privacidade, como a Lei Americana de Privacidade e Proteção de Dados.

Um novo projeto de lei bipartidário apresentado no Congresso visa codificar a alfabetização algorítmica como uma parte fundamental da alfabetização digital.

Com a IA cada vez mais interligada com tudo o que as pessoas fazem, é claro que chegou o momento de nos concentrarmos não nos algoritmos como peças de tecnologia, mas de considerarmos os contextos em que os algoritmos operam: pessoas, processos e sociedade.

Nota do Editor: Este artigo foi escrito por Anjana Susarla, Professora de Sistemas de Informação, Michigan State University, Casey Fiesler, Professor Associado de Ciência da Informação, University of Colorado Boulder, Kentaro Toyama, Professor de Informação Comunitária, University of Michigan e republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.

Siga-nos no Flipboard, Google News ou Apple News