A Inteligência Artificial (IA) é perigosa?

Publicados: 2023-05-31

Na segunda-feira, 22 de maio de 2023, uma conta verificada no Twitter chamada “Bloomberg Feed” compartilhou um tweet alegando que houve uma explosão no Pentágono, acompanhada de uma imagem. Se você está se perguntando o que isso tem a ver com inteligência artificial (IA), a imagem foi gerada por IA, com o tweet rapidamente se tornando viral e provocando uma breve queda no mercado de ações. As coisas poderiam ter sido muito piores – um lembrete dos perigos da inteligência artificial.

Perigos da Inteligência Artificial

Não são apenas notícias falsas que precisamos nos preocupar. Existem muitos riscos imediatos ou potenciais associados à IA, desde aqueles relacionados à privacidade e segurança até questões de preconceito e direitos autorais. Vamos mergulhar em alguns desses perigos da inteligência artificial, ver o que está sendo feito para mitigá-los agora e no futuro e perguntar se os riscos da IA ​​superam os benefícios.

Índice

    Fake News

    Quando os deepfakes chegaram pela primeira vez, surgiram preocupações de que eles poderiam ser usados ​​com más intenções. O mesmo pode ser dito para a nova onda de geradores de imagem AI, como DALL-E 2, Midjourney ou DreamStudio. Em 28 de março de 2023, imagens falsas geradas por IA do Papa Francisco em uma jaqueta branca Balenciaga e desfrutando de várias aventuras, incluindo andar de skate e jogar pôquer, se tornaram virais. A menos que você estudasse as imagens de perto, era difícil distinguir essas imagens da coisa real.

    Embora o exemplo com o papa tenha sido, sem dúvida, um pouco divertido, a imagem (e o tweet que a acompanha) sobre o Pentágono foi tudo menos isso. Imagens falsas geradas por IA têm o poder de prejudicar reputações, acabar com casamentos ou carreiras, criar agitação política e até mesmo iniciar guerras se usadas pelas pessoas erradas – em suma, essas imagens geradas por IA têm o potencial de ser extremamente perigosas se mal utilizadas.

    Com os geradores de imagem AI agora disponíveis gratuitamente para qualquer um usar, e o Photoshop adicionando um gerador de imagem AI ao seu software popular, a oportunidade de manipular imagens e criar notícias falsas é maior do que nunca.

    Privacidade, Segurança e Hacking

    Privacidade e segurança também são grandes preocupações quando se trata dos riscos da IA, com vários países já banindo o ChatGPT da OpenAI. A Itália proibiu o modelo devido a questões de privacidade, acreditando que ele não cumpre o Regulamento Geral de Proteção de Dados Europeu (GDPR), enquanto os governos da China, Coréia do Norte e Rússia o proibiram devido a temores de que espalharia informações erradas.

    Então, por que estamos tão preocupados com a privacidade quando se trata de IA? Aplicativos e sistemas de IA coletam grandes quantidades de dados para aprender e fazer previsões. Mas como esses dados são armazenados e processados? Existe um risco real de violação de dados, hacking e informações caindo em mãos erradas.

    Não são apenas nossos dados pessoais que estão em risco. O hacking de IA é um risco genuíno - ainda não aconteceu, mas se aqueles com intenção maliciosa puderem invadir sistemas de IA, isso poderá ter sérias consequências. Por exemplo, os hackers podem controlar veículos sem motorista, invadir sistemas de segurança de IA para obter acesso a locais altamente seguros e até mesmo invadir sistemas de armas com segurança de IA.

    Especialistas da Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) do Departamento de Defesa dos EUA reconhecem esses riscos e já estão trabalhando no projeto Garantindo a Robustness AI Against Deception (GARD) da DARPA, abordando o problema desde o início. O objetivo do projeto é garantir que a resistência a hackers e adulterações seja incorporada aos algoritmos e à IA.

    violação de direitos autorais

    Outro dos perigos da IA ​​é a violação de direitos autorais. Isso pode não parecer tão sério quanto alguns outros perigos que mencionamos, mas o desenvolvimento de modelos de IA como o GPT-4 coloca todos sob maior risco de violação.

    Toda vez que você pede ao ChatGPT para criar algo para você - seja uma postagem de blog sobre viagens ou um novo nome para o seu negócio - você está fornecendo informações que ele usa para responder a consultas futuras. As informações que ele fornece a você podem estar infringindo os direitos autorais de outra pessoa, e é por isso que é tão importante usar um detector de plágio e editar qualquer conteúdo criado pela IA antes de publicá-lo.

    Viés social e de dados

    A IA não é humana, então não pode ser tendenciosa, certo? Errado. Pessoas e dados são usados ​​para treinar modelos de IA e chatbots, o que significa que dados ou personalidades tendenciosas resultarão em uma IA tendenciosa. Existem dois tipos de viés na IA: viés social e viés de dados.

    Com muitos preconceitos presentes na sociedade cotidiana, o que acontece quando esses preconceitos se tornam parte da IA? Os programadores responsáveis ​​pelo treinamento do modelo podem ter expectativas tendenciosas, que então chegam aos sistemas de IA.

    Ou os dados usados ​​para treinar e desenvolver uma IA podem estar incorretos, tendenciosos ou coletados de má fé. Isso leva ao viés de dados, que pode ser tão perigoso quanto o viés social. Por exemplo, se um sistema de reconhecimento facial for treinado usando principalmente rostos de pessoas brancas, pode ser difícil reconhecer aqueles de grupos minoritários, perpetuando a opressão.

    Robôs tomando nossos empregos

    O desenvolvimento de chatbots como ChatGPT e Google Bard abriu toda uma nova preocupação em torno da IA: o risco de que os robôs tomem nossos empregos. Já estamos vendo escritores na indústria de tecnologia sendo substituídos por IA, desenvolvedores de software preocupados em perder seus empregos para bots e empresas usando o ChatGPT para criar conteúdo de blog e mídia social em vez de contratar escritores humanos.

    De acordo com o relatório The Future of Jobs Report 2020 do Fórum Econômico Mundial, espera-se que a IA substitua 85 milhões de empregos em todo o mundo até 2025. Mesmo que a IA não substitua os escritores, ela já está sendo usada como uma ferramenta por muitos. Aqueles em empregos que correm o risco de serem substituídos por IA podem precisar se adaptar para sobreviver – por exemplo, escritores podem se tornar engenheiros de inteligência artificial, permitindo que trabalhem com ferramentas como ChatGPT para criação de conteúdo, em vez de serem substituídos por esses modelos.

    Futuros riscos potenciais de IA

    Todos esses são riscos imediatos ou iminentes, mas e alguns dos perigos menos prováveis, mas ainda possíveis, da IA ​​que poderíamos ver no futuro? Isso inclui coisas como IA sendo programada para prejudicar humanos, por exemplo, armas autônomas treinadas para matar durante uma guerra.

    Depois, há o risco de que a IA possa se concentrar obstinadamente em seu objetivo programado, desenvolvendo comportamentos destrutivos enquanto tenta atingir esse objetivo a todo custo, mesmo quando os humanos tentam impedir que isso aconteça.

    A Skynet nos ensinou o que acontece quando uma IA se torna senciente. No entanto, embora o engenheiro do Google, Blake Lemoine, possa ter tentado convencer a todos de que o LaMDA, o gerador de chatbot artificialmente inteligente do Google, era senciente em junho de 2022, felizmente não há evidências até o momento que sugiram que isso seja verdade.

    Os desafios da regulamentação da IA

    Na segunda-feira, 15 de maio de 202, o CEO da OpenAI, Sam Altman, compareceu à primeira audiência do Congresso sobre inteligência artificial, alertando: “Se esta tecnologia der errado, pode dar muito errado”. O OpenAI CO deixou claro que é a favor da regulamentação e trouxe muitas de suas próprias ideias para a audiência. O problema é que a IA está evoluindo em tal velocidade que é difícil saber por onde começar com a regulamentação.

    O Congresso quer evitar cometer os mesmos erros cometidos no início da era da mídia social, e uma equipe de especialistas ao lado do líder da maioria no Senado, Chuck Schumer, já está trabalhando em regulamentos que exigiriam que as empresas revelassem quais fontes de dados usaram para treinar modelos e quem os treinou. Pode levar algum tempo até que exatamente como a IA será regulamentada fique claro, e sem dúvida haverá reação das empresas de IA.

    A ameaça de uma inteligência artificial geral

    Há também o risco da criação de uma inteligência artificial geral (AGI) que possa realizar qualquer tarefa que um ser humano (ou animal) possa realizar. Freqüentemente mencionado em filmes de ficção científica, provavelmente ainda estamos a décadas de tal criação, mas se e quando criarmos um AGI, isso poderá representar uma ameaça para a humanidade.

    Muitas figuras públicas já endossam a crença de que a IA representa uma ameaça existencial para os humanos, incluindo Stephen Hawking, Bill Gates e até o ex-CEO do Google Eric Schmidt, que afirmou: “A inteligência artificial pode representar riscos existenciais e os governos precisam saber como garantir a tecnologia não é mal utilizada por pessoas más.”

    Então, a inteligência artificial é perigosa e seus riscos superam seus benefícios? O júri ainda está decidindo sobre isso, mas já estamos vendo evidências de alguns dos riscos ao nosso redor agora. Outros perigos têm menos probabilidade de se concretizar tão cedo, se é que o farão. Uma coisa é clara: os perigos da IA ​​não devem ser subestimados. É de extrema importância garantir que a IA seja devidamente regulamentada desde o início, para minimizar e, com sorte, mitigar quaisquer riscos futuros.