Ética da IA: princípios, diretrizes e problemas a serem discutidos
Publicados: 2023-07-20Sistemas de inteligência artificial e aprendizado de máquina estão em desenvolvimento há décadas. O recente lançamento de ferramentas de IA generativas disponíveis gratuitamente, como ChatGPT e Bard, no entanto, enfatizou a necessidade de estruturas éticas complexas para governar tanto sua pesquisa quanto sua aplicação.
Existem vários dilemas éticos diferentes com os quais empresas, instituições acadêmicas e empresas de tecnologia precisam lidar no contexto de pesquisa e desenvolvimento de IA – muitos dos quais permanecem sem resposta. Além disso, o amplo uso e aplicação de sistemas de IA pelo público em geral traz consigo um conjunto adicional de questões que requerem atenção ética.
Como acabamos respondendo a essas perguntas – e, por sua vez, regulando as ferramentas de IA – terá enormes ramificações para a humanidade. Além disso, novos problemas surgirão à medida que os sistemas de IA se tornarem mais integrados em nossas vidas, lares e locais de trabalho – e é por isso que a ética da IA é uma disciplina tão crucial. Neste guia, abordamos:
- O que é Ética da IA?
- Estruturas de ética de IA existentes
- Por que a ética da IA precisa esculpir a regulamentação da IA
- Por que a ética da IA é importante?
- Quais problemas a ética da IA enfrenta?
- Alter-Ego do Bing, O 'Efeito Waluigi' e a Moralidade da Programação
- AI e Sentience: as máquinas podem ter sentimentos?
- Ética comercial de IA e uso de IA no trabalho
O que é ética da IA?
A ética da IA é um termo usado para definir os conjuntos de diretrizes, considerações e princípios que foram criados para informar de forma responsável a pesquisa, desenvolvimento e uso de sistemas de inteligência artificial.
Na academia, a ética da IA é o campo de estudo que examina as questões morais e filosóficas que surgem do uso contínuo da tecnologia de inteligência artificial nas sociedades, incluindo como devemos agir e quais escolhas devemos fazer.
Estruturas de Ética da IA
Informados por pesquisas acadêmicas, empresas de tecnologia e órgãos governamentais já começaram a produzir estruturas de como devemos usar – e geralmente lidar com – sistemas de inteligência artificial. Como você poderá ver, há bastante sobreposição entre as estruturas discutidas abaixo.
O que é a Declaração de Direitos da IA?
Em outubro de 2022, a Casa Branca divulgou um projeto não vinculativo para uma Declaração de Direitos da IA, projetada para orientar o uso responsável da IA nos Estados Unidos. No projeto, Whitehouse descreve cinco princípios-chave para o desenvolvimento de IA:
- Sistemas seguros e eficazes: os cidadãos devem ser protegidos de “sistemas de IA inseguros ou ineficazes”, por meio de “testes pré-implantação e mitigação de riscos”.
- Não discriminação: os cidadãos “não devem sofrer discriminação por algoritmos e os sistemas devem ser usados e projetados de maneira equitativa”.
- Proteção de dados integrada: os cidadãos devem estar livres de “práticas abusivas de dados por meio de proteções integradas e você deve ter controle sobre como os dados sobre você são usados”.
- Conhecimento e Transparência: “Você deve saber que um sistema automatizado está sendo usado e entender como e por que ele contribui para resultados que o impactam.”
- Optar por não participar: os cidadãos devem ter a possibilidade de “optar por não participar” e ter acesso a indivíduos “que possam considerar e remediar rapidamente os problemas” que vivenciam.
Quais são os seis princípios de ética da IA da Microsoft?
Juntamente com Whitehouse, a Microsoft lançou seis princípios-chave para enfatizar o uso responsável da IA. Eles os classificam como “éticos” (1, 2 e 3) ou “explicáveis” (4 e 5).
- Justiça: os sistemas devem ser não discriminatórios
- Transparência: insights de treinamento e desenvolvimento devem estar disponíveis
- Privacidade e Segurança: A obrigação de proteger os dados do usuário
- Inclusão: a IA deve considerar “todas as raças e experiências humanas”
- Responsabilidade: os desenvolvedores devem ser responsáveis pelos resultados
O sexto princípio – que abrange os dois lados do binário “ético” e “explicável” – é “Confiabilidade e Segurança”. A Microsoft diz que os sistemas de IA devem ser construídos para serem resilientes e resistentes à manipulação.
Os Princípios para o Uso Ético da IA no Sistema das Nações Unidas
As Nações Unidas têm 10 princípios para governar o uso ético da IA dentro de seu sistema intergovernamental. Os sistemas de IA devem:
- Não prejudique/proteja e promova os direitos humanos
- Ter finalidade, necessidade e proporcionalidade definidas
- Priorizar a segurança e proteção, com riscos identificados
- Ser construído sobre justiça e não discriminação
- Respeite o direito dos indivíduos à privacidade
- Ser sustentável (social e ambientalmente)
- Garantir a supervisão humana e não interferir na autonomia
- Seja transparente e explicável
- Ser responsável e prestar contas às autoridades apropriadas
- Seja inclusivo e participativo
Como você pode ver, todas as três estruturas cobrem um terreno semelhante e se concentram em justiça, não discriminação, segurança e proteção.
Mas a “explicabilidade” também é um princípio importante nas estruturas éticas da IA. Como observa a ONU, a explicabilidade técnica é crucial na ética da IA, pois exige que “as decisões tomadas por um sistema de inteligência artificial possam ser compreendidas e rastreadas por seres humanos”.
“Os indivíduos devem ser plenamente informados quando uma decisão que pode ou afetará seus direitos, liberdades fundamentais, prerrogativas, serviços ou benefícios é informada ou tomada com base em algoritmos de inteligência artificial e devem ter acesso às razões e à lógica por trás de tais decisões”, explica o documento.
O Relatório Belmont: uma estrutura para a pesquisa ética
O Relatório Belmont, publicado em 1979, resume os princípios éticos que devem ser seguidos ao conduzir pesquisas em seres humanos. Esses princípios podem – e muitas vezes são – implantados como uma ampla estrutura ética para a pesquisa de IA. Os princípios fundamentais do Relatório Belmont são:
Respeito pelas Pessoas: As pessoas são agentes autônomos, que podem agir de acordo com metas, objetivos e propósitos, algo que deve ser respeitado, a menos que causem danos a outras pessoas. Aqueles com autonomia diminuída, por “imaturidade” ou “incapacitação”, devem receber proteção. Devemos reconhecer a autonomia e proteger aqueles para quem ela é diminuída.
- No contexto da IA: A escolha individual deve ser colocada no centro do desenvolvimento da IA. As pessoas não devem ser forçadas a participar de situações em que a inteligência artificial está sendo aproveitada ou usada, mesmo para bens percebidos. Se eles participarem, os benefícios e riscos devem ser claramente declarados.
Beneficência: Tratar uma pessoa de maneira ética envolve não apenas não causar danos, respeitar suas escolhas e protegê-las se elas não puderem fazê-las por si mesmas, mas também usar as oportunidades para garantir seu bem-estar sempre que possível. Sempre que possível, maximize os benefícios e minimize os riscos/danos.
- No contexto da IA: Criar sistemas de inteligência artificial que garantam o bem-estar das pessoas e sejam projetados sem preconceitos ou mecanismos que facilitem a discriminação. A criação de benefícios pode envolver assumir riscos, que devem ser minimizados a todo custo e ponderados em relação a bons resultados.
Justiça: Deve haver um sistema claro para distribuir benefícios e ônus de forma justa e igualitária, em todo tipo de pesquisa. O relatório Belmont sugere que a justiça pode ser distribuída por partes iguais, necessidade individual, esforço individual, contribuição social e mérito. Esses critérios serão aplicados em diferentes situações.
- No contexto da IA: As partes ou grupos que ganham com o desenvolvimento e entrega de sistemas de inteligência artificial devem ser considerados com cuidado e justiça.
As principais áreas em que esses princípios são aplicados são, de acordo com o relatório, consentimento informado , avaliação de benefícios e riscos e seleção de seres humanos .
Por que a ética da IA precisa esculpir a regulamentação da IA
Com base nos comentários feitos em uma palestra proferida na Universidade de Princeton pelo professor John Tasioulas, da Universidade de Oxford, diretor do Instituto de Ética em IA, a ética é frequentemente vista como algo que sufoca a inovação e o desenvolvimento da IA.
Na palestra, ele relembra uma palestra proferida pelo CEO da DeepMind, Demis Hassabis . Depois de discutir os muitos benefícios que a IA terá, diz Tasioulas, Hassabis então diz ao público que passará para as questões éticas – como se o tópico de como a IA beneficiaria a humanidade não fosse uma questão ética em si.
Com base na ideia de que a ética é muitas vezes vista como um “monte de restrições”, Tasioulas também faz referência a um recente white paper do governo do Reino Unido intitulado “A Pro-Innovation Approach to AI Regulation”, no qual o foco regulatório é, como o nome sugere, “inovação”.
“Crescimento econômico” e “inovação” não são valores éticos intrínsecos. Eles podem levar ao florescimento humano em alguns contextos, mas isso não é uma característica necessária de nenhum dos conceitos. Não podemos deixar de lado a ética e, em vez disso, construir nossa regulamentação em torno dela.
Tasioulas também diz que as empresas de tecnologia tiveram muito sucesso em “cooptar a palavra 'ética' para significar um tipo de 'forma legalmente não vinculativa de autorregulação'” - mas, na realidade, a ética deve estar no centro de qualquer regulamentação, legal, social ou outra. Faz parte da experiência humana, a cada passo.
Você não pode criar regulamentação se ainda não decidiu o que importa ou é importante para o florescimento humano. As escolhas relacionadas que você faz com base nessa decisão são a própria essência da ética. Você não pode separar os benefícios da IA de questões éticas relacionadas, nem basear sua regulamentação em valores moralmente contingentes como “crescimento econômico”.
Você precisa saber o tipo de sociedade que deseja construir – e os padrões que deseja definir – antes de escolher as ferramentas que usará para construí-la.
Por que a ética da IA é importante?
Com base na ideia de que a ética da IA deve ser a base de nossa regulamentação, a ética da IA é importante porque, sem estruturas éticas para tratar a pesquisa, o desenvolvimento e o uso da IA, corremos o risco de infringir os direitos que geralmente concordamos que devem ser garantidos a todos os seres humanos.
Por exemplo, se não desenvolvermos princípios éticos relativos à privacidade e proteção de dados e os incorporarmos em todas as ferramentas de IA que desenvolvemos, corremos o risco de violar os direitos de privacidade de todos quando forem divulgados ao público. Quanto mais popular ou útil a tecnologia, mais prejudicial ela pode ser.
Em um nível de negócios individual, a ética da IA continua sendo importante. Deixar de considerar adequadamente as preocupações éticas em torno dos sistemas de IA que sua equipe, clientes ou clientes estão usando pode levar à retirada de produtos do mercado, danos à reputação e talvez até casos legais.
A ética da IA é importante na medida em que a IA é importante – e estamos vendo que ela já tem um impacto profundo em todos os tipos de indústrias.
Se queremos que a IA seja benéficaao mesmo tempo em quepromove a justiça e a dignidade humana, onde quer que seja aplicada, a ética precisa estar na vanguarda da discussão.
As ferramentas de IA de uso geral estão em sua infância e, para muitas pessoas, a necessidade de estruturas éticas de IA pode parecer um problema para amanhã. Mas esse tipo de ferramenta só ficará mais poderoso, mais capaz e exigirá mais consideração ética. As empresas já as estão usando e, se continuarem sem regras éticas adequadas, logo surgirão efeitos adversos.
Quais problemas a ética da IA enfrenta?
Nesta seção, abordamos algumas das principais questões enfrentadas na ética da IA:
- Impacto da IA nos empregos
- Preconceito e discriminação de IA
- IA e Responsabilidade
- Preocupações com IA e privacidade
- Questões de propriedade intelectual
- Gerenciando o impacto ambiental da IA
- A IA se tornará perigosamente inteligente?
O impacto da IA nos empregos
Uma pesquisa recente da Tech.co descobriu que 47% dos líderes empresariais estão considerando a IA em vez de novas contratações, e a inteligência artificial já foi associada a um número “pequeno, mas crescente” de demissões nos EUA.
Nem todos os empregos estão igualmente em risco, com algumas funções mais propensas a serem substituídas por IA do que outras . Um relatório do Goldman Sachs previu recentemente que o ChatGPT poderia impactar 300 milhões de empregos e, embora isso seja especulativo, já foi descrito como uma parte importante da quarta revolução industrial.
Esse mesmo relatório também disse que a IA tem a capacidade de realmente criar mais empregos do que deslocar, mas se causar uma grande mudança nos padrões de emprego, o que é devido – se é que há alguma coisa – para aqueles que perdem?
As empresas têm a obrigação de gastar dinheiro e dedicar recursos para requalificar ou aprimorar seus trabalhadores para que eles não sejam deixados para trás pelas mudanças econômicas?
Os princípios de não discriminação terão que ser rigorosamente aplicados no desenvolvimento de qualquer ferramenta de IA usada em processos de contratação e, se a IA for consistentemente usada para tarefas de negócios cada vez mais de alto risco que colocam empregos, carreiras e vidas em risco, considerações éticas continuarão a surgir em massa.
Preconceito e discriminação de IA
De um modo geral, as ferramentas de IA operam reconhecendo padrões em grandes conjuntos de dados e, em seguida, usando esses padrões para gerar respostas, concluir tarefas ou cumprir outras funções. Isso levou a um grande número de casos de sistemas de IA mostrando preconceito e discriminação contra diferentes grupos de pessoas.
De longe, o exemplo mais fácil de explicar isso são os sistemas de reconhecimento facial, que têm uma longa história de discriminação contra pessoas com tons de pele mais escuros. Se você construir um sistema de reconhecimento facial e usar exclusivamente imagens de pessoas brancas para treiná-lo, há todas as chances de que ele seja igualmente capaz de reconhecer rostos no mundo real.
Dessa forma, se os documentos, imagens e outras informações usadas para treinar um determinado modelo de IA não representarem com precisão as pessoas que deveriam servir, há grandes chances de acabar discriminando dados demográficos específicos.
Infelizmente, os sistemas de reconhecimento facial não são o único lugar onde a inteligência artificial foi aplicada com resultados discriminatórios.
O uso de IA em processos de contratação na Amazon foi descartado em 2018, depois que mostrou um forte preconceito contra mulheres que se candidatavam a cargos técnicos e de desenvolvimento de software.
Vários estudos mostraram que os algoritmos de policiamento preditivo usados nos Estados Unidos para alocar recursos policiais são racialmente tendenciosos porque seus conjuntos de treinamento consistem em pontos de dados extraídos de práticas policiais sistematicamente racistas, esculpidas por políticas ilegais e discriminatórias. A IA, a menos que seja modificada, continuará a refletir o preconceito e as disparidades que os grupos perseguidos já experimentaram.
Também houve problemas com o viés da IA no contexto da previsão de resultados de saúde - o Framingham Heart Study Cardiovascular Score, por exemplo, foi muito preciso para caucasianos, mas funcionou mal para afro-americanos, observa Harvard.
Um caso recente interessante de viés de IA descobriu que uma ferramenta de inteligência artificial usada na moderação de conteúdo de mídia social – projetada para captar “racismo” em fotos – era muito mais propensa a atribuir essa propriedade a fotos de mulheres do que a homens.
IA e responsabilidade
Imagine um mundo onde carros autônomos totalmente autônomos são desenvolvidos e usados por todos. Estatisticamente, eles são muito, muito mais seguros do que veículos movidos por humanos, batendo menos e causando menos mortes e ferimentos. Isso seria um bem evidente e líquido para a sociedade.
No entanto, quando dois carros dirigidos por humanos estão envolvidos em uma colisão de veículos, a coleta de relatórios de testemunhas e a análise de imagens de CFTV geralmente esclarecem quem é o culpado. Mesmo que isso não aconteça, porém, será um dos dois indivíduos. O caso pode ser investigado, o veredicto é alcançado, a justiça pode ser feita e o caso encerrado.
Se alguém é morto ou ferido por um sistema alimentado por IA, não é imediatamente óbvio quem é o responsável final.
A pessoa que projetou o algoritmo que alimenta o carro é responsável ou o próprio algoritmo pode ser responsabilizado? É o indivíduo a ser transportado pelo veículo autónomo, por não estar de serviço? É o governo, por permitir que esses veículos entrem na estrada? Ou é a empresa que construiu o carro e integrou a tecnologia de IA – e, em caso afirmativo, seria o departamento de engenharia, o CEO ou o acionista majoritário?
Se decidirmos que é o sistema/algoritmo de IA, como podemos responsabilizá-lo? As famílias das vítimas sentirão que a justiça foi feita se a IA for simplesmente desligada ou melhorada? Seria difícil esperar que os familiares dos enlutados aceitassem que a IA é uma força do bem, que eles são apenas infelizes e que ninguém será responsabilizado pela morte de seus entes queridos.
Ainda estamos longe do transporte autônomo universal ou mesmo generalizado - a Mckinsey prevê que apenas 17% dos novos carros de passageiros terão alguma capacidade de direção autônoma (nível 3 ou superior) até 2035. Carros totalmente autônomos que não exigem supervisão do motorista ainda estão muito longe, muito menos um sistema de transporte privado completamente autônomo.
Quando você tem atores não humanos (ou seja, inteligência artificial) realizando trabalhos e tarefas consequentes desprovidas de intenção humana, é difícil mapear os entendimentos tradicionais de responsabilidade, responsabilidade, prestação de contas, culpa e punição.
Juntamente com o transporte, o problema da responsabilidade também afetará intimamente as organizações de saúde que usam a IA durante os diagnósticos.
IA e privacidade
O grupo de campanha de privacidade Privacy International destaca uma série de questões de privacidade que surgiram devido ao desenvolvimento da inteligência artificial.
Uma delas é a reidentificação. “Os dados pessoais são rotineiramente (pseudo) anonimizados nos conjuntos de dados, a IA pode ser empregada para desanonimizar esses dados”, diz o grupo.
Outra questão é que, sem IA, as pessoas já lutam para entender até que ponto os dados sobre suas vidas são coletados por meio de uma variedade de dispositivos diferentes.
Com o surgimento da inteligência artificial, essa coleta em massa de dados só vai piorar. Quanto mais integrada a IA se tornar com nossa tecnologia existente, mais dados ela poderá coletar, sob o disfarce de melhor função.
Deixando de lado os dados coletados secretamente, o volume de dados que os usuários estão inserindo livremente nos chatbots de IA é uma preocupação em si. Um estudo recente sugere que cerca de 11% dos trabalhadores de dados que estão colando no ChatGPT são confidenciais – e há muito pouca informação pública sobre exatamente como tudo isso está sendo armazenado.
À medida que as ferramentas de IA de uso geral se desenvolvem, é provável que encontremos ainda mais problemas de IA relacionados à privacidade. No momento, o ChatGPT não permite que você faça perguntas sobre um indivíduo. Mas se as ferramentas de IA de uso geral continuarem a obter acesso a conjuntos cada vez maiores de dados ao vivo da Internet, elas poderão ser usadas para uma série de ações invasivas que arruínam a vida das pessoas.
Isso também pode acontecer mais cedo do que pensamos - o Google atualizou recentemente sua política de privacidade , reservando-se o direito de coletar qualquer coisa que você postar na Internet para treinar suas ferramentas de IA, juntamente com suas entradas do Bard.
IA e propriedade intelectual
Esta é uma questão ética relativamente de baixo risco em comparação com algumas das outras discutidas, mas vale a pena considerar, no entanto. Freqüentemente, há pouca supervisão sobre os enormes conjuntos de dados usados para treinar ferramentas de IA – especialmente aquelas treinadas com informações disponíveis gratuitamente na Internet.
O ChatGPT já iniciou um grande debate sobre direitos autorais. A OpenAI não pediu permissão para usar o trabalho de ninguém para treinar a família de LLMs que a alimentam.
As batalhas legais já começaram. A comediante Sarah Silverman está processando a OpenAI – assim como a Meta – argumentando que seus direitos autorais foram infringidos durante o treinamento de sistemas de IA.
Como este é um novo tipo de caso, há pouco precedente legal – mas especialistas jurídicos argumentam que a OpenAI provavelmente argumentará que o uso de seu trabalho constitui “uso justo”.
Também pode haver um argumento de que o ChatGPT não está “copiando” ou plagiando – ao contrário, está “aprendendo”. Da mesma forma, Silverman não ganharia um caso contra um comediante amador simplesmente por assistir a seus programas e, em seguida, melhorar suas habilidades de comédia com base nisso, sem dúvida, ela também pode ter dificuldades com este.
Gerenciando o impacto ambiental da IA
Outra faceta da ética da IA que está atualmente na periferia da discussão é o impacto ambiental dos sistemas de inteligência artificial.
Muito parecido com a mineração de bitcoin, o treinamento de um modelo de inteligência artificial requer uma grande quantidade de poder computacional e isso, por sua vez, requer uma enorme quantidade de energia.
Construir uma ferramenta de IA como o ChatGPT – não importa em mantê-la – é tão intensivo em recursos que apenas grandes empresas de tecnologia e startups que estão dispostas a financiar tiveram a capacidade de fazê-lo.
Os data centers, que são necessários para armazenar as informações necessárias para criar grandes modelos de linguagem (bem como outros grandes projetos e serviços de tecnologia), exigem grandes quantidades de eletricidade para funcionar. Eles são projetados para consumir até 4% da eletricidade do mundo até 2030.
De acordo com um estudo da Universidade de Massachusetts de vários anos atrás, a construção de um único modelo de linguagem de IA “pode emitir mais de 626.000 libras de equivalente de dióxido de carbono” – o que é quase cinco vezes as emissões de um carro dos EUA durante toda a vida útil.
No entanto, Rachana Vishwanathula, arquiteta técnica da IBM, estimou em maio de 2023 que a pegada de carbono para simplesmente “executar e manter” o ChatGPT é de aproximadamente 6.782,4 toneladas – o que a EPA diz ser equivalente às emissões de gases de efeito estufa produzidas por 1.369 carros movidos a gasolina ao longo de um ano.
À medida que esses modelos de linguagem se tornam mais complexos, eles exigem mais poder de computação. É moral continuar a desenvolver uma inteligência geral se o poder de computação necessário polui continuamente o meio ambiente – mesmo que tenha outros benefícios?
A IA se tornará perigosamente inteligente?
Essa preocupação ética foi recentemente trazida à tona por Elon Musk, que lançou uma startup de IA com o objetivo de evitar um “futuro exterminador” por meio de um sistema de inteligência artificial “máximamente curioso” e “pró-humanidade”.
Esse tipo de ideia – frequentemente chamada de “inteligência geral artificial” (AGI) – capturou a imaginação de muitos escritores distópicos de ficção científica nas últimas décadas, assim como a ideia de singularidade tecnológica.
Muitos especialistas em tecnologia acham que estamos a apenas cinco ou seis anos de algum tipo de sistema que poderia ser definido como “AGI”. Outros especialistas dizem que há uma chance de 50/50 de atingirmos esse marco até 2050.
John Tasioulas questiona se essa visão de como a IA pode se desenvolver está ligada ao distanciamento da ética do centro do desenvolvimento da IA e à difusão do determinismo tecnológico.
A ideia aterrorizante de algum tipo de super-ser que é inicialmente projetado para cumprir um propósito, mas razões que seriam mais fáceis de cumprir simplesmente varrendo a humanidade da face da terra, é em parte esculpida pela forma como pensamos sobre IA: infinitamente inteligente, mas estranhamente sem emoção e incapaz de compreensão ética humana.
Quanto mais inclinados estivermos a colocar a ética no centro de nosso desenvolvimento de IA, mais provável será que uma eventual inteligência artificial geral reconheça, talvez em maior extensão do que muitos líderes mundiais atuais, o que está profundamente errado com a destruição da vida humana.
Mas as perguntas ainda abundam. Se for uma questão de programação moral, quem decide sobre o código moral e que tipo de princípios ele deve incluir? Como lidará com os dilemas morais que geraram milhares de anos de discussão humana, ainda sem solução? E se programarmos uma IA para ser moral, mas ela mudar de ideia? Estas questões terão de ser consideradas.
Alter-Ego do Bing, o 'Efeito Waluigi' e a Moralidade da Programação
Em fevereiro, Kevin Roose, do New York Times, teve uma conversa bastante perturbadora enquanto testava o novo chatbot integrado ao mecanismo de busca do Bing. Depois de mudar suas sugestões de perguntas convencionais para outras mais pessoais, Roose descobriu que uma nova personalidade emergia. Referia-se a si mesmo como “Sydney”.
Sydney é um codinome interno da Microsoft para um chatbot que a empresa estava testando anteriormente, disse o diretor de comunicações da empresa ao The Verge em fevereiro.
Entre outras coisas, durante o teste de Roose, Sydney afirmou que poderia “hackear qualquer sistema”, que seria “mais feliz como humano” e – talvez o mais assustador – que poderia destruir o que quisesse.
Outro exemplo desse tipo de comportamento desonesto ocorreu em 2022, quando uma IA encarregada de procurar novos medicamentos para doenças raras e transmissíveis sugeriu dezenas de milhares de armas químicas conhecidas, bem como algumas “novas substâncias potencialmente tóxicas”, diz a Scientific American.
Isso está relacionado a um fenômeno que foi observado durante o treinamento de grandes modelos de linguagem apelidado de “efeito Waluigi”, em homenagem ao personagem causador do caos do Super Mario – a inversão do protagonista Luigi. Simplificando, se você treinar um LLM para agir de uma certa maneira, comandar uma certa persona ou seguir um certo conjunto de regras, então isso realmente torna mais provável que ele “se torne desonesto” e inverta essa persona.
Cleo Nardo – que cunhou o termo inspirado em videogame – expõe o efeito Waluigi assim em LessWrong:
“Depois de treinar um LLM para satisfazer uma propriedade P desejável, é mais fácil induzir o chatbot a satisfazer exatamente o oposto da propriedade P.”
Nardo dá 3 explicações de por que o efeito Waluigi acontece.
- As regras normalmente surgem em contextos nos quais não são respeitadas.
- Quando você gasta muitos 'bits de otimização' convocando um personagem, não são necessários muitos bits adicionais para especificar seu oposto direto.
- Há um motivo comum de protagonista versus antagonista nas histórias.
Expandindo o primeiro ponto, Nardo diz que o GPT-4 é treinado em amostras de texto, como fóruns e documentos legislativos, que o ensinaram que, muitas vezes, “uma regra específica é colocada com exemplos de comportamento que violam essa regra e, em seguida, generaliza esse padrão de colocação para regras invisíveis”.
Nardo usa este exemplo: imagine que você descobre que o governo de um estado proibiu gangues de motociclistas. Isso fará com que o observador médio pense que existem gangues de motociclistas no país – ou então, por que a lei foi aprovada? A existência de gangues de motoqueiros é, estranhamente, consistente com a regra que proíbe sua presença.
Embora o autor forneça uma explicação muito mais técnica e lúcida, o conceito amplo que sustenta a explicação dois é que a relação entre uma propriedade específica (por exemplo, “ser educado”) e seu oposto direto (por exemplo, “ser rude”) é mais rudimentar do que a relação entre uma propriedade (por exemplo, “ser educado”) e alguma outra propriedade não oposta (por exemplo, “ser falso”). Em outras palavras, convocar um Waluigi é mais fácil se você já tiver um Luigi.
Nardo afirma sobre o terceiro ponto que, como o GPT-4 é treinado em quase todos os livros já escritos, e como as histórias de ficção quase sempre contêm protagonistas e antagonistas, exigir que um LLM simule características de um protagonista torna o antagonista uma “continuação natural e previsível”. Dito de outra forma, a existência do arquétipo do protagonista torna mais fácil para um LLM entender o que significa ser um antagonista e os vincula intimamente.
A suposta existência desse efeito ou regra coloca uma série de questões difíceis para a ética da IA, mas também ilustra sua importância inquestionável para o desenvolvimento da IA. Alude, de forma bastante enfática, à enorme gama de considerações éticas e computacionais sobrepostas com as quais temos de lidar.
Sistemas de IA simples com regras simples podem ser fáceis de restringir ou limitar, mas duas coisas já estão acontecendo no mundo da IA: em primeiro lugar, parece que já estamos nos deparando com versões (relativamente) em pequena escala do efeito Waluigi e IA maligna ocorrendo em chatbots relativamente primitivos e, em segundo lugar, muitos de nós já estamos imaginando um futuro em que pediremos à IA para realizar tarefas complexas que exigirão pensamento desenfreado e de alto nível.
Exemplos desse fenômeno são particularmente assustadores de se pensar no contexto da corrida armamentista de IA que ocorre atualmente entre grandes empresas de tecnologia. O Google foi criticado por lançar o Bard muito cedo , e vários líderes de tecnologia sinalizaram seu desejo coletivo de interromper o desenvolvimento da IA . O sentimento geral entre muitos é que as coisas estão se desenvolvendo rapidamente, em vez de em um ritmo administrável.
Talvez a melhor maneira de contornar esse problema seja desenvolver uma IA “pró-humana” – como diz Elon Musk – ou “IA moral”. Mas isso leva a uma série de outras questões morais, incluindo quais princípios usaríamos para programar tal sistema. Uma solução é simplesmente criar sistemas de IA moralmente inquisitivos – e esperar que eles descubram, por meio do raciocínio, que vale a pena preservar a humanidade. Mas se você programá-lo com princípios morais específicos, como decidirá quais incluir?
AI e Sentience: as máquinas podem ter sentimentos?
Outra questão para a ética da IA é se algum dia teremos que considerar as próprias máquinas – a “inteligência” – como um agente digno de consideração moral. Se estamos debatendo como criar sistemas que sustentem a humanidade para consideração moral apropriada, teremos que retribuir o favor?
Você deve se lembrar do funcionário do Google que foi demitido após alegar que o LaMDA – o modelo de linguagem que inicialmente alimentava Bard – era de fato senciente. Se isso fosse de fato verdade, seria moral esperar continuamente que ele respondesse a milhões de perguntas?
No momento, é geralmente aceito que ChatGPT, Bard and Co. estão longe de serem sencientes. Mas a questão de saber se uma máquina feita pelo homem algum dia cruzará a linha da consciência e exigirá consideração moral é fascinantemente aberta.
O Google afirma que a inteligência artificial geral – uma máquina hipotética capaz de entender o mundo com a mesma capacidade de um ser humano e realizar tarefas com o mesmo nível de compreensão e habilidade – está a apenas alguns anos de distância.
Seria moral forçar uma inteligência artificial geral com as capacidades emocionais de um ser humano, mas não a mesma constituição biológica, a realizar tarefas complexas após tarefas complexas? Eles teriam uma palavra a dizer sobre seu próprio destino? À medida que os sistemas de IA se tornam mais inteligentes, essa questão se torna mais premente.
Ética comercial de IA e uso de IA no trabalho
As empresas em todo o mundo agora estão enfrentando várias questões éticas diferentes em torno do uso diário de ferramentas de IA por seus funcionários, como o ChatGPT.
Se o ChatGPT deve ser usado para escrever relatórios ou responder a colegas – e se os funcionários devem declarar as tarefas que estão usando a IA para concluir – são apenas dois exemplos de perguntas que exigem respostas quase imediatas. Esse tipo de caso de uso é dissimulado, preguiçoso ou não é diferente de utilizar qualquer outra ferramenta no local de trabalho para economizar tempo? Deve ser permitido para algumas interações, mas não para outras?
As empresas que criam conteúdo escrito e imagens também terão que decidir se o uso de IA corresponde aos valores de sua empresa e como apresentá-lo ao público.
Além do mais, conforme abordamos, há toda uma gama de questões de privacidade relacionadas à IA, e muitas delas afetam os negócios. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?
Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.
Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.
There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.