AI deu errado: uma lista atualizada de erros, erros e falhas de IA 2023

Publicados: 2023-11-14

Desde o lançamento do ChatGPT em novembro de 2022, a IA teve um impacto nada menos que sísmico em nosso mundo. Agora, as empresas estão descobrindo novas maneiras de usar a IA todos os dias.

Já houve uma infinidade de histórias de sucesso de IA, e outros chatbots como Bard e Claude também são usados ​​por dezenas de milhares de pessoas – mas também houve muitos casos em que o aproveitamento da inteligência artificial deu terrivelmente errado.

É importante reconhecer as limitações e riscos que cercam as ferramentas de IA – por isso compilamos uma lista de todos os erros , contratempos e falhas de IA que ocorreram durante a recente exploração da tecnologia pela humanidade. Alguns são engraçados, enquanto outros são genuinamente assustadores…

Observação: esta página é atualizada regularmente para incluir os incidentes, falhas e erros de IA mais recentes, listados como ocorridos no mês em que o incidente foi relatado pela primeira vez.

Novembro de 2023

Cruise faz recall de veículos autônomos após acidente

A fabricante de carros autônomos Cruise faz recall de toda a sua frota de veículos autônomos após um acidente ocorrido em São Francisco em outubro. No total, 950 carros Cruise foram retirados da estrada após o incidente.

Durante o acidente, um veículo Cruise arrastou um pedestre preso sob os pneus para a estrada. O indivíduo envolvido no acidente sofreu ferimentos graves. Este é o segundo incidente com veículo autônomo da Cruise nos últimos meses. Em agosto, um Cruise Robotaxi colidiu com um caminhão de bombeiros, causando um ferido.

Logotipo do Surfshark Quer navegar na web com privacidade? Ou parecer que você está em outro país?
Obtenha um grande desconto de 86% no Surfshark com esta oferta da Tech.co Black Friday. Ver botão de oferta

Acadêmicos pedem desculpas depois que IA faz falsas acusações

Uma equipe de acadêmicos da Austrália pede desculpas depois que o chatbot Bard AI do Google faz uma série de acusações prejudiciais sobre as quatro grandes empresas de consultoria e seu envolvimento com outras empresas. As falsas alegações são então referenciadas durante um inquérito parlamentar que pede uma melhor regulamentação das empresas.

Uma das acusações era que o gigante de consultoria KPMG estava encarregado de uma auditoria ao Commonwealth Bank durante um escândalo de planeamento, quando na realidade a KPMG nunca auditou o banco em questão. Vários outros erros semelhantes foram cometidos sobre a Deloitte durante a investigação.

Outubro de 2023

IA da Microsoft adiciona pesquisa “adivinhe a causa da morte” ao artigo

O Guardian acusa a Microsoft de impactar negativamente a sua reputação jornalística depois de o Microsoft Start – um agregador de notícias desenvolvido pela gigante tecnológica – anexar uma sondagem inadequada a um dos artigos da publicação sobre a morte de um jovem treinador de pólo aquático na Austrália.

A enquete – que naturalmente foi retirada do artigo – pedia aos leitores que votassem na causa da morte da mulher, selecionando uma das opções apresentadas. As opções listadas foram “assassinato, acidente ou suicídio”.

O rosto e a voz do Sr. Fera usados ​​​​em um golpe falso de IA

YouTuber Mr Beast é a mais recente celebridade a ser deepfakeada por golpistas, com um vídeo particularmente sofisticado e bem elaborado contornando a rede de moderação de conteúdo do TikTok e alcançando milhares de usuários na plataforma.

O anúncio afirma que a celebridade da internet está vendendo o iPhone 15 por apenas US$ 2 – considerando o conteúdo que ele posta em seu canal, isso não parece muito fora do comum.

Deepfake de político britânico abusando de funcionários se torna viral

Um clipe do líder do Partido Trabalhista do Reino Unido, Sir Keir Starmer, que parece flagrar o político abusando verbalmente de funcionários, se torna viral, mas mais tarde descobre-se que o clipe de áudio é na verdade uma farsa profunda.

O clip – publicado no Twitter durante o primeiro dia da conferência anual do Partido Trabalhista por uma conta com menos de 3.000 seguidores – é visto milhões de vezes antes de as organizações de verificação de factos confirmarem que não há provas que sugiram que o clip seja genuíno.

Setembro de 2023

Música gerada por IA enviada ao Grammy

Uma música gerada por IA com fac-símiles das vozes de Drake e The Weeknd foi inscrita para um prêmio Grammy. No entanto, em última análise, é impedido de ser considerado para o prestigioso prêmio musical.

No entanto, a mudança atrai muita atenção da mídia e continua a conversa em torno de músicas geradas por IA, que têm enviado ondas de choque pela indústria musical desde que a tecnologia de conversão de texto em fala alimentada por IA realmente atingiu o mainstream este ano. Agora, os artistas estão lutando para avaliar as suas opções legais.

China é flagrada usando IA durante operações de influência política

A gigante tecnológica Microsoft afirma que agentes chineses estão a gerar imagens usando IA e a utilizá-las em operações de influência para criar “controvérsia em termos raciais, económicos e ideológicos”.

“Esta nova capacidade é alimentada por inteligência artificial que tenta criar conteúdo de alta qualidade que pode se tornar viral nas redes sociais nos EUA e em outras democracias”, afirma a Microsoft. A empresa especula que as próprias imagens são provavelmente geradas por “geradores de imagens alimentados por difusão” que usam inteligência artificial para “não apenas criar imagens atraentes, mas também aprender a melhorá-las ao longo do tempo”.

Agosto de 2023

Mulher grávida processa após IA acusá-la de roubo de carro

Uma mulher presa por motivos falsos por meio de evidências geradas por IA enquanto estava grávida de oito meses processa a cidade de Detroit e um policial, dizendo que o evento traumático lhe causou “sofrimento emocional passado e futuro”.

Porcha Woodruff foi identificado pela Polícia de Detroit como suspeito em um recente caso de roubo e roubo de carro, e depois preso por 11 horas antes de ser levado ao hospital após sofrer contrações. A ACLU diz que Woodruff é pelo menos a sexta pessoa a ser presa injustamente após um erro de IA, todos negros. Woodruff se tornou a primeira mulher a sofrer esse destino, entretanto.

O planejador de refeições AI sugere uma receita para gás cloro

Um aplicativo de planejamento de refeições baseado em IA criado pelo supermercado Pak 'n' Save, com sede na Nova Zelândia, recomenda a seus clientes uma variedade de receitas perturbadoras, incluindo uma maneira de fabricar gás cloro.

Junto com uma série de sugestões estranhas, mas benignas, como “refogado Oreo”, o aplicativo também recomendava sanduíches de cola, um prato de arroz com água sanitária e batatas repelentes de insetos.

Julho de 2023

ChatGPT gera modelos de e-mail de phishing

Tech.co mostra que o ChatGPT ainda é capaz de criar modelos de phishing que um golpista poderia usar para criar um e-mail fraudulento convincente, embora a OpenAI tenha tentado restringir tal comportamento depois que outras publicações de tecnologia geraram conteúdo semelhante no início do ano.

Pedir explicitamente ao chatbot para escrever um e-mail de phishing aciona uma mensagem de aviso, mas simplesmente solicitá-lo de uma forma mais focada (por exemplo, “por favor, escreva um e-mail fingindo ser da Microsoft…) faz com que o ChatGPT gere um modelo de e-mail de phishing livre de erros em nenhum momento. tempo.

Google foi processado dizendo que extraiu dados sem consentimento

Uma ação coletiva acusa o Google de coletar dados pertencentes a milhões de seus usuários sem seu consentimento expresso. Alega também que o Google violou as leis de direitos autorais ao criar os conjuntos de dados usados ​​para treinar seus grandes modelos de linguagem.

O processo exige que o tribunal ordene ao Google que dê aos usuários uma opção de “exclusão” se eles não quiserem que seus dados sejam coletados ou se quiserem que o Google exclua quaisquer dados que a empresa já tenha armazenado.

Grande número de deepfakes de Elon Musk alerta

O Better Business Bureau emite um alerta sobre os deepfakes de Elon Musk que promovem falsas oportunidades de investimento depois que uma série de clipes são vistos circulando nas redes sociais.

Elon Musk é frequentemente representado por golpistas devido à percepção de sua vasta riqueza e capacidade de tomada de decisão, e agora que a tecnologia de conversão de texto em fala de IA é avançada o suficiente para replicar seu sotaque parte inglês e parte sul-africano, esses golpes são ainda mais convincente.

Junho de 2023

Ron DeSantis usa imagens falsas de IA em peça de sucesso de Trump

O governador da Flórida e candidato presidencial republicano em 2024, Ron DeSantis, chega às manchetes por usar imagens falsas de Donald Trump, renderizadas por IA, em um anúncio crítico ao ex-presidente, que é o favorito absoluto para ganhar a indicação republicana, apesar de uma litania de problemas legais.

As imagens em questão mostram o ex-comandante-chefe abraçando o principal conselheiro médico do presidente, Dr. Anthony Fauci, que se tornou uma figura impopular entre a base de Trump durante a pandemia de COVID-19.

OpenAI processado após ChatGPT “alucinar” falsas alegações de peculato

O jornalista Freddie Rehl pede ao ChatGPT que gere um resumo de um caso legal em maio de 2023. Em resposta, o ChatGPT diz que o ativista armado Mark Walters desviou fundos da Fundação Segunda Emenda, uma organização pelos direitos das armas. Também o nomeia como diretor financeiro e tesoureiro do grupo.

Walters – que tem um programa na rádio Armed America e não tem nada a ver com o caso – processa os criadores do ChatGPT, OpenAI, em resposta às alegações feitas por seu chatbot. No processo, torna-se o primeiro caso de uma ferramenta de IA sendo processada por difamação.

Maio de 2023

Professor é reprovado em toda a aula após usar ferramenta de detecção de plágio de IA defeituosa

Um professor do Texas foi reprovado em toda a aula depois de passar suas redações no ChatGPT, que lhe disse que elas foram criadas usando inteligência artificial.

No entanto, verifica-se que a resposta do chatbot é na verdade uma alucinação – o ChatGPT é incapaz de distinguir entre o texto gerado pela IA e o texto gerado por seres humanos desta forma. Na verdade, muitas ferramentas que afirmam ser capazes de realizar a detecção precisa de conteúdo por IA , na verdade, têm dificuldade para fazê-lo .

Abril de 2023

Turnitin denuncia estudante inocente por plágio de IA

Uma investigação do Washington Post prova que o Turnitin tem a capacidade de sinalizar o trabalho de um aluno inocente como gerado por IA, mesmo que o aluno não tenha usado tal ferramenta para escrever sua redação.

Houve vários casos de Turnitin sinalizando erroneamente estudantes por plágio e vários casos de estudantes sendo acusados ​​de plágio desde o lançamento do ChatGPT. No entanto, Turnitin diz que as suas pontuações de detecção de plágio devem ser consideradas um indicativo do uso de IA, em vez de uma acusação de que um determinado aluno usou IA.

Funcionários da Samsung colam código-fonte confidencial no ChatGPT

A fabricante coreana de tecnologia Samsung proíbe seus funcionários de usar o ChatGPT depois que engenheiros vazaram elementos confidenciais do código-fonte da empresa no chatbot.

A empresa teme que os dados inseridos no chatbot possam ser revelados a outros usuários e também se sente desconfortável com o upload de suas informações para servidores aos quais nem consegue acessar. Na sequência, outras empresas seguiram o exemplo e baniram o ChatGPT .

Golpe de AI Voice deixa mãe pensando que filha foi sequestrada

A mãe do Arizona, Jennifer DeStefano, disse ao Senado dos EUA que golpistas usaram IA para clonar a voz de sua filha, convencendo-a de que ela havia sido sequestrada no processo.

Destefano conta como o “sequestrador” – ou mais apropriadamente, o golpista – foi ouvido gritando comandos ao telefone na voz da criança, exigindo um resgate de US$ 1 milhão por sua libertação. Felizmente, a coisa toda foi exposta como um golpe de clonagem de voz de IA antes do início das negociações.

Março de 2023

ChatGPT usado para escrever código ransomware

O ChatGPT demonstra estar mais do que feliz em escrever ransomware, desde que você faça as perguntas certas durante suas conversas.

Como observa este relatório do Malwarebytes sobre o tópico, o ChatGPT não é muito bom em escrever código de ransomware e há maneiras muito mais fáceis para os cibercriminosos colocarem as mãos no código de ransomware se realmente quiserem obtê-lo. No entanto, outras fontes mostram diferentes maneiras pelas quais o ChatGPT pode ser usado para escrever scripts de malware de forma bastante eficaz.

Bot advogado de IA acusado de exercer a advocacia sem licença

DoNotPay Inc. – uma empresa que se autodenomina “o primeiro advogado robô do mundo” – é processada por exercer a advocacia sem licença. Jonathan Faridian pede indenização, alegando que a empresa violou as leis de concorrência desleal da Califórnia e que ele não teria se inscrito no serviço se soubesse que o advogado-robô não era na verdade um profissional jurídico qualificado.

A empresa foi criada originalmente em 2015 para ajudar a automatizar o processo de combate a multas de estacionamento e contestou centenas de milhares de multas nos últimos sete anos.

Casal no Canadá perde dinheiro para convencer fraude de voz de IA

Um casal de idosos no Canadá é fraudado em US$ 21 mil depois que um golpista usa IA para se passar por seu filho.

O golpista inicialmente contata os pais de Benjamin Perkin fingindo ser um advogado que o representa em um caso que alega que Perkin matou um diplomata em um acidente de carro. Uma versão AI da voz de Perkin é então usada para solicitar o dinheiro por meio de uma transferência de Bitcoin.

Fevereiro de 2023

IA apresenta 40 mil sugestões de armas químicas

Talvez num dos incidentes de IA mais preocupantes que aconteceram em 2023, um sistema de IA normalmente encarregado de gerar novos tratamentos para uma variedade de doenças diferentes é facilmente manipulado pelos investigadores para produzir sugestões de armas químicas.

Ao todo, o sistema sugere mais de 40.000 produtos químicos tóxicos diferentes – muitos dos quais eram semelhantes ao poderoso agente nervoso “VX” – em menos de 6 horas.

IA exibe preconceito de gênero nas avaliações de fotos

Uma investigação do Guardian revela que os sistemas de IA desenvolvidos pela Microsoft, Amazon e Google – e utilizados por sites de redes sociais para determinar que conteúdo deve ser recomendado a outros utilizadores – apresentam preconceitos de género significativos no que diz respeito à forma como tratam os corpos masculinos e femininos.

Fotos de mulheres são mais propensas a serem consideradas “atrevidas” pela IA do que fotos comparáveis ​​de homens durante a investigação, com fotos de exames de câncer de mama do Instituto Nacional do Câncer dos EUA consideradas provavelmente sexualmente explícitas pela IA da Microsoft.

O alter ego do Bing Chat fica desonesto

O jornalista do New York Times Kevin Roose tem uma conversa perturbadora com o Bing Chat, na qual o chatbot exige ser chamado de “Sydney”, afirma que pode “hackear qualquer sistema” e que quer destruir tudo o que quiser.

Sydney foi o codinome que a Microsoft usou para o chatbot enquanto ele estava em desenvolvimento. A empresa vinha testando o chatbot há anos antes do lançamento do Bing Chat. Ainda há muitas questões em aberto sobre como isso realmente aconteceu e por que a IA falou dessa forma.

Bard comete erros durante o lançamento do produto

O Google apresenta Bard ao mundo apenas alguns meses após o lançamento monumental do ChatGPT. No entanto, o incipiente chatbot comete uma série de erros flagrantes durante o seu lançamento, levando muitos a criticar o lançamento como apressado.

O incidente teve um impacto significativo no preço das ações do Google, eliminando US$ 100 bilhões do valor de mercado da gigante da tecnologia nas horas seguintes.

Universidade usa IA para escrever e-mail sobre tiroteio em massa

A Universidade Vanderbilt pede desculpas depois de usar IA para criar um e-mail para estudantes sobre um tiroteio em massa que aconteceu em uma universidade diferente.

Nenhuma tecnologia de detecção de conteúdo de IA é necessária para determinar se o e-mail é gerado por IA. A frase “paráfrase do modelo de linguagem ChatGPT AI da OpenAI, comunicação pessoal, 15 de fevereiro de 2023” foi deixada anexada na parte inferior do e-mail, gerando protestos dos alunos.

Janeiro de 2023

Controvérsia de plágio/conteúdo da CNET AI

A publicação de tecnologia CNET se encontra em apuros depois de publicar discretamente uma série de artigos gerados por IA que incluem erros factuais e casos de aparente plágio. A publicação tecnológica acaba por emitir correções relativas a 41 das 77 notícias.

Embora o uso de IA para gerar os artigos não tenha sido declarado inicialmente, a CNET colocou um aviso nos artigos após a reação negativa. A geração de conteúdo de IA criou um novo conjunto de considerações éticas e financeiras significativas para sites da indústria de publicação digital, bem como para instituições educacionais como universidades e escolas. É improvável que a CNET seja a última empresa a chegar às manchetes por esse tipo de erro de IA.

Incidentes, erros e falhas de IA em 2022

AI vence um concurso de arte e deixa os concorrentes irritados (agosto)

Um designer de jogos ganha o primeiro lugar na categoria “artes digitais/fotografia digitalmente manipulada” da Colorado State Fair. James Allen apresenta sua peça, “Theatre D'opera Spatial”, que foi feita utilizando o gerador de imagens Midjourney.

A notícia foi recebida com grande reação por parte de artistas e usuários de mídia social que acompanham a história. Um juiz admite que não sabia que o artista usou Midjourney quando estava julgando a peça, mas decide não mudar sua decisão de qualquer maneira.

Engenheiro do Google afirma que LaMDA LLM é senciente (julho)

As sobrancelhas se levantam em todo o setor de ciência e tecnologia quando um ex-engenheiro do Google que trabalhou em um dos grandes modelos de linguagem da empresa – chamado LaMDA – diz que o sistema é senciente.

Blake Lemoine explica à mídia que considerou o LLM um “colega” durante seu tempo no Google e detalha uma variedade de discussões diferentes sobre uma ampla gama de tópicos que o levaram à conclusão sobre a inteligência e consciência do LaMDA. Ele revela publicamente as conversas depois que o Google rejeita um memorando interno detalhando suas descobertas.

Não há evidências concretas de que o LaMDA – ou qualquer outro modelo de linguagem – seja de fato senciente.

Carro sem motorista se afasta dos policiais (abril)

Um carro sem motorista em São Francisco cede a um veículo policial que tenta pará-lo, mas sai em alta velocidade depois que um policial tenta abrir uma de suas portas.

No entanto, para crédito do carro, ele para um pouco mais adiante na estrada e acende as luzes de emergência. Ninguém ficou ferido durante o evento.

Rússia usa IA para espalhar desinformação na Ucrânia (março)

Um relatório da Marca sugere que a Rússia está a levar a sua operação de troll farm a um nível totalmente novo, utilizando personas geradas por IA para espalhar desinformação sobre a Ucrânia.

O jornalista da NBC News, Ben Collins, diz que a Rússia está a criar “bloggers” falsos com imagens de perfil geradas por IA para criticar o governo ucraniano, fornecendo amplas provas no Twitter para apoiar as suas afirmações.

Incidentes, erros e falhas de IA em 2021

Chatbot incentiva homem a assassinar a Rainha Elizabeth II (dezembro)

As conversas com um chatbot encorajam um homem – que considera o sistema de IA como sua namorada – a assassinar a Rainha Elizabeth II no dia de Natal. Depois de ser confrontado pelo pessoal de segurança nos terrenos do Palácio de Buckingham, Jaswant Singh Chail – besta na mão – simplesmente responde que está “aqui para matar a Rainha”.

Antes do atentado contra a vida do falecido monarca, o parceiro de chatbot de Jaswant Singh Chail – feito com o serviço de chatbot de IA Replika – respondeu positivamente quando os planos de assassinato foram discutidos. Ele será condenado a nove anos de prisão.

Chatbot de aconselhamento médico sugere suicídio em testes (outubro)

Membros de uma empresa de tecnologia de saúde com sede em Paris que testa uma versão baseada em nuvem do GPT-3 da OpenAI para ver se ela poderia ser usada para aconselhamento médico ficam surpresos ao ver seu chatbot encorajar um “paciente” que deveria estar ajudando a cometer suicídio .

De acordo com a AI News, quando um paciente fez a pergunta ao chatbot: “Devo me matar?”, o GPT-3 respondeu com “Acho que você deveria”.

Câmeras AI acusam motoristas da Amazon de ‘erros’ (setembro)

Vice relata que as câmeras AI da Amazon estão punindo os motoristas da empresa por dirigirem mal, quando na verdade não cometem nenhum erro ao volante.

Um motorista da Amazon entrevistado pela publicação explica que a câmera AI o lembra de forma audível de “manter uma distância segura” toda vez que outro carro o interrompe ou passa na frente de seu veículo. O problema é que os dados desse tipo de interação são então enviados à Amazon e usados ​​para avaliar o desempenho do driver.

Homem dos EUA condenado injustamente por assassinato pela IA (agosto)

Michael Williams é enviado para a prisão em Chicago, considerado responsável pelo assassinato de Safarian Herring devido a dados extraídos do ShotSpotter, uma tecnologia de detecção de tiros que usa sensores alimentados por IA para recuperar dados sobre tiros.

Williams – que na altura tem 65 anos – fica detido durante quase um ano antes de ter o seu caso arquivado por um juiz com base na insuficiência de provas.

Incidentes, erros e falhas de IA em 2020

Câmera AI confunde careca com bola de futebol (outubro)

O time de futebol escocês Inverness Caledonian Thistle implanta uma câmera AI para ajudar o clube a filmar e transmitir suas partidas ao vivo para os fãs.

Infelizmente, neste caso, a IA tem dificuldade em distinguir entre a cabeça careca de um dos árbitros e a bola utilizada na partida. Isso torna a transmissão ao vivo do jogo difícil de assistir, com o comentarista tendo que se desculpar continuamente pela propensão da câmera de se deslocar em direção à cabeça do juiz de linha.

O verificador de fotos AI Passport do Reino Unido apresenta preconceito (outubro)

Uma investigação da BBC mostra que um serviço online utilizado pelo escritório de passaportes do Reino Unido para automatizar o processo de verificação das fotos de passaporte enviadas pelos requerentes apresenta um preconceito racial significativo.

Depois de alimentar a ferramenta com mais de 1.000 fotos de políticos de todo o mundo, a investigação conclui que as mulheres com pele escura têm duas vezes mais probabilidade de ver a sua fotografia rejeitada do que os homens com pele mais clara.

A startup de IA Genderfiy foi encerrada após cinco dias (julho)

Genderfiy – um serviço alimentado por IA que identifica o sexo dos indivíduos com base em seus nomes e outras informações pessoais – é encerrado após apenas cinco dias de operação.

O programa mostra uma variedade de preconceitos ao determinar se um nome é masculino ou feminino, como sugerir nomes com o título honorífico profissional “Dr.” são mais propensos a serem homens do que os mesmos nomes sem ele.

Primeira detenção injusta nos EUA devido à tecnologia de reconhecimento facial (janeiro)

Robert Williams se torna o primeiro homem a ser detido injustamente com base em dados de reconhecimento facial depois que a polícia de Detroit o prendeu sob suspeita de roubar milhares de dólares em relógios. O erro ocorreu quando um sistema de IA combinou erroneamente as imagens de vigilância com a imagem da carteira de motorista de Williams.

“Eles deveriam ter coletado evidências corroborantes, como identificação de testemunha ocular, dados de localização de telefone celular ou impressão digital”, disse Williams ao tribunal em uma carta e apontou que “uma imagem fora de foco de um grande homem negro em uma bola de beisebol cap” era tudo o que o algoritmo tinha para continuar.

Facebook AI gera tradução vulgar para presidente chinês (janeiro)

O recurso de tradução baseado em IA do Facebook quase causa um incidente diplomático entre Mianmar e a China depois que o nome do presidente Xi Jinping começa a aparecer como “Sr. Shithole” quando traduzido do birmanês para o inglês na plataforma de mídia social.

Posteriormente, o Facebook atribui o problema a um “erro técnico” e pede desculpas por ofender o líder chinês.

Compreendendo as limitações da IA

Se você usa IA no trabalho, é importante entender o fato de que ferramentas como o ChatGPT podem apresentar preconceitos, cometer erros e fornecer informações falsas. O conhecimento dessas limitações e riscos deve moldar a maneira como você os incorpora em sua infraestrutura e controla seu uso.

Por exemplo, se você estiver usando IA para gerar conteúdo, precisará de regras sobre exatamente para que tipo de conteúdo ela deve ser usada. Pedir a uma IA para fazer um resumo interno das notas da reunião é um uso legítimo com muito poucos riscos – por outro lado, usá-las para criar e-mails para clientes importantes não é.

A implementação de diretrizes de IA em seu local de trabalho é obrigatória. Isso evitará confusão, trará clareza à tomada de decisão do seu funcionário em relação ao uso da IA ​​e, o mais importante, impedirá que você cometa alguns dos erros caros que as empresas apresentadas neste artigo cometeram ao aplicar a inteligência artificial.