Como construir uma IA ética que funciona
Publicados: 2023-03-30Antes de usar a inteligência artificial (IA), as equipes devem ter uma estrutura de IA responsável e uma caixa de ferramentas, apesar das muitas vantagens da inovação. A IA é uma tecnologia neutra; não é nem intrinsecamente ético nem imoral. Alternativamente, a IA é uma tecnologia que adere às normas e padrões sociais. É essencial analisar quais restrições, restrições ou padrões estão em vigor ou devem ser estabelecidos para apoiar a IA ética.
O que é IA ética?
Em termos gerais, a IA ética pode ser definida como algoritmos de ciência de dados que fazem previsões e desencadeiam ações de natureza imparcial - ou seja, não discriminam em termos de gênero, sexualidade, raça, idioma, deficiência ou qualquer outra característica demográfica - e também definem as bases para uma tomada de decisões de negócios mais equitativa.
A PwC identifica os seguintes atributos da IA ética:
- Interpretabilidade: Deve ser capaz de descrever seu processo de tomada de decisão em sua totalidade.
- Confiabilidade: Deve funcionar dentro dos limites de seu projeto e produzir previsões e recomendações padronizadas e repetíveis.
- Segurança: Deve ser protegido contra riscos cibernéticos, principalmente aqueles representados por terceiros e pela nuvem.
- Responsabilidade: Deve ter identificado proprietários especialmente responsáveis pelas consequências éticas do uso de modelos de IA.
- Beneficialidade: Deve priorizar o bem comum, com foco na sustentabilidade, colaboração e transparência.
- Privacidade: Deve divulgar os dados obtidos e em uso.
- Agência humana: Deve facilitar mais supervisão e participação humana.
- Legalidade: Deve cumprir a lei e todas as diretrizes aplicáveis.
- Justiça: Não deve ser preconceituoso contra indivíduos ou grupos.
- Segurança: Não deve colocar em risco o bem-estar físico ou mental dos indivíduos.
Infelizmente, a IA ética NÃO é o padrão da indústria por padrão, e várias empresas estão enfrentando obstáculos em sua implementação. Em uma pesquisa recente, os entrevistados reconheceram a importância da IA ética, mas cumprir essa promessa é mais difícil do que parece. Nove em cada dez (90%) altos executivos concordam que os padrões morais na criação e uso de novas tecnologias podem fornecer às organizações uma vantagem competitiva. No entanto, aproximadamente dois terços (64%) dos altos executivos observaram viés nos sistemas de IA usados por sua organização.
3 caminhos para a construção de IA ética
Existem três metodologias típicas para mitigar os riscos éticos associados a dados e IA: o método acadêmico, o método corporativo e o método regulatório. Os especialistas em ética, frequentemente encontrados em departamentos de filosofia, são bons em identificar dificuldades éticas, suas origens e como raciocinar sobre elas.
A estratégia “no terreno” vem a seguir. Normalmente, tecnólogos ansiosos, analistas de dados e gerentes de produto são os que levantam questões importantes dentro das organizações. Eles estão familiarizados em fazer perguntas relacionadas a riscos relevantes para os negócios, pois são eles que criam os produtos para atingir objetivos de negócios específicos.
Agora existem corporações (para não mencionar governos) implementando normas éticas de IA de alto nível. Google e Microsoft, por exemplo, proclamaram seus valores anos atrás. Dada a diversidade de valores corporativos em dezenas de setores, uma política de informação e ética de IA deve ser adaptada aos requisitos comerciais e legais exclusivos da organização. Existem várias etapas que você, como líder de negócios, pode seguir para conseguir isso.
Etapas para construir uma IA ética que funcione
Para construir IA ética desde o início (em vez de adaptar sistemas de IA existentes com ética), lembre-se das seguintes etapas:
- Definir um acordo comum sobre o que a ética da IA significa
Essa descrição deve ser precisa e prática para todos os principais interessados corporativos. Criar equipes multifuncionais de especialistas para aconselhar todas as atividades sobre o desenvolvimento, produção e implementação de ML e IA éticos também é uma excelente ideia.
- O impacto da IA do catálogo nos sistemas de negócios
Um componente essencial do desenvolvimento de uma estrutura de IA ética é documentar o uso de IA da empresa. A empresa está adotando rapidamente a IA, principalmente no avatar de sistemas de recomendação, bots, modelagem de segmentação de clientes, mecanismos de custos e detecção de anomalias. O monitoramento regular dessas técnicas de IA e dos processos ou aplicativos nos quais elas estão incorporadas é crucial para evitar ameaças logísticas, reputacionais e financeiras à sua empresa.
- Crie uma estrutura de risco ético de dados e IA adaptada ao seu setor.
Uma estrutura eficaz inclui, em sua base, uma articulação dos valores éticos da empresa, uma proposta de modelo de governança e uma descrição de como essa configuração será mantida. É essencial criar KPIs e um programa de controle de qualidade para avaliar a eficácia contínua de uma abordagem ética de IA.
Uma estrutura abrangente também elucida a incorporação da gestão de riscos éticos nas operações. Deve incluir um procedimento claro para relatar questões éticas à liderança sênior ou a um comitê de ética.
- Otimize orientações e ferramentas éticas de IA para gerentes de produto
Embora sua estrutura forneça orientação em um nível mais amplo, as recomendações no nível do produto devem ser precisas. Algoritmos padrão de aprendizado de máquina reconhecem padrões que são muito complexos para os humanos compreenderem. A questão é que freqüentemente surge um conflito entre tornar os resultados explicáveis, por um lado, e precisos, por outro.
Os gerentes de produto devem ser capazes de fazer essa compensação. Se os resultados estiverem sujeitos a restrições que exigem explicações, como quando as instituições financeiras devem explicar por que um pedido de empréstimo foi negado, a precisão será essencial. Os gerentes de produto devem ter as ferramentas para avaliar sua importância em um caso de uso específico.
- Monitore os impactos e envolva as partes interessadas
Criar consciência corporativa, comitês éticos, proprietários de produtos, gerentes, arquitetos e analistas de dados informados são todos componentes do processo de desenvolvimento e, idealmente, do procedimento de compra. Devido à escassez de recursos, gerenciamento de tempo e uma incapacidade maior – e óbvia – de prever todas as maneiras pelas quais as coisas podem dar errado, é fundamental monitorar os efeitos da informação e dos produtos de IA no mercado.
Exemplo de IA ética: análise de sentimentos
Um excelente exemplo de integração de justiça e inclusão é a avaliação de sentimentos — para preparar um modelo de ML para distinguir sentimentos positivos e negativos em dados textuais, deve-se oferecer dados de treinamento adequados em termos de contextos sociais e linguísticos.
Em um cenário sociolinguístico, que língua você emprega? Você está considerando a importação cultural mais ampla que subsistirá em conjunto com suas marcas emocionais? Você levou em consideração a variação linguística regional? Esses problemas dizem respeito aos componentes de reconhecimento automatizado de fala (ASR) e processamento de linguagem natural (NLP) da inteligência artificial ética.
Se o seu modelo ASR for treinado apenas em inglês dos EUA, por exemplo, você poderá encontrar problemas de transcrição ao processar outras variantes do inglês. Nesse caso, as principais variações entre o inglês americano e o australiano incluem a pronúncia de r em situações linguísticas específicas e variações de pronúncia de vogais em palavras, que devem ser incluídas no sistema de IA.
Usando a IA de forma ética
Além de construir IA ética, seu uso também deve ser considerado e regulamentado. Quando os indivíduos são recompensados financeiramente por ações antiéticas, os padrões éticos são prejudicados. Lembre-se, a aplicação injusta de um sistema pode causar danos, e não sua desigualdade, opacidade ou outras características técnicas.
Como exemplo, considere os algoritmos Deepfake, uma técnica de IA frequentemente usada para fins maliciosos. A grande maioria dos deepfakes online é criada sem a permissão das vítimas. Embora seja possível garantir que a rede adversária generativa utilizada construa Deepfakes funcione igualmente bem em pessoas de todos os tons de pele e gêneros, essas melhorias/correções de imparcialidade são inconseqüentes - dado que os mesmos algoritmos estão em uso para outras intenções mais perniciosas.
A IA ética deve ser inserida em cada etapa do pipeline de inteligência artificial, desde o momento de conceituar o algoritmo até o desenvolvimento e uso e manutenção prolongados. Como este artigo explica, há cinco etapas que devem ser seguidas ao desenvolver IA ética, juntamente com o uso de conjuntos de dados éticos para treinamento de modelo de IA e educação do usuário.