Protegendo a experiência do cliente orientada por IA: Integrando IA com segurança cibernética
Publicados: 2024-01-24Hoje, as organizações estão progressivamente a adotar e a integrar a inteligência artificial em grande escala – mudando a forma como trabalham diariamente.
A IA pode transformar suas operações de atendimento ao cliente no longo prazo, ao mesmo tempo que oferece à sua empresa novas oportunidades fascinantes. Uma nova pesquisa indica que os indivíduos que podiam usar ferramentas generativas de inteligência artificial (IA) tiveram um desempenho 14% melhor do que aqueles que não o fizeram, e a IA na tecnologia de marketing é agora uma aposta decisiva.
No entanto, permanece uma grande questão: como planeiam lidar com as preocupações relacionadas com a segurança e a confiança da informação?
Lembre-se de que as empresas estão ansiosas para aproveitar o potencial da IA enquanto atravessam o cenário complexo da utilização segura e ética de dados. Isso torna a segurança cibernética da IA uma consideração importante, mesmo quando você aprimora as experiências do cliente.
A interseção entre IA e segurança cibernética no gerenciamento de dados de clientes
73% dos profissionais de vendas, serviços, marketing e comércio entrevistados recentemente disseram que a IA generativa traz novos riscos de segurança. Mais de 60% daqueles que pretendem implementar IA devem descobrir como fazer isso com segurança e, ao mesmo tempo, proteger dados confidenciais. Os riscos mencionados anteriormente são especialmente significativos em setores fortemente regulamentados, como a saúde e os serviços financeiros.
À medida que os clientes interagem com empresas através de diversas plataformas num mundo cada vez mais interligado, é inegável que as organizações acumulam uma abundância de informações dos clientes.
No entanto, eles são legalmente obrigados a proteger os dados que coletaram, como informações de identificação pessoal (PII), informações pessoais de saúde (PHI) e informações financeiras de identificação pessoal (PIFI), todas as quais podem ser usadas para identificar ou localizar um indivíduo.
Uma violação de segurança não é apenas um incidente de não conformidade, mas também corrói indelevelmente a confiança do cliente e a boa vontade do mercado. Por exemplo, a empresa de serviços financeiros Equifax levou quase um ano para se recuperar no mercado depois de permitir que os dados dos clientes fossem comprometidos.
Este desafio é ainda mais exacerbado no contexto da IA generativa. A Gen AI produz novos dados contextualmente semelhantes aos dados de treinamento; portanto, nenhuma informação sensível deve ser incluída neste material.
A possibilidade de gerar conteúdo que viole involuntariamente as PII de um indivíduo permanece alta se você não se concentrar na segurança cibernética e na privacidade da IA.
Principais riscos de segurança cibernética em sistemas baseados em IA que os líderes de marketing devem conhecer
Embora a integração da IA nas experiências do consumidor tenha vários benefícios, ela apresenta vários riscos de segurança cibernética. Estes são :
1. Preocupações com privacidade e proteção de dados
As informações pessoais coletadas, analisadas e armazenadas podem ser críticas para o desempenho dos seus algoritmos de IA. No entanto, as divulgações ilícitas são possíveis na ausência de medidas de cibersegurança para a IA. Uma instância de código não testado pode fazer com que um chatbot exiba o histórico de compras de um usuário individual para outro usuário enquanto participa de uma conversa ao vivo. Isso viola significativamente os regulamentos de privacidade.
Um sistema de IA inseguro ou fraco poderia oferecer aos hackers informações abundantes sobre o consumidor. Imagine um cenário em que a criptografia dos dados do consumidor que você armazena precisa ser melhorada ou os controles de acesso não foram aplicados. É por isso que 42% das marcas consideram o equilíbrio entre a segurança cibernética e a satisfação do cliente como o seu desafio mais significativo em 2023.
2. Vulnerabilidade a ataques específicos de IA
À medida que as experiências dos clientes com IA se tornam mais comuns, os agentes maliciosos ficam um pouco para trás. Um exemplo típico de envenenamento de dados é a manipulação ou corrupção dos dados usados para treinar modelos para aprendizado de máquina e aprendizado profundo. Este ataque – ocasionalmente chamado de “envenenamento de modelo” – tenta comprometer a precisão dos resultados e da tomada de decisões da IA.
Da mesma forma, ataques adversários podem ameaçar as operações de dados dos clientes. Eles geram conjuntos de dados que parecem estar em boas condições a olho nu, mas levam a classificações imprecisas em um fluxo de trabalho de aprendizado de máquina. Os hackers conseguem isso lançando um ataque na forma de “ruído” fabricado, levando a uma classificação incorreta de IA/ML.
Os ataques de exfiltração agravam a situação. Eles podem ser usados para roubar dados de treinamento; por exemplo, um indivíduo mal-intencionado obtém acesso ao conjunto de dados e prossegue para extraviar, transferir ou desviar dados. Além disso, à medida que a previsibilidade dos modelos de geração de IA aumenta, solicitações específicas podem levar à divulgação involuntária de informações adicionais.
3. Conformidade e desafios regulatórios
A IA que recebe informações de indivíduos com preconceitos latentes pode produzir uma programação distorcida, levando ao risco de não conformidade e potencialmente prejudicando o seu desempenho financeiro. Por exemplo, quando a Amazon implementou a sua estrutura de IA para triagem de candidatos, o algoritmo demonstrou uma tendência em relação aos currículos apresentados por candidatos do sexo masculino.
No caso de experiências de clientes com IA, pense num chatbot que foi treinado principalmente com dados fornecidos por consumidores que fizeram compras de alto preço – para que possa responder a perguntas sobre produtos. O chatbot pode oferecer descrições breves e não tão úteis para responder à pergunta de um cliente sobre um produto barato e acessível.
A tecnologia discriminatória e tendenciosa (intencional ou não) pode causar danos significativos ao status de conformidade e ao desempenho financeiro de uma empresa. Além disso, a IA tem um enorme potencial para utilização antiética, o que significa que as organizações podem tomar decisões que as expõem a responsabilidades antitrust.
Por exemplo, se uma organização optar injustamente por utilizar a IA para trabalhar nas decisões de preços, isso poderá perturbar a concorrência saudável do mercado, obtendo o escrutínio regulamentar e uma possível penalização.
Melhores práticas para proteger sistemas de experiência do cliente de IA
Felizmente, superar os desafios em torno da segurança cibernética da IA não é impossível e, ao investir nas medidas adequadas, as marcas podem continuar a beneficiar do poder da inteligência artificial nas operações dos seus clientes.
1. Implemente controles de acesso mais robustos
As empresas devem configurar processos de controle de acesso e verificação de usuários baseados em funções para evitar acesso não autorizado a registros de clientes e aplicativos de IA. Isso envolve a implementação de etapas para restringir o acesso, como senhas com limite de tempo, autenticação multifator e a maioria das políticas de privilégios menores.
2. Criptografe os dados do cliente em movimento e em repouso
A criptografia protege os dados em todas as fases do seu ciclo de vida – durante a transferência de e para o aplicativo de IA. Por exemplo, TLS e SSL são amplamente utilizados em protocolos de trânsito. Para proteger ainda mais os dados em repouso, as empresas podem implementar estratégias de criptografia de arquivos ou de banco de dados, incluindo conjuntos de dados de treinamento de IA.
3. Adote a computação em nuvem confidencial
A computação em nuvem confidencial pode proteger os dados mesmo quando estão sendo processados; isso o torna extremamente importante para as experiências do cliente com IA. Essas salvaguardas usam estratégias algorítmicas, como ambientes de execução confiáveis e criptografia homomórfica, para garantir a segurança e a privacidade dos dados, independentemente do estágio de processamento.
3. Realize testes de detecção de toxicidade e aterramento em seus sistemas generativos de IA
A detecção de toxicidade é um método pelo qual conteúdos nocivos, incluindo discurso de ódio e estereótipos negativos, podem ser detectados. Usar um modelo de aprendizado de máquina (ML) para analisar e classificar as respostas fornecidas por um LLM garante que qualquer resultado – independentemente da geração – seja produtivo do ponto de vista comercial.
Além disso, ao “fundamentar” o modelo em dados reais e no contexto pertinente, a fundamentação dinâmica orienta as respostas de um LLM com os dados mais recentes e precisos. Isto impede respostas incorretas não baseadas na realidade ou em fatos ou “alucinações de IA”.
4. Aplique uma política rigorosa de retenção de dados
As organizações devem reter os dados dos clientes, no máximo, conforme necessário para as operações do cliente BAU. A utilização de uma política de retenção de dados do consumidor compensa o risco de acesso não autorizado e infrações à segurança cibernética da IA. Isso garante a conformidade com leis significativas de proteção de dados, como GDPR, HIPAA, CCPA e outras, ao mesmo tempo que aumenta a privacidade.
5. Pratique o mascaramento ao formular conjuntos de dados de treinamento de IA
Dados anonimizados são usados em vez de informações sensíveis e confidenciais durante o mascaramento de dados para proteger dados privados e estar em conformidade com os regulamentos legais. Ao treinar modelos de IA, o mascaramento de dados pode ajudar a determinar se todas as informações de identificação pessoal, como nomes, números de telefone e endereços, foram removidas. Isso não apenas ajuda na segurança cibernética da IA (reduzindo a carga útil para hackers em potencial), mas também pode reduzir o preconceito.
Construindo a confiança do consumidor em sistemas de IA
É inimaginável acreditar que as pessoas já desconfiaram do comércio eletrônico! Antes da adoção generalizada de uma indústria anual de 1 bilião de dólares, muitos consumidores regulares nutriam apreensões sobre a segurança dos seus dados confidenciais e financeiros. Havia um défice de confiança – um factor essencial, em alguns aspectos intangível (mas vital) para que qualquer nova ideia se concretizasse.
A confiança determinará até que ponto as empresas e os consumidores abraçarão com sucesso a ascensão da inteligência artificial, especificamente da IA generativa.
Algumas empresas podem tentar transformar as suas iniciativas CX sem realizar a difícil tarefa de eliminar preconceitos, garantir a proteção de dados e oferecer transparência 24 horas por dia.
No entanto, esse esforço decidirá precisamente como as pessoas (seus funcionários ou clientes) acreditarão no incrível poder transformador da IA e obterão o máximo ROI para sua organização a partir das experiências dos clientes com IA.
A seguir, leia o whitepaper da AWS sobre IA e ML democratizados, operacionalizados e responsáveis para líderes empresariais. Clique nos botões de mídia social na parte superior para compartilhar este artigo com sua rede.