Sécuriser l'expérience client basée sur l'IA : intégrer l'IA à la cybersécurité
Publié: 2024-01-24Aujourd’hui, les organisations adoptent et intègrent progressivement l’intelligence artificielle à grande échelle, modifiant ainsi leur façon de travailler au quotidien.
L’IA peut transformer vos opérations de service client à long terme tout en offrant à votre entreprise de nouvelles opportunités fascinantes. De nouvelles recherches indiquent que les personnes capables d'utiliser des outils d'intelligence artificielle (IA) générative s'en sortent 14 % mieux que celles qui ne l'ont pas fait, et l'IA dans la technologie marketing est désormais un enjeu de taille.
Cependant, une grande question demeure : comment comptez-vous répondre aux préoccupations liées à la sécurité et à la confiance des informations ?
N'oubliez pas que les entreprises sont impatientes d'exploiter le potentiel de l'IA tout en parcourant le paysage complexe de l'utilisation sûre et éthique des données. Cela fait de la cybersécurité de l’IA une considération clé, même si vous améliorez l’expérience client.
L'intersection de l'IA et de la cybersécurité dans la gestion des données clients
73 % des professionnels des ventes, des services, du marketing et du commerce interrogés récemment ont déclaré que l'IA générative entraîne de nouveaux risques de sécurité. Plus de 60 % de ceux qui envisagent de mettre en œuvre l’IA doivent trouver comment le faire en toute sécurité tout en protégeant les données sensibles. Les risques mentionnés précédemment sont particulièrement importants dans les secteurs fortement réglementés, tels que la santé et les services financiers.
Alors que les clients interagissent avec les entreprises sur diverses plateformes dans un monde de plus en plus interconnecté, il est indéniable que les organisations accumulent une abondance d'informations sur leurs clients.
Cependant, ils sont légalement tenus de protéger les données qu'ils ont collectées, telles que les informations personnelles identifiables (PII), les informations personnelles sur la santé (PHI) et les informations financières personnellement identifiables (PIFI), qui peuvent toutes être utilisées pour identifier ou localiser. un individu.
Une faille de sécurité n'est pas seulement un incident de non-conformité, mais elle érode également de manière indélébile la confiance des clients et la bonne volonté du marché. Par exemple, il a fallu près d’un an à la société de services financiers Equifax pour se redresser sur le marché après avoir permis que les données de ses clients soient compromises.
Ce défi est encore exacerbé dans le contexte de l’IA générative. Gen AI produit de nouvelles données contextuelles semblables aux données de formation ; par conséquent, aucune information sensible ne doit être incluse dans ce document.
La possibilité de générer du contenu qui viole involontairement les informations personnelles d'un individu reste élevée si vous ne vous concentrez pas sur la cybersécurité et la confidentialité de l'IA.
Principaux risques de cybersécurité dans les systèmes basés sur l'IA que les responsables marketing devraient connaître
Bien que l’intégration de l’IA dans les expériences des consommateurs présente plusieurs avantages, elle présente plusieurs risques en matière de cybersécurité. Ceux-ci sont :
1. Problèmes de confidentialité et de protection des données
Les informations personnelles collectées, analysées et stockées peuvent s'avérer essentielles aux performances de vos algorithmes d'IA. Toutefois, des divulgations illicites sont possibles en l’absence de mesures de cybersécurité pour l’IA. Une instance de code non testé peut amener un chatbot à afficher l'historique des achats d'un utilisateur individuel à un autre utilisateur tout en s'engageant dans une conversation en direct. Cela viole considérablement les règles de confidentialité.
Un système d’IA peu sécurisé ou faible pourrait offrir aux pirates informatiques de nombreuses informations sur les consommateurs. Imaginez un scénario dans lequel le cryptage des données des consommateurs que vous stockez doit être amélioré ou dans lequel les contrôles d'accès n'ont pas été appliqués. C’est pourquoi 42 % des marques considèrent l’équilibre entre cybersécurité et satisfaction client comme leur défi le plus important en 2023.
2. Vulnérabilité aux attaques spécifiques à l'IA
Alors que les expériences client basées sur l’IA deviennent plus courantes, les acteurs malveillants sont légèrement en retard. Un exemple typique d’empoisonnement des données est la manipulation ou la corruption des données utilisées pour former des modèles pour l’apprentissage automatique et l’apprentissage profond. Cette attaque – parfois appelée « empoisonnement de modèle » – tente de compromettre la précision des résultats et de la prise de décision de l'IA.
De la même manière, les attaques contradictoires peuvent menacer les opérations liées aux données clients. Ils génèrent des ensembles de données qui semblent en bon état à l’œil nu mais conduisent à des classifications inexactes dans un flux de travail d’apprentissage automatique. Les pirates informatiques y parviennent en lançant une attaque sous la forme d’ un « bruit » fabriqué, conduisant à une mauvaise classification AI/ML.
Les attaques d'exfiltration aggravent la situation. Ils peuvent être utilisés pour voler des données d'entraînement ; par exemple, un individu malveillant accède à l’ensemble de données et procède à l’égarement, au transfert ou au siphonnage des données. En outre, à mesure que la prévisibilité des modèles d’IA de génération augmente, des invites spécifiques pourraient conduire à une divulgation involontaire d’informations supplémentaires.
3. Défis en matière de conformité et de réglementation
L’IA qui reçoit des informations d’individus présentant des préjugés latents pourrait produire une programmation biaisée, entraînant un risque de non-conformité et potentiellement nuire à vos performances financières. Par exemple, lorsqu’Amazon a mis en œuvre son cadre d’IA pour la sélection des candidats, l’algorithme a démontré un biais en faveur des CV soumis par des candidats masculins.
Dans le cas des expériences client IA, pensez à un chatbot qui a été principalement formé à partir des données fournies par les consommateurs ayant effectué des achats à prix élevé, afin de pouvoir répondre aux demandes de produits. Le chatbot peut proposer des descriptions brèves et peu utiles pour répondre à la demande d'un client concernant un produit peu coûteux et abordable.
Une technologie discriminatoire et biaisée (intentionnelle ou non) peut nuire considérablement à la conformité et à la performance financière d'une entreprise. De plus, l’IA présente un énorme potentiel d’utilisation contraire à l’éthique, ce qui signifie que les organisations pourraient prendre des décisions qui les exposent à des responsabilités antitrust.
Par exemple, si une organisation choisit à tort d’exploiter l’IA pour prendre des décisions en matière de prix, cela pourrait perturber une saine concurrence sur le marché, entraînant un examen minutieux des autorités réglementaires et éventuellement des sanctions.
Meilleures pratiques pour protéger les systèmes d’expérience client d’IA
Heureusement, surmonter les défis liés à la cybersécurité de l'IA n'est pas impossible, et en investissant dans les mesures appropriées, les marques peuvent continuer à bénéficier de la puissance de l'intelligence artificielle dans leurs opérations clients.
1. Mettre en œuvre des contrôles d'accès plus robustes
Les entreprises doivent mettre en place des processus de contrôle d’accès et de vérification des utilisateurs basés sur les rôles pour empêcher tout accès non autorisé aux dossiers clients et aux applications d’IA. Cela implique la mise en œuvre de mesures pour restreindre l'accès, telles que des mots de passe limités dans le temps, une authentification multifacteur et la plupart des politiques de privilèges mineures.
2. Chiffrez les données des clients en mouvement et au repos
Le chiffrement protège les données à chaque étape de leur cycle de vie, tout au long de leur transfert vers et depuis l'application d'IA. Par exemple, TLS et SSL sont largement utilisés dans les protocoles de transit. Pour protéger davantage les données au repos, les entreprises peuvent mettre en œuvre des stratégies de chiffrement de fichiers ou de bases de données, y compris des ensembles de données de formation à l'IA.
3. Adoptez le cloud computing confidentiel
Le cloud computing confidentiel peut protéger les données même lorsqu'elles sont en cours de traitement ; cela le rend extrêmement important pour l’expérience client de l’IA. Ces protections utilisent des stratégies algorithmiques telles que des environnements d'exécution fiables et un cryptage homomorphe pour garantir la sécurité et la confidentialité des données, quelle que soit l'étape de traitement.
3. Effectuez des tests de détection de toxicité et une mise à la terre dans vos systèmes d'IA générative
La détection de la toxicité est une méthode permettant de détecter les contenus préjudiciables, notamment les discours de haine et les stéréotypes négatifs. L'utilisation d'un modèle d'apprentissage automatique (ML) pour analyser et classer les réponses fournies par un LLM garantit que tout résultat, quelle que soit sa génération, est productif d'un point de vue commercial.
De plus, en « ancré » le modèle dans des données réelles et un contexte pertinent, l'ancrage dynamique guide les réponses d'un LLM avec les données les plus récentes et les plus précises. Cela exclut les réponses incorrectes non fondées sur la réalité ou les faits ou les « hallucinations de l’IA ».
4. Appliquer une politique stricte de conservation des données
Les organisations doivent conserver les données clients, au maximum, pendant la durée nécessaire aux opérations client de BAU. L’utilisation d’une politique de conservation des données des consommateurs compense le risque d’accès non autorisé et d’infractions à la cybersécurité de l’IA. Cela garantit le respect des lois importantes sur la protection des données telles que le RGPD, la HIPAA, le CCPA et autres, tout en améliorant la confidentialité.
5. Entraînez-vous au masquage lors de la formulation d'ensembles de données d'entraînement à l'IA
Les données anonymisées sont utilisées à la place des informations sensibles et confidentielles lors du masquage des données pour protéger les données privées et se conformer aux réglementations légales. Lors de la formation de modèles d'IA, le masquage des données peut aider à déterminer que toutes les informations personnelles identifiables, telles que les noms, les numéros de téléphone et les adresses, ont été supprimées. Non seulement cela contribue à la cybersécurité de l’IA (en réduisant la charge utile des pirates potentiels), mais cela peut également réduire les biais.
Bâtir la confiance des consommateurs dans les systèmes d’IA
Il est inimaginable de croire que les gens se méfiaient autrefois du commerce électronique ! Avant l’adoption généralisée d’une industrie de 1 000 milliards de dollars annuels, de nombreux consommateurs réguliers nourrissaient des appréhensions quant à la confidentialité de leurs données financières et à leur sécurité. Il y avait un déficit de confiance – un facteur essentiel, à certains égards intangible (mais vital) pour que toute nouvelle idée puisse se concrétiser.
La confiance déterminera dans quelle mesure les entreprises et les consommateurs adopteront avec succès l’essor de l’intelligence artificielle, en particulier de l’IA générative.
Certaines entreprises peuvent tenter de transformer leurs initiatives CX sans accomplir la tâche difficile d’éliminer les préjugés, de garantir la protection des données et d’offrir une transparence 24 heures sur 24.
Cependant, cet effort décidera précisément de la manière dont les gens (vos employés ou vos clients) croiront dans l’incroyable pouvoir de transformation de l’IA et permettront à votre organisation d’obtenir un retour sur investissement maximal grâce aux expériences client de l’IA.
Ensuite, lisez le livre blanc d'AWS sur l'IA et le ML démocratisés, opérationnalisés et responsables pour les chefs d'entreprise. Veuillez cliquer sur les boutons de réseaux sociaux en haut pour partager cet article avec votre réseau.