Asegurar la experiencia del cliente impulsada por la IA: integrar la IA con la ciberseguridad
Publicado: 2024-01-24Hoy en día, las organizaciones están adoptando e integrando progresivamente la inteligencia artificial a gran escala, cambiando su forma de trabajar a diario.
La IA puede transformar sus operaciones de servicio al cliente a largo plazo y, al mismo tiempo, ofrecer a su empresa nuevas y fascinantes oportunidades. Una nueva investigación indica que las personas que podían utilizar herramientas de inteligencia artificial (IA) generativa obtuvieron resultados un 14% mejores que aquellos que no lo hacían, y la IA en la tecnología de marketing ahora es algo en juego.
Sin embargo, persiste una gran pregunta: ¿cómo planea abordar las preocupaciones en torno a la seguridad y la confianza de la información?
Recuerde, las empresas están ansiosas por aprovechar el potencial de la IA mientras atraviesan el complejo panorama de la utilización de datos segura y ética. Esto hace que la ciberseguridad de la IA sea una consideración clave, incluso cuando se mejoran las experiencias de los clientes.
La intersección de la IA y la ciberseguridad en la gestión de datos de clientes
El 73% de los profesionales de ventas, servicios, marketing y comercio encuestados recientemente dijeron que la IA generativa conlleva nuevos riesgos de seguridad. Más del 60% de quienes pretenden implementar la IA deben descubrir cómo hacerlo de forma segura y al mismo tiempo salvaguardar los datos confidenciales. Los riesgos mencionados anteriormente son especialmente significativos en sectores fuertemente regulados, como los servicios financieros y de salud.
A medida que los clientes interactúan con empresas a través de diversas plataformas en un mundo cada vez más interconectado, es innegable que las organizaciones acumulan una gran cantidad de información sobre los clientes.
Sin embargo, están legalmente obligados a proteger los datos que han recopilado, como información de identificación personal (PII), información de salud personal (PHI) e información financiera de identificación personal (PIFI), toda la cual podría usarse para identificar o localizar. un individuo.
Una violación de la seguridad no es sólo un incidente de incumplimiento, sino que también erosiona de forma indeleble la confianza del cliente y la buena voluntad del mercado. Por ejemplo, la empresa de servicios financieros Equifax tardó casi un año en recuperarse en el mercado después de permitir que los datos de sus clientes se vieran comprometidos.
Este desafío se agrava aún más en el contexto de la IA generativa. Gen AI produce nuevos datos contextualmente similares a los datos de entrenamiento; por lo tanto, no se debe incluir información confidencial en este material.
La posibilidad de generar contenido que viole involuntariamente la PII de un individuo sigue siendo alta si no se centra en la ciberseguridad y la privacidad de la IA.
Riesgos clave de ciberseguridad en los sistemas impulsados por IA que los líderes de marketing deben conocer
Si bien la integración de la IA en las experiencias de los consumidores tiene varios beneficios, plantea varios riesgos de ciberseguridad. Estos son :
1. Preocupaciones sobre la privacidad y la protección de datos
La información personal recopilada, analizada y almacenada puede resultar fundamental para el rendimiento de sus algoritmos de IA. Sin embargo, las divulgaciones ilícitas son posibles en ausencia de medidas de ciberseguridad para la IA. Una instancia de código no probado puede resultar en que un chatbot muestre el historial de compras de un usuario individual a otro usuario mientras participa en una conversación en vivo. Esto infringe significativamente las normas de privacidad.
Un sistema de IA inseguro o débil podría ofrecer a los piratas informáticos abundante información sobre los consumidores. Imagine un escenario en el que es necesario mejorar el cifrado de los datos de los consumidores que almacena o en el que no se han aplicado controles de acceso. Es por eso que el 42% de las marcas considera que equilibrar la ciberseguridad y la satisfacción del cliente será su desafío más importante en 2023.
2. Vulnerabilidad a ataques específicos de IA
A medida que las experiencias de los clientes con IA se vuelven más comunes, los actores maliciosos se quedan ligeramente atrás. Un ejemplo típico de envenenamiento de datos es la manipulación o corrupción de los datos utilizados para entrenar modelos para el aprendizaje automático y el aprendizaje profundo. Este ataque, a veces llamado “envenenamiento de modelos” , intenta comprometer la precisión de los resultados y la toma de decisiones de la IA.
De manera similar, los ataques adversarios pueden amenazar las operaciones de datos de los clientes. Generan conjuntos de datos que parecen estar en buenas condiciones a simple vista, pero conducen a clasificaciones inexactas en un flujo de trabajo de aprendizaje automático. Los piratas informáticos logran esto lanzando un ataque en forma de "ruido" inventado, lo que lleva a una clasificación errónea de AI/ML.
Los ataques de exfiltración agravan la situación. Pueden usarse para robar datos de entrenamiento; por ejemplo, un individuo malintencionado obtiene acceso al conjunto de datos y procede a extraviarlos, transferirlos o desviarlos. Además, a medida que aumenta la previsibilidad de los modelos de IA de generación, las indicaciones específicas podrían dar lugar a la divulgación involuntaria de información adicional.
3. Cumplimiento y desafíos regulatorios
La IA que recibe información de personas con prejuicios latentes podría producir una programación sesgada, lo que generaría un riesgo de incumplimiento y podría perjudicar su desempeño financiero. Por ejemplo, cuando Amazon implementó su marco de inteligencia artificial para la selección de candidatos, el algoritmo demostró un sesgo hacia los currículums presentados por candidatos masculinos.
En el caso de las experiencias de los clientes con IA, piense en un chatbot que se ha entrenado principalmente utilizando datos proporcionados por consumidores que han realizado compras de alto precio, para que pueda responder a consultas sobre productos. El chatbot puede ofrecer descripciones breves y no tan útiles para responder la consulta de un cliente sobre un producto económico y asequible.
La tecnología discriminatoria y sesgada (ya sea intencional o no) puede causar un daño significativo al estado de cumplimiento y al desempeño financiero de una empresa. Además, la IA tiene un enorme potencial para un uso poco ético, lo que significa que las organizaciones podrían tomar decisiones que las expongan a responsabilidades antimonopolio.
Por ejemplo, si una organización decide erróneamente aprovechar la IA para trabajar en decisiones de fijación de precios, podría alterar la sana competencia en el mercado, generando escrutinio regulatorio y posible penalización.
Mejores prácticas para proteger los sistemas de experiencia del cliente de IA
Afortunadamente, superar los desafíos relacionados con la ciberseguridad de la IA no es imposible y, al invertir en las medidas adecuadas, las marcas pueden seguir beneficiándose del poder de la inteligencia artificial en las operaciones de sus clientes.
1. Implementar controles de acceso más sólidos
Las empresas deben configurar controles de acceso basados en roles y procesos de verificación de usuarios para evitar el acceso no autorizado a los registros de clientes y aplicaciones de inteligencia artificial. Esto implica implementar medidas para restringir el acceso, como contraseñas de tiempo limitado, autenticación multifactor y la mayoría de políticas de privilegios menores.
2. Cifre los datos de los clientes en movimiento y en reposo
El cifrado protege los datos en cada etapa de su ciclo de vida: durante su transferencia hacia y desde la aplicación de IA. Por ejemplo, TLS y SSL se utilizan ampliamente en protocolos de tránsito. Para salvaguardar aún más los datos en reposo, las empresas pueden implementar estrategias de cifrado de archivos o de bases de datos, incluidos conjuntos de datos de entrenamiento de IA.
3. Adopte la computación en la nube confidencial
La computación en la nube confidencial puede salvaguardar los datos incluso cuando se procesan; esto lo hace extremadamente importante para las experiencias de los clientes de IA. Estas salvaguardas utilizan estrategias algorítmicas como entornos de ejecución confiables y cifrado homomórfico para garantizar la seguridad y privacidad de los datos, sin importar la etapa de procesamiento.
3. Realice pruebas de detección de toxicidad y conexión a tierra en sus sistemas de IA generativa.
La detección de toxicidad es un método mediante el cual se puede detectar contenido dañino, incluido el discurso de odio y los estereotipos negativos. El uso de un modelo de aprendizaje automático (ML) para analizar y clasificar las respuestas proporcionadas por un LLM garantiza que cualquier resultado, independientemente de la generación, sea productivo desde una perspectiva empresarial.
Además, al "basar" el modelo en datos reales y en el contexto pertinente, la base dinámica guía las respuestas de un LLM con los datos más recientes y precisos. Esto excluye respuestas incorrectas que no estén basadas en la realidad o en hechos o “alucinaciones de IA”.
4. Hacer cumplir una política estricta de retención de datos
Las organizaciones deben conservar los datos de los clientes, como máximo, durante el tiempo necesario para las operaciones de los clientes de BAU. La utilización de una política de retención de datos de los consumidores compensa el riesgo de acceso no autorizado e infracciones de la ciberseguridad de la IA. Esto garantiza el cumplimiento de importantes leyes de protección de datos como GDPR, HIPAA, CCPA y otras, al tiempo que mejora la privacidad.
5. Practique el enmascaramiento al formular conjuntos de datos de entrenamiento de IA
Durante el enmascaramiento de datos se utilizan datos anonimizados en lugar de información sensible y confidencial para salvaguardar los datos privados y cumplir con las normas legales. Al entrenar modelos de IA, el enmascaramiento de datos puede ayudar a determinar que se ha eliminado toda la información de identificación personal, como nombres, números de teléfono y direcciones. Esto no solo ayuda a la ciberseguridad de la IA (al reducir la carga útil para posibles piratas informáticos), sino que también puede reducir el sesgo.
Generar confianza del consumidor en los sistemas de inteligencia artificial
¡Es inimaginable creer que alguna vez la gente desconfiara del comercio electrónico! Antes de la adopción generalizada de una industria de un billón de dólares anuales, muchos consumidores habituales albergaban aprensiones sobre la seguridad de sus datos confidenciales y financieros. Había un déficit de confianza, un factor esencial, en cierto modo intangible (pero vital) para que cualquier idea nueva llegue a buen término.
La confianza determinará hasta qué punto las empresas y los consumidores adoptan con éxito el auge de la inteligencia artificial, específicamente la IA generativa.
Algunas empresas pueden intentar transformar sus iniciativas de CX sin realizar la difícil tarea de eliminar sesgos, garantizar la protección de datos y ofrecer transparencia las 24 horas.
Sin embargo, este esfuerzo decidirá precisamente cómo las personas (sus empleados o sus clientes) creerán en el increíble poder transformador de la IA y obtendrán para su organización el máximo retorno de la inversión (ROI) a partir de las experiencias de los clientes con IA.
A continuación, lea el documento técnico de AWS sobre IA y aprendizaje automático democratizados, operativos y responsables para líderes empresariales. Haga clic en los botones de redes sociales en la parte superior para compartir este artículo con su red.