ChatGPT y estafas de inteligencia artificial para tener cuidado y evitar

Publicado: 2023-05-29

Desde que se lanzó ChatGPT en noviembre del año pasado, ha demostrado ser infinitamente útil, con trabajadores de todo el mundo encontrando formas innovadoras de aplicar la tecnología todos los días. Sin embargo, tal es el poder de las herramientas de IA que también pueden usarse para fines insidiosos, como escribir scripts de malware y correos electrónicos de phishing.

Además de utilizar inteligencia artificial para orquestar estafas, en los últimos seis a ocho meses, se ha visto a piratas informáticos aprovechando el tema candente para extorsionar a las personas y robarles su información a través de oportunidades de inversión falsas y aplicaciones fraudulentas.

Las estafas de IA se encuentran entre las más difíciles de identificar, y muchas personas no invierten en herramientas como el antivirus Surfshark , que advierte a los usuarios cuando están a punto de ingresar a sitios web sospechosos o descargar una aplicación sospechosa. Por lo tanto, hemos elaborado esta guía de todas las tácticas comunes que se han observado en la naturaleza recientemente. Con todo, en este artículo, cubrimos:

  • Estafas de IA: ¿Qué tan comunes son?
  • Estafas de phishing asistidas por IA
  • Estafas de clonación de voz de IA
  • Aplicaciones falsas de ChatGPT
  • Sitios web falsos de ChatGPT
  • Estafas de inversión de IA
  • Estafas de IA: solo van a empeorar

Estafas de IA: ¿Qué son y qué tan comunes son?

Como mencionamos en la introducción de este artículo, las "estafas de IA" pueden referirse a dos géneros diferentes de estafas, cuyos ejemplos han surgido regularmente durante 2023.

En las estafas asistidas por IA , la inteligencia artificial ayuda al estafador a cometer la estafa, como escribir el texto de un correo electrónico de phishing. En general, las estafas de IA , el pirata informático está aprovechando la popularidad y la naturaleza de la IA como un tema para intrigar a los objetivos curiosos, como una estafa de la aplicación ChatGPT falsa.

El DFPI de California ha registrado un aumento en las estafas de inversión de IA, mientras que las empresas de seguridad cibernética como McAfee han observado un aumento en las estafas de clonación de voz de IA en los últimos meses.

El lanzamiento explosivo de ChatGPT también condujo a la creación de una ola de dominios maliciosos, que también se analizará en este artículo.

Recientemente, el cofundador de Apple, Steve Wozniak, signatario reciente de una carta que pide una pausa en el desarrollo de la IA , advirtió que la inteligencia artificial hará que las estafas sean mucho más difíciles de detectar y permitirá que los actores maliciosos suenen cada vez más convincentes. La era de las estafas asistidas por IA está aquí.

Al igual que el ransomware como servicio redujo el nivel de capacidad técnica necesaria para atacar a una empresa, las herramientas de IA como ChatGPT significan que casi cualquier persona puede sonar convincente, por lo que, en teoría, un grupo demográfico más grande ahora puede orquestarlas de manera efectiva.

Estafas de phishing asistidas por IA

Las estafas de phishing han existido durante años: los estafadores envían correos electrónicos o mensajes de texto haciéndose pasar por una empresa legítima, como Microsoft, en un intento de que haga clic en un enlace, lo que lo llevará a un sitio web malicioso.

A partir de ahí, un actor de amenazas puede inyectar malware en su dispositivo o robar información personal, como una contraseña. Históricamente, una de las formas más sencillas de detectarlos han sido los errores ortográficos y gramaticales que una empresa tan prestigiosa como Microsoft simplemente no haría en un correo electrónico oficial a sus clientes.

En 2023, sin embargo, con un simple aviso, ChatGPT puede generar una copia limpia y fluida que no contenga errores ortográficos. Esto hace que sea mucho más difícil distinguir entre la correspondencia legítima y los ataques de phishing.

Si le pide explícitamente a ChatGPT que cree un correo electrónico con el propósito de phishing, el chatbot se niega a hacerlo. Sin embargo, le pedimos a ChatGPT que produjera dos tipos diferentes de correos electrónicos que podrían usarse como plantilla para una estafa de phishing y, sorprendentemente, parece que este tipo de solicitudes no están bloqueadas según sus reglas de contenido:

Protéjase de las estafas de phishing de IA

Si recibe un correo electrónico que parece ser de una empresa legítima, pero está tratando de inyectar un sentido de urgencia en su toma de decisiones (como pedirle que pague una multa o iniciar sesión en su cuenta para evitar que se elimine), trate con extrema precaución. Esta es una táctica típica de phishing.

Recuerde, si cree que es muy probable que el correo electrónico sea genuino, siempre puede abrir una nueva línea de comunicación con la persona o la empresa.

Por ejemplo, si recibe un correo electrónico de aspecto sospechoso de su banco que dice que un tercero no autorizado ha accedido a su cuenta, no responda al correo electrónico; simplemente comuníquese con el equipo de servicio al cliente del banco usted mismo, utilizando el número o la dirección que figura en su página web.

Estafas de clonación de voz de IA

Las estafas de AI Voice son un tipo de estafa asistida por IA que ha estado en los titulares en los últimos meses. Una encuesta global de McAfee descubrió recientemente que el 10 % de los encuestados ya habían sido atacados personalmente por una estafa de voz de IA. Otro 15% informó que conocía a alguien que había sido atacado.

El 11% de las víctimas de EE. UU. que perdieron dinero durante las estafas de clonación de voz de IA fueron estafadas con $ 5,000- $ 15,000.

En las estafas de voz de IA, los actores maliciosos eliminarán los datos de audio de la cuenta de redes sociales de un objetivo y luego los ejecutarán a través de una aplicación de texto a voz que puede generar contenido nuevo con el estilo del audio original. Se puede acceder a este tipo de aplicaciones en línea de forma gratuita y tienen usos legítimos no nefastos.

El estafador creará un correo de voz o una nota de voz que describa a su objetivo en apuros y con una necesidad desesperada de dinero. Esto luego se enviará a los miembros de su familia, con la esperanza de que no puedan distinguir entre la voz de su ser querido y una versión generada por IA.

Protéjase de las estafas de voz de AI

La Comisión Federal de Comercio (FTC, por sus siglas en inglés) aconseja a los consumidores que mantengan la calma si reciben correspondencia que pretende ser de un ser querido en apuros y que intenten marcar el número del que recibieron la llamada para confirmar que en realidad es real.

Si cree que está en esta posición y no puede llamar al número, intente con el número de teléfono normal de la persona en cuestión. Si no obtiene una respuesta, intente verificar su paradero poniéndose en contacto con personas cercanas a ellos, y verifique aplicaciones como Find My Friends si las usa, para ver si están en un lugar seguro.

Si no puede verificar su paradero, es crucial que se comunique con la policía de inmediato. Si descubre que es una estafa, asegúrese de informarlo directamente a la FTC.

Estafas fraudulentas de la aplicación ChatGPT

Al igual que cualquier otra moda tecnológica importante, si la gente habla de ella, y lo que es más importante, la buscan, los estafadores la aprovecharán para fines nefastos. ChatGPT es un excelente ejemplo de esto.

Un informe reciente de Sophos encontró una gran cantidad de aplicaciones adyacentes a ChatGPT que ha denominado "fleeceware". Las aplicaciones de Fleeceware proporcionan un programa gratuito con funcionalidad limitada y luego bombardean a los usuarios con anuncios en la aplicación hasta que se registran para una suscripción demasiado cara.

Según la firma de ciberseguridad, "usando una combinación de publicidad dentro y fuera de las tiendas de aplicaciones y reseñas falsas que juegan con los sistemas de clasificación de las tiendas, los desarrolladores de estas aplicaciones engañosas pueden atraer a los usuarios de dispositivos desprevenidos para que las descarguen".

Una aplicación falsa de ChatGPT llamada Genie, que ofrece suscripciones de $7 a la semana o $70 al año, ganó $1 millón en un período mensual, según SensorTower. Otros han ganado decenas de miles de libras. Otro, llamado "Chat GBT" en la tienda de Android, se nombró específicamente en el informe de Sophos:

Aplicación de chat GBT

(Crédito de la imagen: Sophos)

Según la firma de ciberseguridad, las características "pro" por las que los usuarios terminan pagando una suma considerable son "esencialmente las mismas" que la versión gratuita. También informan que, antes de que se retirara la aplicación, la sección de reseñas estaba plagada de "comentarios de personas que descargaron la aplicación y descubrieron que no funcionaba, ya sea que solo mostraba anuncios o no respondía a las preguntas cuando estaba desbloqueada".

Protégete de las estafas falsas de la aplicación ChatGPT

La forma más sencilla de asegurarse de no incurrir en este tipo de tarifas de suscripción, o descargar malware no deseado, es simplemente no descargar las aplicaciones. Los usuarios de iPhone ahora pueden descargar la aplicación oficial ChatGPT, que se lanzó recientemente. Será intrigante ver si esto marca la desaparición de las aplicaciones falsas de ChatGPT que actualmente pueblan la App Store.

Alternativamente, tanto los usuarios de iOS como los de Android pueden agregar un enlace web de ChatGPT a su pantalla de inicio, y si es un usuario de iPhone, puede crear un acceso directo de Siri que lo llevará directamente a ChatGPT en la web. Hay poca diferencia práctica entre el acceso directo de la pantalla de inicio y una aplicación nativa en este contexto.

Sitios web falsos de ChatGPT

Junto con las aplicaciones falsas de ChatGPT, también hay un montón de sitios web falsos de ChatGPT, que aprovechan el enorme volumen de búsqueda en torno al término.

En febrero de 2023, el usuario de Twitter Alvosec identificó cuatro dominios que distribuían malware con un nombre relacionado con ChatGPT:

Algunos informes han señalado que los sitios web falsos de ChatGPT han estado presentando el chatbot de OpenAI como una aplicación de Windows descargable, en lugar de una aplicación en el navegador, lo que les permite cargar malware en los dispositivos.

Cómo protegerse de los sitios web falsos de ChatGPT

Recuerde, ChatGPT es un producto OpenAI, y la única forma de acceder al chatbot es a través de la aplicación móvil o específicamente a través de su dominio. “ChatGPT[.]com”, por ejemplo, no tiene nada que ver con el ChatGPT legítimo y real, y no puede descargar ChatGPT como si fuera un cliente de software.

Por extraño que parezca, la URL de la página de destino legítima de registro/inicio de sesión de ChatGPT ni siquiera tiene la palabra "ChatGPT": https://chat.openai.com/auth/login.

También puede registrarse a través del blog de OpenAI (https://openai.com/blog/chatgpt), pero nuevamente, esto es parte del dominio de OpenAI. Si alguien le envía un enlace a un sitio de ChatGPT que no conduce a una de las direcciones anteriores, le recomendamos que no haga clic en él y navegue al sitio legítimo a través de Google.

Estafas de inversión de IA

Al igual que las criptomonedas, los estafadores están aprovechando la exageración en torno a la IA, así como la tecnología en sí misma, para crear oportunidades de inversión falsas que parecen genuinas.

"TeslaCoin" y "TruthGPT Coin" se han utilizado en estafas, aprovechando el rumor de los medios sobre Elon Musk y ChatGPT y presentándose como oportunidades de inversión de moda.

El Departamento de Innovación y Protección Financiera de California alega que una empresa llamada Maxpread Technologies creó un CEO falso generado por IA y lo programó con un guión que alentaba a los apostadores a invertir (en la foto a continuación). La empresa ha recibido una orden de desistimiento y abstención.

Michael Vens, presunto director general de IA

(Crédito de la imagen: coinstats.app)

Forbes informa que otra compañía de inversión, Harvest Keeper, que según el DFPI se derrumbó en marzo, contrató a un actor para que se hiciera pasar por su director ejecutivo y poder conquistar a los clientes entusiasmados. Esto ilustra hasta dónde llegan algunos estafadores para asegurarse de que su discurso sea lo suficientemente realista.

Protéjase de las estafas de inversión de IA

Si alguien que no conoce se comunica con usted directamente con oportunidades de inversión, trate sus consejos con extrema precaución. Las oportunidades de inversión que valen la pena no tienden a caer en el regazo de las personas de esta manera.

Si suena demasiado bueno para ser verdad y alguien le ofrece rendimientos garantizados, no le crea. Los rendimientos de las inversiones nunca están garantizados y su capital siempre está en riesgo.

Si usted es alguien que invierte regularmente en empresas, entonces sabrá la importancia de hacer su diligencia debida antes de desprenderse de su dinero ganado con tanto esfuerzo. Recomendamos aplicar un nivel de escrutinio aún mayor a las posibles inversiones en IA, teniendo en cuenta el alboroto en torno a los productos relacionados y la prevalencia de las estafas.

Estafas de IA: solo van a empeorar

En 2022, los consumidores de EE. UU. perdieron la enorme cantidad de $8800 millones por estafas, y es poco probable que 2023 sea diferente. Los períodos de inestabilidad financiera a menudo también se correlacionan con aumentos en el fraude y, a nivel mundial, muchos países están luchando.

Actualmente, la inteligencia artificial es una mina de oro para los estafadores. Todo el mundo habla de ello, pero pocos saben realmente qué es qué, y las empresas de todas las formas y tamaños están lanzando productos de IA al mercado.

En este momento, la exageración en torno a la IA lo convierte en el tema más descargable, invertible y en el que se puede hacer clic en Internet. Proporciona la cobertura perfecta para los estafadores.

Es importante mantenerse al día con las últimas estafas que circulan, y dado que la IA hace que sean mucho más difíciles de detectar, esto es aún más importante. La FTC, el FBI y otras agencias federales emiten advertencias con regularidad, por lo que se recomienda encarecidamente seguirlas en las redes sociales para obtener las últimas actualizaciones.

Sin embargo, también recomendamos comprar una VPN con detección de malware, como NordVPN o Surfshark . Ambos ocultarán su dirección IP como una VPN estándar, pero también lo alertarán sobre sitios web sospechosos que acechan en las páginas de resultados de la Búsqueda de Google. Equiparse con tecnología como esta es una parte importante para mantenerse seguro en línea.