Una guía rápida de 4 estafas de IA de tendencia que se deben evitar en 2024

Publicado: 2024-07-16

La era de la IA ha marcado el comienzo de muchos cambios en el mundo online. Desde contenido generado por IA en cada plataforma de redes sociales hasta chatbots de IA en cada software empresarial, la tecnología está evolucionando a una velocidad vertiginosa.

Sin embargo, esa evolución conlleva algunos riesgos graves. De hecho, los estafadores se han apresurado a adoptar la tecnología en sus actos nefastos, lo que ha llevado a un aspecto completamente nuevo del fraude en Internet al que debemos estar atentos.

En esta guía, conocerá algunas de las estafas más recientes impulsadas por IA, así como algunos consejos sobre cómo evitarlas en el futuro.

Estafas de IA en 2024

Las estafas han aumentado notablemente en 2024, lo que significa que comprender qué tipo de amenazas existen será vital para protegerse en línea. Estas son algunas de las estafas de IA a las que debería estar atento en la era moderna:

  • falsificaciones profundas
  • Clonación de voz
  • Estafas de phishing
  • Estafas de listado

Logotipo de tiburón surf 🔎 ¿Quieres navegar por la web de forma privada? 🌎 ¿O parecer como si estuvieras en otro país?
Obtenga un enorme 86 % de descuento en Surfshark con esta oferta especial de tech.co. Ver botón de oferta

Estafas falsas

La tecnología deepfake existe desde hace un tiempo. Describe contenido de vídeo que muestra una imagen falsificada de otra persona. Estas manipulaciones digitales se han utilizado para una amplia gama de propósitos, desde estafas hasta información errónea , pero hasta hace poco, la mayoría de ellas eran bastante fáciles de detectar.

Desafortunadamente, ese no es el caso en la era de la IA. La tecnología deepfake ha mejorado drásticamente gracias a la evolución de la tecnología, lo que ha dado lugar a algunas representaciones inquietantemente precisas de personas en línea.

Peor aún, estas semejanzas se utilizan por una amplia gama de razones nefastas. Desde imitadores de celebridades que venden productos falsos hasta amigos personales que piden dinero, las formas en que los estafadores utilizan la tecnología deepfake son muy amplias.

Ejemplos de estafa deepfake

Una de las estafas deepfake más destacadas que afectó a las personas este año fue la que involucra posiblemente a la estrella más grande del mundo en este momento: Taylor Swift. Se vio en línea a la estrella del pop regalando 3.000 productos de utensilios de cocina Le Creuset en un video publicado en las redes sociales. ¿El problema? En realidad, no era Taylor Swift y no había productos de cocina de Le Creuset de los que hablar.

En cambio, el vídeo era una estafa deepfake protagonizada por Taylor Swift , diseñada para robar datos personales e información financiera exigiendo un pequeño cargo por el envío. Por supuesto, los utensilios de cocina nunca aparecen y sus datos personales quedan comprometidos para siempre.

Estafas de clonación de voz

Al igual que los videos deepfake, la clonación de voz es un medio popular y terriblemente inquietante para estafar a las personas y quitarles su dinero. La práctica implica replicar la voz de alguien que conoce, generalmente un ser querido cuya voz reconocería de inmediato. Luego, pueden aprovechar su evidente confianza pidiéndole dinero, información personal o prácticamente cualquier cosa que le daría a ese amigo o familiar.

El mayor riesgo de esta estafa es la precisión con la que la IA ha realizado el proceso de replicación de voz. Las personas que fueron víctimas de estafas de clonación de voz señalaron después que “nunca dudaron ni por un segundo” de que estaban hablando con su ser querido por teléfono. Y teniendo en cuenta que algunas encuestas han descubierto que muy pocos pueden reconocer la diferencia en las estafas de clonación de voz , este tipo de cosas deberían estar en su radar en todo momento.

Ejemplo de estafa de clonación de voz

Obviamente, las estafas con sonidos parecidos a celebridades no se reproducirían tan bien como los videos deepfake, pero las estafas de clonación de voz suelen seguir una ruta diferente.

El más común es el ángulo de emergencia familiar, en el que un miembro de la familia, generalmente un hijo o una hija, llama a alguien y le dice que está en problemas. Ya sea un accidente automovilístico, un arresto u otra crisis que requeriría algún tipo de solución financiera. Una vez que hayas pagado para que se resuelva la emergencia inexistente, no tendrás recursos para recuperarla.

Estafas de phishing

Las estafas de phishing han sido un problema común en Internet durante mucho tiempo. Los piratas informáticos y estafadores que intentan que usted proporcione información personal o datos financieros con correos electrónicos falsos haciéndose pasar por empresas acreditadas es una práctica tan antigua como el tiempo en este momento.

Ahora, sin embargo, la IA hace que sea mucho más fácil realizar el trabajo. En la mayoría de los casos, estos correos electrónicos y mensajes de texto de phishing están plagados de errores ortográficos y otros indicadores clave. Sin embargo, estas estafas de phishing son cada vez más difíciles de detectar, gracias a que la IA proporciona un poco más de poder para generar más contenido aparentemente legítimo.

Peor aún, las plataformas de IA generativa facilitan la creación de cada vez más correos electrónicos de phishing. Claro, muchos de estos chatbots tienen medidas de seguridad para evitar ese tipo de cosas, pero hemos descubierto que unos pocos comandos simples crean una laguna que le permite generar contenido de phishing de manera fácil y efectiva.

Ejemplo de estafa de phishing

Una de las estafas de phishing más comunes que circulan en este momento es un mensaje de texto que dice que su paquete de UPS se ha retrasado y que necesita confirmar sus datos para obtener acceso. Cuando hace clic en el enlace proporcionado, accede a un sitio web de UPS de aspecto sorprendentemente realista en el que debe completar un formulario para acceder a su paquete. Por supuesto, su paquete no se pierde, pero sí sus datos financieros y su información personal.

La IA no ha cambiado drásticamente las estafas de phishing, pero las ha hecho más frecuentes y más difíciles de detectar. Los generadores de contenido los hacen más precisos y fáciles de crear, por lo que si ve un aumento significativo en los próximos años, tenga cuidado al ingresar su información.

Estafas de listado

Al igual que algunas de las otras estafas que hemos cubierto aquí, las estafas de listado no son nada nuevo, pero la IA les ha dado a los estafadores la capacidad de producirlas a una velocidad y volumen en una escala que nunca antes habíamos visto. Como la mayoría de las estafas, es un juego de números y solo hace falta que una persona responda para que valga la pena.

Las estafas de listado cubren todo lo que está en venta, desde productos electrónicos hasta automóviles y hogares. Generar listados falsos ahora es fácil, gracias a lo convincentes que pueden ser los resúmenes de texto de IA. Algunos estafadores llegan incluso a generar imágenes de IA de los productos en cuestión, creando una "imagen única", lo que significa que no aparecerá en una búsqueda de imágenes de Google como robada de otro lugar (anteriormente, una forma bastante buena de identificar una estafa). Una vez que el estafador tenga su dinero, nunca verá el producto e incluso podría exponerse a más estafas por parte del "vendedor".

No son sólo los productos los que están expuestos a estafas de cotización. El año pasado se produjo un gran aumento en el número de estafas en las listas de empleo, y su mayor prevalencia se atribuyó a la IA. Estas estafas prometen trabajos que son demasiado buenos para ser verdad, antes de exigir que se envíe dinero para asegurar el puesto o con fines de capacitación. La IA ayuda a crear sitios web empresariales realistas, fotografías del personal e incluso puede utilizarse para entrevistas falsas. Lea nuestra guía para evitar estafas desde el trabajo desde casa .

Ejemplos de estafa de listado

Una de las estafas de listados de IA más comunes es la venta o alquiler de propiedades. Los estafadores crean anuncios realistas de propiedades, generalmente en áreas deseables a precios competitivos. Luego, te pedirán dinero por adelantado, como un depósito o varios meses de alquiler. Es una estafa lucrativa, ya que suelen hablar con varias víctimas a la vez.

Lo particularmente nefasto de esta estafa es que la IA permite al estafador generar documentos de propiedad razonablemente realistas, lo que podría convencer a la víctima de que la transacción es legítima. También podrían solicitar información personal y dinero, dejando sus datos comprometidos.

Cómo evitar estafas de IA

Ya ha dado el primer paso para evitar las estafas de IA , y eso es comprender qué tipo de estafas existen realmente. Así es, con solo abrir y leer este artículo, estará en el camino hacia una existencia en línea más segura. A continuación se ofrecen otros consejos para evitar estafas de IA:

  • Confirme siempre : ya sea que se trate de un deepfake o de una estafa de clonación de voz, encuentre una manera de confirmar la fuente de información. Una simple búsqueda en Google o una llamada a un ser querido puede ahorrarle muchos conflictos.
  • Tenga cuidado con lo que publica : muchos estafadores utilizan datos de las redes sociales para dirigirse a personas vulnerables o entrenar modelos con su voz.
  • Denuncia la estafa : puede que no te ayude a evitarla, pero al denunciar la estafa a las autoridades correspondientes, puedes estar seguro de que futuros intentos fracasarán, sin importar cuánta IA utilicen.

Más allá de eso, es importante ser un poco escéptico cuando se trata de proporcionar información financiera o datos personales en línea o por teléfono. La IA está haciendo que estas estafas sean infinitamente más convincentes, por lo que tener un poco de escepticismo saludable al abordar estas transacciones puede ser de gran ayuda para mantenerte seguro.