Los ciberdelincuentes siempre están buscando nuevos métodos de estafa con los que intentar engañarnos. Para ello, pueden valerse de herramientas tecnológicas que están al alcance de todos, como determinados programas informáticos. inteligencia artificial (AI). Por ejemplo, pueden crear vídeos En el cual manipular el voz y el rostro De los famosos decir cosas que, en realidad, nunca han dicho o Clonar la voz de nuestros seres queridos Durante una llamar por teléfono con el objetivo de hacerse cargo de nuestra Datos personales y nuestro dinero.
Como Expertos consultados por Maldito.esEl problema no son las herramientas de IA en sí, sino Los usos fraudulentos que le dan los estafadores. Para Protégenos de contenido falso generado con esta tecnología, la Instituto Nacional de Ciberseguridad (INCIBE) recomienda Compruebe siempre la fuente de información y detenerse a Analizar la calidad del contenido que nos están intentando hacer pasar.
Vídeos manipulados de famosos para promocionar inversiones falsas o productos “milagrosos” falsos
En Maldito.es Hemos estado advirtiendo sobre el Estafas que utilizan caras conocidas Para colarlopor ejemplo, con Inversiones falsas en criptomonedas o con Productos falsos “milagrosos” Esa promesa de hacerte perder pesoAhora, utilizando herramientas de inteligencia artificial, los estafadores pueden ir un paso más allá y manipular declaraciones de personajes públicos en vídeos, clonando su voz cualquiera cambiando los movimientos de su cara.
Por ejemplo, ha estado circulando un mensaje en las redes sociales video manipulado En el cual el presentador Susana Griso Supuestamente dice que el empresario Florentino Pérez ha ganado grandes sumas de dinero con una supuesta plataforma de inversión. De esta forma, los cibercriminales pretenden engañar a sus víctimas utilizando la imagen de personajes públicos que generan confianza. Un lector de Maldito.es, tras ver otro vídeo manipulado del presidente del Real Madrid, invirtió 250 euros En una supuesta entidad que el empresario recomendó.
Clonando la voz de nuestros seres queridos en llamadas telefónicas (incluso videollamadas)
Los ciberdelincuentes están utilizando inteligencia artificial para Imitar la voz de nuestros conocidos en llamadas telefónicasEs decir, consiguen reproducir la voz de una persona concreta y hacer decir cosas que no ha dicho en ese contextoPor ejemplo, el Instituto Nacional de Ciberseguridad (INCIBE) compartió el caso de un usuario que recibió una llamada de un número desconocido, en la que escuchó la voz de su marido diciéndole: “¡Hola! No te puedo llamar, mándame un mensaje a este número (…)”. Tras contactar con su pareja se dio cuenta de que Su identidad había sido robada.
En Maldito.es Te contamos el caso de Ana, una lectora que fue víctima de un estafa de amor y perdió $7,000. El estafador Imitaba al actor británico James Norton e incluso le envió un audio en el que clonó su voz.
El Mossos d’Esquadra También han alertado sobre el uso incipiente de estos “falsificaciones profundas “audio” para “Obtener datos personales o transferencias de dinero«. De hecho, Los investigadores han detectado intentos de estafa con voces clonadas en el ambiente de trabajo.
Hay Herramientas de IA Accesible a los estafadores y que son capaces de clonar voces de unos pocos unos minutos de audio. De hecho, según los expertos consultados por Maldito.es, Los estafadores también pueden hacerse pasar por personas famosas y celebridades a través de videollamadas. En tiempo realPueden generar un mapa de la cara del estafador y superponer una imagen generada por IA encima.
Perfeccionando las estafas con herramientas de IA
Los ciberdelincuentes también están utilizando Los chatbots de inteligencia artificial conversacional, como ChatGPT, para Perfecciona sus estafas. Aunque la herramienta desarrollada por OpenAI tiene una Una serie de limitaciones para evitar que dé respuestas que podrían ser peligrosas.Los estafadores saben cómo eludir las restricciones de seguridad.
Por ejemplo, si le pedimos a chatGPT que nos ayude a desarrollar un virus informático Para obtener los datos bancarios de los usuarios, la máquina nos dirá que no puede ayudarnos y que es una actividad ilegal.
Sin embargo, los ciberdelincuentes pueden utilizar ChatGPT para Escribe mejores correos electrónicos Suplantación de identidad (phishing) o para elaborar código de páginas web fraudulentas o de programas maliciosos más rápidamente. Incluso nombres como Gusano GPT cualquiera FraudeGPTChatbots supuestamente diseñados para ayudar a los estafadores para cometer delitos informáticos, sin restricciones. Aunque no está claro si se trata de chatbots que realmente existen y funcionan, o si son en sí mismos una estafa.
Además, INCIBE señala otros usos de la IA por parte de los cibercriminalescomo Uso de chatbots para hacerse pasar por agentes de soporte técnico e intentar engañar a los usuarios para que proporcionen acceso remoto a sus dispositivos o información personal.
La IA como señuelo para atraer víctimas
Los cibercriminales no solo utilizan la inteligencia artificial como herramienta en sus ataques, sino que también… Lo utilizan como señuelo para hacernos caer en sus trampas.. El empresa de ciberseguridad ESET ha advertido que los cibercriminales están Promoción de herramientas gratuitas de inteligencia artificial generativa en las redes sociales para redirigir a los usuarios a páginas web fraudulentas. En lugar de un programa de IA, la víctima descarga en su computadora Programa malicioso con el que los atacantes pueden acceder Información confidencialcomo contraseñas o datos bancarios.
Consejos para evitar ser engañado por contenido generado con inteligencia artificial
A continuación se ofrecen algunos consejos para detectar posibles contenidos falsos generados por IA:
-
Verifique la fuenteSi encuentra contenido que cree que puede estar manipulado, asegúrese de que provenga de una “fuente confiable o de buena reputación” y verifique si “otros medios o usuarios confiables” se han hecho eco de la misma información, según INCIBE recomienda.
-
Analizar la calidad del contenido Dependiendo del formato:
-
Si es un videoPreste atención a si el La cara se ve borrosa o si el bordes de la cara No están bien definidos. Observa con atención si el rasgos faciales No son naturales o son invisibles, borrosos o parecen repetidos. Aquí encontrarás más consejos. Además, como indica INCIBE, es posible que la sonido No coincide bien con lo que muestra la imagen, presentando desfases o variaciones de tono.
-
Si es un audioINCIBE aconseja analizar si la tono de la voz de la persona y la ritmo de discurso son consistentes. También puedes mirar el ruido de fondo:Si no hay ruido o si escuchas sonidos extraños, podría tratarse de una manipulación. Y piensa si lo que estás escuchando es lo que la persona diría normalmente en ese momento. contexto.
Además, Aquí hay una lista de herramientas Útil para intentar detectar contenido generado por IA.Si has sido víctima de una estafa en la que crees que se han utilizado herramientas de IA, puedes contarnos tu caso a través de nuestro buzón de correo de estafa ((correo electrónico protegido)).