Ciberdelincuentes reciben hasta u$s 20.000 por videos deepfake de un minuto en la Darknet

Ciberdelincuentes reciben hasta u$s 20.000 por videos deepfake de un minuto en la Darknet
En la era digital actual, el riesgo de ser víctima de deepfakes es cada vez mayor.

Kaspersky alerta sobre el uso de videos manipulados y que son utilizados para fines maliciosos, como fraudes financieros, chantaje político, venganza o acoso.

Los ciberdelincuentes ofrecen continuamente sus servicios maliciosos en la Darknet, incluida la creación de videos deepfakes, donde el rostro o cuerpo de una persona ha sido alterado digitalmente para que parezca otra. Éstos no sólo representan un riesgo para la reputación y privacidad de los usuarios, sino que también son un peligro para sus finanzas, pues el contenido va desde pornografía, hasta la simulación de cryptostreams, utilizados en criptoestafas. El costo de estos videos varía entre US$300 y u$s 20.000 por minuto, según la complejidad del proyecto y la calidad del producto final.

En la era digital actual, el riesgo de ser víctima de deepfakes es cada vez mayor, ya que los estafadores pueden extraer fácilmente videos e imágenes de sus objetivos potenciales para manipularlos y utilizarlos para fines maliciosos, como fraudes financieros, chantaje político, venganza o acoso. Sin embargo, la creación de deepfakes de alta calidad requiere conocimientos técnicos y de un software avanzado, por lo que quienes buscan crear contenido multimedia falso recurren a estos servicios en la Darknet.

Los expertos de Kaspersky han estudiado constantemente los foros de esta red para conocer mejor su funcionamiento, así como el de la industria de los deepfakes, y descubrieron que existe una demanda tan significativa de este tipo de contenido que incluso supera la oferta disponible. Los usuarios buscan activamente a personas que puedan crear videos falsos para ellos y, en algunos casos, solicitan que sean de objetivos específicos, como celebridades o figuras políticas.

Por otro lado, una cifra considerable de publicaciones analizadas estuvo relacionada con criptomonedas. Esto debido a que algunos proveedores ofrecen deepfakes de alta calidad para crear Cryptostreams o sorteos de criptomonedas falsos, los cuales son estafas populares en las que los ciberdelincuentes recaudan criptomonedas mediante la promoción de regalos falsos.

Para crear los deepfakes, los estafadores utilizan imágenes de famosos o mezclan videos antiguos para hacer transmisiones en vivo en redes sociales, donde muestran una página prediseñada en la que piden a las víctimas transferir entre 2.500 y 1.000.000 XRP, prometiendo duplicar cualquier pago que se les envíe. Como resultado, las víctimas de estas estafas pueden perder entre u$s 1.000 y u$s 460.000.

Además del hecho de que los deepfakes puedan utilizarse para el fraude financiero, también pueden causar un gran problema para la privacidad. Resulta preocupante observar que algunos creadores de deepfakes están ofreciendo sus servicios para crear videos pornográficos falsos, así como tutoriales que incluyen lecciones sobre cómo seleccionar el material de origen e intercambiar rostros para lograr una falsificación convincente. Desafortunadamente, estos videos pueden utilizarse para victimizar y chantajear a personas, causándoles graves daños emocionales e incluso pérdidas económicas.

Los ciberdelincuentes utilizan cada vez más los deepfakes para llevar a cabo diversas estafas, como el fraude con criptomonedas, o evadir la seguridad biométrica. El hecho de que exista una gran demanda por estos servicios de creación de deepfakes también indica que los individuos y grupos con intenciones maliciosas están dispuestos a pagar importantes sumas de dinero para adquirir este tipo de vídeos. A medida que la tecnología siga mejorando y haciéndose más accesible, es crucial que las empresas y los particulares tomen medidas para protegerse de las estafas y los ataques relacionados con deepfakes“, comentó Vladislav Tushkanov, científico jefe de datos en Kaspersky.

La vigilancia continua de la Darknet proporciona información valiosa sobre la industria de los deepfakes, permitiendo a los investigadores descubrir nuevas herramientas, servicios y mercados utilizados para su creación y distribución, además de mejorar su comprensión sobre el panorama de amenazas en evolución. El servicio de Digital Footprint Intelligence de Kaspersky incluye este tipo de supervisión para ayudar a sus clientes a mantenerse a la vanguardia cuando se trata de amenazas relacionadas con deepfakes.

Kaspersky ofrece las siguientes recomendaciones para estar protegido de las amenazas relacionadas con los deepfakes:

  • Revisar las prácticas de ciberseguridad implementadas en tu organización, no sólo en términos de software, sino también en cuanto a habilidades informáticas desarrolladas. Utilizar Kaspersky Threat Intelligence para adelantarte al panorama actual de amenazas.
  • Capacitar a los empleados para que entiendan qué son los deepfakes, cómo funcionan y cuáles son los retos que pueden presentar. Asimismo, realizar campañas continuas de concienciación y educación para enseñarles a detectar una deepfake. Con Kaspersky Automated Security Awareness Platform, los colaboradores son capaces de mantenerse al día de las amenazas más recientes y aumentar los niveles de alfabetización digital.
  • Utilizar fuentes de noticias de buena calidad. El analfabetismo informativo sigue siendo un factor crucial para la proliferación de deepfakes.
  • Tener buenos protocolos como “confiar, pero verificar”. Una actitud escéptica ante los mensajes de voz y los videos no garantizará que la gente nunca sea engañada, pero puede ayudar a evitar muchas de las trampas más comunes.
  • Conocer las principales características de los videos deepfake para evitar convertirte en una víctima: movimientos bruscos, cambios en la iluminación de un fotograma a otro, cambios en el tono de la piel, parpadeo extraño o ausencia total de parpadeo, labios mal sincronizados con el habla, artefactos digitales en la imagen, así como videos intencionalmente codificados en baja calidad y con mala iluminación.

Ultimas Noticias

Dejar su comentario sobre esta nota

Su direccion de correo no se publica. Los datos obligatorios se encuentran identificados con un asterisco (*)