Tabla de contenidos.
Los desarrolladores continúan lanzando productos de Inteligencia Artificial (IA) a una velocidad alarmante, lo que dificulta que los legisladores y reguladores sigan el ritmo. Si bien muchas son indudablemente aplicaciones útiles, otras plantean graves riesgos de daño cuando están en manos de actores malintencionados. Ya sea que investiguen estafadores, extorsionadores, noticias falsas o acosadores, los detectives serios de fraude cibernético como Cybertrace Es necesario aplicar vigilancia, innovación y previsión. Después de explorar el uso de ChatGPT con fines nefastos, consideremos los deepfakes y la clonación de voz.
Considerando el potencial daño financiero, reputacional y personal que estas tecnologías problemáticas pueden causar, Cybertrace se siente obligado a advertir al público. Nuestros investigadores experimentados se mantienen continuamente a la vanguardia de los avances tecnológicos y crean herramientas innovadoras y personalizadas para atrapar a los ciberdelincuentes. Con experiencia en análisis forense de sitios web, rastreo de criptomonedas y investigaciones de estafa, Cybertrace Ahora también está investigando imágenes, vídeos y audios deepfake para identificar a los responsables. Contacte a nuestro equipo hoy para discutir su caso y obtener la ayuda que necesita.
¿Qué son las imágenes, vídeos y audios deepfake?
Basado en potentes modelos de aprendizaje automático (ML) de IA, un deepfake es una imagen, un vídeo o un audio falsificado digitalmente de una persona que la hace parecer otra persona. Los deepfakes producen imágenes, videos y audio de apariencia y sonido aterradoramente realistas de eventos que nunca tuvieron lugar. Por lo general, los deepfakes se dirigen a celebridades, políticos o figuras públicas, y los primeros ejemplos incluyen al presidente Obama y al Papa Francisco. Esto se debe a que la tecnología detrás de los deepfakes funciona mejor con grandes conjuntos de datos, es decir, abundante material para entrenar el modelo. Sin embargo, con las mejoras continuas en el aprendizaje automático, cualquiera puede convertirse en un objetivo. De hecho, la clonación de voz con IA ahora puede realizarse con tan solo escucharte hablar durante tres segundos. Por eso es cada vez más importante adquirir la capacidad de investigar imágenes, vídeos y audios deepfake. Como siempre, Cybertrace somos pioneros en este (ciber)espacio de investigación.
¿Cómo se hacen los deepfakes?
Curiosamente, los deepfakes explotan dos modelos de aprendizaje automático diferentes: uno crea imágenes, vídeos y audios falsos a partir de los datos disponibles y el otro intenta detectarlos. Cuando este último ya no pueda distinguir si una imagen/video/audio es real o falso, entonces probablemente también engañará a los humanos. En resumen, así es como un Red generativa de adversarios (GAN) opera. No hace mucho tiempo, producir tales deepfakes era dominio exclusivo de los piratas informáticos que vivían en sótanos y de los nerds informáticos con PC para juegos de alta potencia. Hoy en día, cualquier persona con una computadora portátil y conexión a Internet puede generar videos deepfake de apariencia realista de forma gratuita en menos de 30 segundos. Además, la clonación de voz mediante IA solo requiere un clip de audio de tres segundos para que su voz diga lo que su creador desee. De hecho, un artículo reciente de Forbes llamó a todo el proceso "terriblemente fácil', especialmente para aquellos con malas intenciones. La investigación de imágenes, vídeos y audios deepfake nunca ha sido más importante.
[google_adsense_shortcode]
¿Cuáles son los peligros de las imágenes, vídeos y audios deepfake?
Lo que comenzó como entretenimiento inofensivo entre usuarios rápidamente degeneró en codificadores que crearon algoritmos de aprendizaje automático que caras de celebridades transpuestas a videos porno. Como señala una reciente investigación de la ABC 4Esquinas Como lo demuestra, la pornografía no consensuada sigue siendo una de las principales aplicaciones de los deepfakes. Los delincuentes también utilizan la clonación de voz para robar su dinero y su identidad a través de banca telefónica o portales de servicios gubernamentales como Centrelink. Si a eso le sumamos noticias falsas, engaño a los votantes, pagos ilícitos, coartadas falsas, chantaje y terrorismo, ¡obtendremos un cóctel embriagador! No es de extrañar que cada vez más expertos pidan mayores capacidades para investigar imágenes, vídeos y audios deepfake.
Pero más allá de los usos nefastos para actividades delictivas específicas, también hay un problema mayor. Los deepfakes plantean enormes desafíos sociales a nuestra comprensión básica de lo que es real, verdadero y creíble. Dada la fuerte propensión de los seres humanos a creer en nuestros propios oídos y ojos, la evidencia en vídeo y audio tiene gran credibilidad. Esto es tan cierto en aplicación de la ley como ocurre en las elecciones y en la cultura popular.
¿Significan los deepfakes que ya no podemos confiar en nuestros sentidos? ¿La clonación de voz nos hará pensar que los políticos dijeron algo que nunca dijeron? ¿Facilita la divulgación de “noticias falsas”? Con los deepfakes cada vez más difíciles de detectar, incluso para herramientas detectoras, es probable que veamos un empeoramiento de la desinformación política. En este clima, adquirir la capacidad profesional para investigar imágenes, videos y audio deepfake nunca ha sido más importante.
¿Cómo utilizan los ciberdelincuentes imágenes, vídeos y audios deepfake?
Naturalmente, los ciberdelincuentes se han apresurado a adoptar la IA y las imágenes, vídeos y audios deepfake para explotar, desinformar y manipular. En el ámbito de la IA en general, a los expertos les preocupa que los terroristas estén explorando cómo utilizar vehículos sin conductor como armas. Además, los estados hostiles podrían intentar alterar los sistemas controlados por la IA, provocando cortes de energía, embotellamientos de tráfico o averías en la logística de alimentos. Además, los actores maliciosos pueden utilizar imágenes, vídeos y audios falsos para fomentar disturbios civiles y manipular elecciones. Por último, en comparación con las formas tradicionales de delincuencia, los delitos basados en la inteligencia artificial (incluida la clonación de voz) son mucho más sencillos de compartir, repetir o vender. Como resultado, los ciberdelincuentes pueden proporcionar fácilmente “servicios contra el crimen” a cambio de una tarifa o subcontratar las partes más difíciles de su delito digital. Por lo tanto, la investigación de imágenes, vídeos y audios deepfake se ha convertido en una cuestión apremiante para las agencias policiales y de inteligencia de todo el mundo.
¿Qué pasa con los estafadores y defraudadores?
Los actores estatales malintencionados, los terroristas y los sindicatos del crimen no son los únicos que utilizan la IA. De hecho, las imágenes, vídeos y audios deepfake también han permitido a estafadores que antes eran de poca monta aumentar significativamente sus operaciones. Utilizando imágenes y vídeos falsos, los estafadores ahora pueden crear cuentas falsas en aplicaciones de citas para perpetrar estafas de romance. Asimismo, pueden crear vídeos falsos de directores ejecutivos o celebridades respaldando inversiones fraudulentas en criptomonedas. Los estafadores utilizan estos respaldos falsos para manipular a víctimas desprevenidas y robarles el dinero que tanto les costó ganar. Además, los estafadores pueden crear fácilmente imágenes de productos, servicios o reseñas de productos falsos para engañar a las víctimas a través de estafas de venta de autos. En conjunto, existen muchas razones para priorizar la investigación de imágenes, videos y audio deepfake, incluida la clonación de voz.
¿La clonación de voz es un problema?
Como se mencionó anteriormente, la clonación de voz es capaz de recrear la voz de una persona después de sólo tres segundos de escucharla hablar. Lo preocupante es que esto llega en un momento en que los bancos y las agencias gubernamentales utilizan cada vez más la biometría de voz para autenticar las llamadas telefónicas de los clientes. En última instancia, esto significa que los estafadores pueden utilizar la IA para replicar de forma rápida y convincente una pieza clave de su identidad personal. Al igual que con todas sus otras tácticas, su objetivo final es acceder a sus datos personales y a su dinero. Además, los estafadores también pueden utilizar la clonación de voz para hacerse pasar por un amigo o familiar en apuros y necesitado de dinero. Básicamente, una versión más sofisticada de la estafa de mensajes de texto "Hola mamá", los estafadores manipulan el amor familiar y la protección de las víctimas. Sólo una vez que los estafadores han vaciado sus cuentas bancarias, las víctimas se dan cuenta de que no hay ningún miembro de la familia en problemas. Lamentablemente estamos viendo casos crecientes y advertencias sobre estafas de emergencia familiares mejoradas por IA.
¿Qué otras amenazas existen?
Desafortunadamente, la clonación de voz también está mejorando la calidad y credibilidad del fraude masivo a través de mensajes telefónicos automatizados, también conocidos como "roboestafas". La mayoría de los destinatarios de mensajes siniestros de oficinas tributarias, proveedores de telecomunicaciones u otras entidades gubernamentales o corporativas generalmente sabían que eran falsos. Sin embargo, con las mejoras en la calidad de la voz y los guiones de la IA, será más difícil distinguir los mensajes reales de los falsos. Por último, los estafadores están utilizando la IA para crear “pruebas” falsas y comprometedoras para chantajear a sus objetivos. Por estas razones, Cybertrace cree que investigar imágenes, vídeos o audios deepfake es cada vez más importante.
¿Qué podemos hacer para protegernos de las imágenes, vídeos y audios deepfake?
En un mundo digital cada vez más inundado de imágenes, vídeos y audios falsos, debemos protegernos. Por suerte, hay varias formas de hacerlo. En primer lugar, en una carrera del gato y el ratón con generadores de deepfake, empresas tecnológicas como Intel y OpenAI están trabajando en herramientas de detección de deepfake. Si bien es de esperar que se vuelvan lo suficientemente sofisticados como para mantenerse al día con los deepfakes, tampoco son cien por ciento confiables. En consecuencia, es importante que nos apoyemos en el pensamiento crítico tradicional y en el conocimiento de los medios al preguntarnos: ¿quién hizo el vídeo? ¿Ha sido corroborado por otros medios de comunicación? ¿Qué más ha dicho su sujeto? En resumen, todos debemos involucrarnos en la investigación de imágenes, videos y audio deepfake.
Un gran ejemplo de cómo fomentar proactivamente esta capacidad proviene del país nórdico de Finlandia. Ante una campaña concertada de desinformación de su vecina Rusia, trajo expertos globales para ayudar a diseñar contramedidas efectivas. Al combinar la verificación de datos con el pensamiento crítico y la alfabetización de los votantes, Finlandia ha cultivado una ciudadanía sólida con menos probabilidades de ser manipulada. Esto representa un resultado poderoso que puede replicarse en otros países. Asimismo, la comedia y la sátira ofrecen vías eficaces para educar al público sobre los peligros de los deepfakes. Un gran ejemplo de esto es el del comediante Jordan Steele. famoso vídeo de Obama. Cualquiera que sea el método, la educación desempeña un papel crucial en la comunidad que investiga los deepfake, las imágenes, los vídeos y el audio, incluida la clonación de voz. Pero ¿qué pasaría si los estafadores o extorsionadores superaran nuestras defensas?
¿Cómo puede Cybertrace ¿Ayúdame?
A veces, los estafadores decididos pueden burlar incluso las defensas más vigilantes. ¡Ahí es cuando necesitas ayuda seria de tu lado! Supongamos que los estafadores le estafaron el dinero que tanto le costó ganar haciéndose pasar por sus nietos, posibles parejas románticas o celebridades. Alternativamente, alguien podría estar distribuyendo imágenes o videos tuyos falsos para acosarte o extorsionarte. Afortunadamente, CybertraceEl equipo de investigadores experimentados de puede ayudarle a llegar al fondo de quién es el responsable. Ya sea rastreando criptomonedas a través de blockchain, análisis forense de sitios web para ver quién los aloja, o revisando minuciosamente los perfiles de las redes sociales Para identificar a los delincuentes, podemos ayudar investigando imágenes, vídeos y audios deepfake, incluida la clonación de voz. Descubra quién está detrás de la estafa, el chantaje o el acoso, para poder acudir a la policía o a sus abogados. Cybertrace tiene los recursos, las capacidades y la dedicación para realizar el trabajo. Contacto nuestros investigadores experimentados hoy.
Esta publicación fue revisada para mayor legibilidad y precisión el 27 de noviembre de 2024.
