En este momento estás viendo El FBI Advierte Sobre Las Estafas de Extorsión de Deepfake de IA

El FBI Advierte Sobre Las Estafas de Extorsión de Deepfake de IA

  • Autor de la entrada:
  • Categoría de la entrada:Noticias

Las habilidades de la IA generativa para crear imágenes realistas son impresionantes, pero la Oficina Federal de Investigaciones de los Estados Unidos dice que los delincuentes están utilizando deepfakes para atacar a las víctimas con fines de extorsión.

«El FBI continúa recibiendo informes de víctimas, incluidos niños menores de edad y adultos sin consentimiento, cuyas fotos o videos fueron alterados en contenido explícito», dijo la agencia en una alerta de PSA el lunes.

El FBI dice que las agencias policiales recibieron más de 7,000 informes el año pasado de extorsión en línea dirigida a menores, con un aumento en las víctimas de las llamadas «estafas de sextorsión» que usan deepfakes desde abril.

Un deepfake es un tipo cada vez más común de contenido de video o audio creado con inteligencia artificial que representa eventos falsos que son cada vez más difíciles de discernir como falsos, gracias a plataformas generativas de IA como Midjourney 5.1 y DALL-E 2 de OpenAI.

En mayo, un deepfake del CEO de Tesla y Twitter, Elon Musk, hecho para estafar a los inversores criptográficos se volvió viral. El video compartido en las redes sociales contenía imágenes de Musk de entrevistas anteriores, editadas para adaptarse a la estafa.

Los deepfakes no son todos maliciosos, un deepfake del Papa Francisco con una chaqueta blanca de Balenciaga se volvió viral a principios de este año, y más recientemente, los deepfakes generados por IA también se han utilizado para devolver la vida a las víctimas de asesinato.

En sus recomendaciones, el FBI advirtió contra el pago de cualquier rescate porque hacerlo no garantiza que los delincuentes no publiquen el deepfake de todos modos.

El FBI también aconseja precaución al compartir información personal y contenido en línea, incluido el uso de funciones de privacidad como hacer que las cuentas sean privadas, monitorear la actividad en línea de los niños y observar el comportamiento inusual de las personas con las que ha interactuado en el pasado. La agencia también recomienda realizar búsquedas frecuentes de información personal y familiar en línea.

Otras agencias que hacen sonar la alarma incluyen la Comisión Federal de Comercio de Estados Unidos, que advirtió que los delincuentes han estado usando deepfakes para engañar a las víctimas desprevenidas para que envíen dinero después de crear un deepfake de audio de un amigo o familiar que dice que han sido secuestrados.

«La inteligencia artificial ya no es una idea descabellada de una película de ciencia ficción. Estamos viviendo con eso, aquí y ahora. Un estafador podría usar IA para clonar la voz de su ser querido», dijo la FTC en una alerta al consumidor en marzo, y agregó que todas las necesidades criminales son un breve clip de audio de la voz de un miembro de la familia para que la grabación suene real.

El FBI aún no ha respondido a la solicitud de comentarios de Decrypt.

Pagina Original:

FBI Warns of AI Deepfake Extortion Scams

Deja un comentario