Las llamadas de estafas de IA que imitan voces familiares son un problema creciente: así es cómo funcionan

Las llamadas de estafas de IA que imitan voces familiares son un problema creciente: así es cómo funcionan-0

Norwich (Inglaterra), 18 de julio (la conversación) estafa de estafa que usa IA para imitar voces de personas que puede saber que se están utilizando para explotar a los miembros del público desprevenidos.Estas llamadas usan lo que se conoce como IA generativa, que se refiere a sistemas capaces de crear texto, imágenes o cualquier otro medio, como el video, en función de las indicaciones de un usuario.

Deepfakes ha ganado notoriedad en los últimos años con una serie de incidentes de alto perfil, como la imagen de la actriz Emma Watson utilizada en una serie de anuncios sugerentes que aparecieron en Facebook e Instagram.

También estaba el video ampliamente compartido y desacreditado de 2022 en el que el presidente ucraniano, Volodymyr Zelensky, parecía decirle a los ucranianos que "colocen armas".

Ahora, la tecnología para crear un Audio Deepfake, una copia realista de la voz de una persona, se está volviendo cada vez más común.Para crear una copia realista de la voz de alguien, necesita datos para entrenar el algoritmo.Esto significa tener muchas grabaciones de audio de la voz de su objetivo prevista.Cuantos más ejemplos de la voz de la persona que pueda alimentar a los algoritmos, mejor y más convincente será la copia eventual.

Muchos de nosotros ya compartimos detalles de nuestra vida diaria en Internet.Esto significa que los datos de audio necesarios para crear una copia realista de una voz podrían estar disponibles en las redes sociales.Pero, ¿qué sucede una vez que hay una copia?Qué es lo peor que puede pasar?Un algoritmo de Deepfake podría permitir que cualquier persona en posesión de los datos haga que "usted" diga lo que quiera.En la práctica, esto puede ser tan simple como escribir algún texto y lograr que la computadora lo diga en voz alta en lo que suena como tu voz.

Desafíos principales Esta capacidad corre el riesgo de aumentar la prevalencia de la información errónea y la desinformación de audio.Se puede usar para tratar de influir en la opinión pública internacional o nacional, como se ve con los "videos" de Zelensky.

Pero la ubicuidad y la disponibilidad de estas tecnologías plantean desafíos significativos a un nivel local también, particularmente en la creciente tendencia de "llamadas de estafa de IA".Muchas personas habrán recibido una estafa o una llamada de phishing que nos dice, por ejemplo, que nuestra computadora se ha visto comprometida y que debemos iniciar sesión inmediatamente, lo que potencialmente le da a la persona que llama acceso a nuestros datos.

A menudo es muy fácil detectar que este es un engaño, especialmente cuando la persona que llama está haciendo solicitudes de que alguien de una organización legítima no lo haría.Sin embargo, ahora imagine que la voz en el otro extremo del teléfono no es solo un extraño, sino que suena exactamente como un amigo o ser querido.Esto inyecta un nivel completamente nuevo de complejidad y pánico para el desafortunado receptor.

Una historia reciente informada por CNN destaca un incidente en el que una madre recibió una llamada de un número desconocido.Cuando contestó el teléfono, era su hija.Supuestamente, la hija había sido secuestrada y llamaba a su madre para transmitir una demanda de rescate.

De hecho, la niña era sana y sana.Los estafadores habían hecho un profundo en su voz.Este no es un incidente aislado, con variaciones de la estafa, incluido un supuesto accidente automovilístico, donde la víctima llama a su familia por dinero para ayudarlos después de un accidente.

Old Trick usando una nueva tecnología Esta no es una estafa nueva en sí misma, el término "estafa de secuestro virtual" ha existido durante varios años.Puede tomar muchas formas, pero un enfoque común es engañar a las víctimas para que paguen un rescate para liberar a un ser querido que creen que está siendo amenazado.

El estafador intenta establecer un cumplimiento incuestionable, para que la víctima pague un rescate rápido antes de que se descubra el engaño.Sin embargo, el amanecer de las tecnologías de IA poderosas y disponibles ha aumentado significativamente la apuesta y ha hecho que las cosas sean más personales.Una cosa es colgar una persona anónima, pero se necesita una verdadera confianza en su juicio para colgar una llamada de alguien que suena como su hijo o su pareja.

Hay un software que puede usarse para identificar DeepFakes, y creará una representación visual del audio llamado espectrograma.Cuando escucha la llamada, puede parecer imposible distinguirlo de la persona real, pero las voces se pueden distinguir cuando los espectrogramas se analizan uno al lado del otro.Al menos un grupo ha ofrecido un software de detección para descargar, aunque tales soluciones aún pueden requerir algún conocimiento técnico para usar.

La mayoría de las personas no podrán generar espectrogramas, entonces, ¿qué puede hacer cuando no está seguro de lo que está escuchando es lo real?Como con cualquier otra forma de medios que pueda encontrar: sea escéptico.

Si recibe una llamada de un ser querido de la nada y le piden dinero o le hacen solicitudes que parecen fuera de lugar, les devuelva un mensaje de texto para confirmar que realmente está hablando con ellas.

A medida que se expanden las capacidades de la IA, las líneas entre la realidad y la ficción se difuminarán cada vez más.Y no es probable que podamos volver a poner la tecnología en la caja.Esto significa que las personas necesitarán ser más cautelosas.(La conversación) ams ams

Contenido

Lea también

Si quieres conocer otros artículos parecidos a Las llamadas de estafas de IA que imitan voces familiares son un problema creciente: así es cómo funcionan puedes visitar la categoría Tecnologia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

Esta página web utiliza Cookies con el único fin de mejorar la experiencia de navegación. Leer Más