DIARIO SCOOPSTER* Cuando el algoritmo se descontrola y la AI clona voces, surge el Individuo Virtual y nadie sabe qué hacer.
Dice el proverbio que no es posible poner puertas al campo (y de hecho, habitualmente tampoco resulta práctico ni conveniente) y algo así está sucediendo con la IA (Inteligencia Artificial, en castellano) tambien llamada AI (Artificial Inteligence, en inglés). Ya un montón de aplicaciones IA de lenguaje generativo crean textos de todo tipo, responden preguntas, dialogan con uno de forma interactiva, redactan memorandums, informes, un plan de negocios, te hacen un script de programación, te diseñan una web incluídas las líneas de código HTML, etc., etc., si les facilitas el PROMPT adecuado. Otras aplicaciones crean imágenes, caricaturas o cuadros que ni el mismo Picasso. Con otras puedes hablar con un personaje virtual que se comunica contiguo manteniendo su piscología y sesgo más genuino, a veces de auténtico psicópata (el otro día hablaba con un alias de Biden y el tipo se escabullía de rosaitas al plantearlo el por qué los USA estaban apoyando el genocidio judío contra los palestinos). Otras aplicaciones generan música bellísima con escalas perfectas. El regular todo ello resulta complicado y más imprescindible en uns sectores que en otros, Sin embargo, la cosa se complica cuando también ha comenzado a utilizarlse la IA para clonar sonidos y, -lo más importante- para clonar voces.
Hace unos días, en una campaña telefónica a gran escala la IA simulaba la voz de Biden dando instrucciones a los votantes en la camapaña electoral.
Para clonar la voz de uno, actualmente sólo se requieren unos segundos de captura de su voz original, a partir de ahí la aplicación de IA hace el resto. Si se une esta técnica con la del lenguaje generativo (GPT, Perplexity, Claude, Copilot, etc) nos aparece un personaje virtual X que además de tener la voz de X emula la personalidad del mismo X y conversa con uno como el tal X. Sustituyamos a X por nuestro cuñado, compañero de trabajo, personaje público y obtendremos de artenaires a sus alias emulados. Esto puede resultar entretenido y hasta divertido, a veces, pero otra
n personaje Al unir esa tecnología con la algoritmia generativa, podemos encontrarnos con algoritmos conversacionales razonablemente convincentes.
En algunos casos, esas llamadas con voces clonadas están siendo utilizadas para hacer creer a personas que un familiar se encuentra en apuros y necesita dinero. Pero en otros, la intención es falsear, por ejemplo, la recomendación de un producto por parte de una persona famosa o influyente, evitando así que la marca tenga que pagar a esa persona por el uso de su voz.
La Telephone Consumer Protection Act (TCPA) de 1991 restringe en los Estados Unidos la realización de llamadas de telemarketing y el uso de sistemas de marcación telefónica automática con mensajes de voz artificiales o pregrabados sin previo consentimiento del receptor. Si ahora, además, se prohibe el uso de llamadas que utilizan voces clonadas, se aseguraría un marco legal razonable para ese tipo de actividades. ¿Tiene sentido tipificar como delito algo que es utilizado precisamente por delincuentes, cuya actividad está, por definición, al margen de la ley? Obviamente, eso no impide su uso ilegal, pero al menos, facilitaría la persecución posterior del delito y la imposición de unas penas adecuadas.
En cualquier caso, parece una medida bastante razonable. Cuando una tecnología como el clonado de voces se convierte en técnicamente sencilla y su uso predominante es para cometer fraudes, ilegalizar su uso, aunque no sea algo sencillo, parece una forma bastante lógica de intentar proteger a los consumidores del mal uso de esa tecnología.
This article is also available in English on my Medium page, «The time has come to ban robocalls using AI-generated voices«