Hablar con la voz de cualquiera, herramienta de la manipulación informativa

La tecnología avanza a pasos agigantados y muchas veces nos preguntamos demasiado tarde ¿qué implicaciones tienen estos avances?

Recientemente se ha lanzado un sstema de imitación vocal que, de ser utilizado indebidamente, podría facilitar la difusión de información falsa.

Modulate.ai es una compañía de Massachusetts que ha desarrollado una tecnología capaz de modificar la voz y copiar la de otra persona, utilizando inteligencia artificial.

Esta tecnología puede imitar la entonación, acento y emoción de a voz de una persona al recibir los datos suficientes.

El sistema utiliza el aprendizaje automático para la creación de las voces, copia, modela y modifica las propiedades de la voz; es decir, mejora con los datos que recibe. Además, es posible adoptar en tiempo real cualquier edad, género o tono, así como apropiarse de la voz de alguna celebridad.

Ante la posibilidad de “hacer hablar” a casi cualquier persona surge la pregunta ¿qué consideraciones éticas se deben tener?

El aprendizaje automático ya ha hecho posible modificar la cara de las personas en un video, incluso crear caras falsas pero muy realistas y esto se ha vuelto una herramienta para las fake news.

La inteligencia artificial ha hecho posible jugar con la credibilidad que las personas otorgan a la información; la oportunidad de hacer hablar a Obama, por ejemplo, supone un riesgo, ya que no se puede asegurar que se le dará un uso adecuado.

La intención de la empresa es inocente, podría decirse, pues el proyecto fue pensado con el objetivo de ser utilizado en los videojuegos en línea, donde los jugadores tienen la oportunidad de hablar entre ellos a pesar de ser desconocidos. Esto supone cierta exposición o peligro, muchos jugadores no desean revelar su edad o género y para ello la voz juega un papel crucial. Además, se facilita que los jugadores sean  acosados,  por lo que prefieren permanecer en el anonimato.

Mike Pappas, cofundador de Modulate, asegura que se podría generar una simulación de la voz de cualquiera, si se tienen los datos suficientes; pero también afirma que la compañía no pondrá a disposición voces sin el permiso de sus propietarios, pues ese no es el objetivo de la empresa.

Otro cofundador de Modulate, Carter Huffman, dijo que han implementado garantías éticas “desde cero” en cuanto a la distribución de su tecnología, la selección de voces que ofrecen y que sus grabaciones de audio están marcadas para poder detectarse en sistemas sensibles; es decir, Modulate ha trabajado en limitar el uso de su tecnología.

Como medidas éticas Modulate tiene el objetivo de que cada voz que sus clientes puedan copiar cuente con el permiso de la persona; y está desarrollando la tecnología para poder identificar cuándo se utiliza una voz copiada, por ejemplo en una llamada telefónica.

A pesar de esto, advierten que cualquiera podría desarrollar un sistema similar de manera independiente y hacer un uso indebido; aunque los fundadores de Modulate no se alarman, consideran que se exagera cuando se piensa en el mal uso de estas tecnologías y confían en las “herramientas para manejarlo”.