Investigadores de Microsoft en Asia han publicado un estudio que examina los riesgos asociados con un programa de inteligencia artificial (IA) diseñado para generar voces muy realistas.
Riesgos de la inteligencia artificial
Los expertos siguen advirtiendo sobre los posibles peligros de la inteligencia artificial. Un artículo publicado por los propios investigadores de Microsoft revela que la empresa está desarrollando un sistema con «riesgos potenciales».
El modelo VAL-E 2
El modelo de IA en cuestión es VALL-E 2, un programa que puede convertir texto en voz. Este tipo de tecnología se conoce como TTS (texto a voz).
VAL-E 2 posibilidades
Los investigadores del equipo de Microsoft Asia han observado que este nuevo modelo puede pronunciar de forma natural palabras complejas, incluso aquellas que son difíciles de leer o contienen frases repetitivas.
Riesgos potenciales
También advierten de los «riesgos potenciales» de hacer un mal uso de VALL-E 2, como usarlo para acceder a sistemas de reconocimiento de voz o para hacerse pasar por otras personas.
recomendaciones
El estudio sugiere que los usuarios deben dar su consentimiento al uso de su voz para garantizar que esta IA pueda leer textos. Ante los peligros identificados, se recomienda implementar un protocolo para asegurar que el «dueño» de la voz apruebe su uso.
Además, se discute la posibilidad de desarrollar un modelo capaz de detectar si el audio ha sido sintetizado con VALL-E 2.
Declaraciones de Microsoft
Microsoft afirmó en su página dedicada a esta inteligencia artificial que la compañía «no tiene planes de incluir VALL-E 2 en un producto ni ampliar su acceso público».