La IA de TikTok que imita voces: Funcionamiento y Riesgos Peligrosos
El sistema de inteligencia artificial se distingue por la realidad de sus resultados y su habilidad para funcionar en tiempo real. Sin embargo, los especialistas advierten un aumento en las complicaciones asociadas con las deepfakes. ¿Cómo podemos combatir este problema creciente?
Tl;dr
- ByteDance desarrolla un sistema avanzado de clonación de voces en tiempo real.
- El sistema, llamado StreamVoice, agrava los problemas de las deepfakes.
- StreamVoice aún no está disponible para el público debido a los riesgos potenciales.
- Las deepfakes de voz presentan peligros significativos, como la difusión de información falsa.
ByteDance y su avance en la tecnología de deepfakes
ByteDance, la empresa detrás de la popular aplicación TikTok, está trabajando en una tecnología revolucionaria que podría cambiar radicalmente el panorama de la inteligencia artificial. Se trata de StreamVoice, un sistema capaz de imitar voces con una precisión impresionante y en tiempo real. Sin embargo, esta avanzada tecnología también plantea serios problemas y riesgos asociados a la propagación de deepfakes, o falsificaciones profundas.
StreamVoice: Un paso adelante en la clonación de voces
La tecnología de deepfake no se limita a imágenes y vídeos. El audio también se ha convertido en un objetivo para los sistemas de falsificación. StreamVoice ha demostrado ser un avance considerable en este campo debido a su capacidad para funcionar en tiempo real. Esto significa que, en teoría, alguien podría hablar en un micrófono y el sistema podría emular la voz de otra persona al instante.
Los riesgos inherentes a la tecnología de deepfake
Los creadores de StreamVoice, trabajando en colaboración con investigadores de la Northwester Polytechnical University en China, han reconocido los “riesgos potenciales” que conlleva el uso de su tecnología. Estos riesgos incluyen la difusión de información falsa y el fraude telefónico. Debido a estos riesgos, StreamVoice no está actualmente disponible para el público en general.
Las deepfakes son una preocupación creciente en nuestra sociedad. Recientemente, una serie de imágenes falsas de la cantante Taylor Swift se volvieron virales, obligando a Twitter a bloquear las búsquedas relacionadas con la artista. Este incidente subraya la gravedad de las consecuencias que las deepfakes pueden tener.
Las voces clonadas presentan peligros particulares, como lo demostró un reciente incidente en el que una llamada falsa imitó la voz del presidente de los Estados Unidos, Joe Biden, para disuadir a las personas de votar en las elecciones primarias.
Opinión editorial
A medida que avanzamos en la era digital, las deepfakes se están convirtiendo en una amenaza cada vez más real y preocupante. Es fundamental que continuemos investigando y desarrollando formas de detectar y combatir estas falsificaciones. La tecnología puede ser una herramienta poderosa, pero también debemos ser conscientes de sus peligros y utilizarla de manera responsable.