Maryland

Uso de IA contra director de Maryland levanta inquietudes sobre los efectos de esta tecnología

Las autoridades del condado Baltimore dijeron que Dazhon Darien, director deportivo de Pikesville High, clonó la voz del director Eric Eiswert usando palabras racistas y antisemitas.

Foto de archivo.

El caso criminal más reciente que involucra inteligencia artificial (IA) surgió la semana pasada en una escuela secundaria de Maryland, donde la policía dice que un director fue acusado de racista por una grabación falsa de su voz.

El caso es otra razón más por la que todos, no sólo los políticos y las celebridades, deberían preocuparse por esta tecnología cada vez más poderosa de falsificación, alertan los expertos.

“Todo el mundo es vulnerable a los ataques y cualquiera puede atacar”, afirmó Hany Farid, profesor de la Universidad de California en Berkeley, especializado en análisis forense digital y desinformación.

Esto es lo que debe saber sobre algunos de los usos más recientes de la IA para causar daño:

LA IA SE HA VUELTO MUY ACCESIBLE

La manipulación de sonidos e imágenes grabadas no es nueva. Pero la facilidad con la que alguien puede alterar información es un fenómeno reciente. También lo es la capacidad de difundirse rápidamente en las redes sociales.

El clip de audio falso que se hizo pasar por el director es un ejemplo de un subconjunto de inteligencia artificial conocido como IA generativa. Puede crear nuevas imágenes, vídeos y clips de audio hiperrealistas. Es más barato y más fácil de usar en los últimos años, lo que reduce la barrera para cualquier persona con conexión a Internet.

"Particularmente durante el último año, cualquiera -y realmente me refiero a cualquiera- puede acceder a un servicio en línea", indicó Farid, el profesor de Berkeley. "Y, ya sea gratis o por unos pocos dólares al mes, pueden subir 30 segundos de la voz de alguien".

Esos segundos pueden provenir de un mensaje de voz, una publicación en las redes sociales o una grabación subrepticia, dijo Farid. Los algoritmos de aprendizaje automático capturan cómo suena una persona. Y el discurso clonado se genera a partir de palabras escritas en un teclado.

La tecnología será cada vez más potente y más fácil de usar, incluso para la manipulación de vídeos, afirmó.

¿QUÉ PASÓ EN MARYLAND?

Las autoridades del condado Baltimore dijeron que Dazhon Darien, director deportivo de Pikesville High, clonó la voz del director Eric Eiswert.

La grabación falsa contenía comentarios racistas y antisemitas, según la policía. El archivo de sonido apareció en un correo electrónico en las bandejas de entrada de algunos profesores antes de difundirse en las redes sociales.

La grabación salió a la luz después de que Eiswert expresara su preocupación por el desempeño laboral de Darien y el presunto mal uso de los fondos escolares, detalló la policía.

El audio falso obligó a Eiswert a tomar licencia, mientras la policía custodiaba su casa, dijeron las autoridades. Llamadas telefónicas furiosas inundaron la escuela, mientras mensajes llenos de odio se acumulaban en las redes sociales.

Los detectives pidieron a expertos externos que analizaran la grabación. Uno dijo que “contenía rastros de contenido generado por IA con edición humana después del hecho”, según los registros judiciales.

Una segunda opinión de Farid, el profesor de Berkeley, encontró que “se unieron múltiples grabaciones”, según los registros.

Farid dijo a The Associated Press que aún quedan dudas sobre cómo se creó exactamente esa grabación, y no ha confirmado que haya sido generada íntegramente por IA.

Pero dadas las crecientes capacidades de la IA, Farid dijo que el caso de Maryland todavía sirve como un “canario en la mina de carbón” sobre la necesidad de regular mejor esta tecnología.

¿POR QUÉ EL AUDIO ES TAN PREOCUPANTE?

Muchos casos de desinformación generada por IA han sido audio.

Esto se debe en parte a que la tecnología ha mejorado muy rápidamente. Los oídos humanos no siempre pueden identificar signos reveladores de manipulación, mientras que las discrepancias en videos e imágenes son más fáciles de detectar.

Algunas personas han clonado por teléfono las voces de niños supuestamente secuestrados para obtener dinero de rescate de los padres, advirtieron los expertos. Otro se hizo pasar por el director ejecutivo de una empresa que necesitaba fondos con urgencia.

Durante las primarias de New Hampshire de este año, las llamadas automáticas generadas por IA se hicieron pasar por la voz del presidente Joe Biden y trataron de disuadir a los votantes demócratas de votar. Los expertos advierten sobre un aumento de la desinformación generada por IA dirigida a las elecciones de este año.

Pero las tendencias preocupantes van más allá del audio, como los programas que crean imágenes falsas de desnudos de personas vestidas sin su consentimiento, incluidos menores, según los expertos. La cantante Taylor Swift fue atacada recientemente.

¿QUÉ SE PUEDE HACER?

La mayoría de los proveedores de tecnología de generación de voz mediante IA dicen que prohíben el uso nocivo de sus herramientas. Pero la autoaplicación varía.

Algunos proveedores exigen una especie de firma de voz o piden a los usuarios que reciten un conjunto único de frases antes de poder clonar una voz.

Las empresas de tecnología más grandes, como Meta, matriz de Facebook, y OpenAI, fabricante de ChatGPT, solo permiten que un pequeño grupo de usuarios confiables experimenten con la tecnología debido a los riesgos de abuso.

Farid dijo que es necesario hacer más. Por ejemplo, todas las empresas deberían exigir a los usuarios que proporcionen números de teléfono y tarjetas de crédito para poder rastrear los archivos hasta quienes hacen un mal uso de la tecnología.

Casi el 40% de los empleos en todo el mundo podrían verse afectados por el auge de la inteligencia artificial (IA). Para ver más de Telemundo, visita https://www.nbc.com/networks/telemundo

Otra idea es exigir que las grabaciones e imágenes lleven una marca de agua digital.

"Se modifica el audio de maneras que son imperceptibles para el sistema auditivo humano, pero de una manera que puede ser identificada por un software posterior", destacó Farid.

Alexandra Reeve Givens, directora ejecutiva del Centro para la Democracia y la Tecnología, dijo que la intervención más eficaz es la aplicación de la ley contra el uso criminal de la IA. También se necesita más educación del consumidor.

Otro enfoque debería ser instar a una conducta responsable entre las empresas de inteligencia artificial y las plataformas de redes sociales. Pero no es tan sencillo como prohibir la IA generativa.

"Puede ser complicado agregar responsabilidad legal porque, en muchos casos, puede haber usos positivos o afirmativos de la tecnología", reconoció Givens, citando programas de traducción y lectura de libros.

Otro desafío más es encontrar un acuerdo internacional sobre ética y directrices, opinó Christian Mattmann, director del grupo de Recuperación de Información y Ciencia de Datos de la Universidad del Sur de California.

"La gente usa la IA de manera diferente según el país en el que se encuentre", concluyó Mattmann. “Y no son sólo los gobiernos, es la gente. Entonces la cultura importa”.

Exit mobile version