España impondrá multas por no etiquetar contenidos generados por IA
Un proyecto de ley establece multas de hasta 38 millones de dólares o el 7% de la facturación a las empresas. En consonancia con la Ley de Inteligencia Artificial de la UE, se centra en la transparencia y prohíbe las prácticas nocivas. La nueva agencia supervisora de IA, AESIA, hará cumplir la mayoría de las normas
El Gobierno de España aprobó el martes un proyecto de ley que impone multas masivas a las empresas que utilicen contenidos generados por inteligencia artificial (IA) sin etiquetarlos adecuadamente como tales, en un intento por frenar el uso de los llamados "deepfakes".
El proyecto de ley adopta las directrices de la histórica Ley de Inteligencia Artificial de la Unión Europea que imponen estrictas obligaciones de transparencia a los sistemas de IA considerados de alto riesgo, dijo a los periodistas el ministro de Transformación Digital, Óscar López.
"La IA es una herramienta muy poderosa que se puede utilizar para mejorar nuestras vidas... o para difundir información errónea y atacar la democracia", dijo.
España es uno de los primeros países de la UE en implementar las reglas del bloque, consideradas más completas que el sistema de Estados Unidos, que se basa en gran medida en el cumplimiento voluntario y un mosaico de regulaciones estatales.
López añadió que todo el mundo era susceptible a los ataques "deepfake", un término para los vídeos, fotografías o audios que han sido editados o generados a través de algoritmos de IA pero que se presentan como reales.
El proyecto de ley español, que debe ser aprobado por la Cámara Baja, clasifica el incumplimiento del etiquetado adecuado de los contenidos generados por IA como una "infracción grave" que puede acarrear multas de hasta 35 millones de euros (38,2 millones de dólares) o el 7% de su facturación anual global.
Garantizar que los sistemas de IA no dañen a la sociedad ha sido una prioridad para los reguladores desde que OpenAI presentó ChatGPT a finales de 2022, que cautivó a los usuarios al entablar una conversación similar a la humana y realizar otras tareas.
El proyecto de ley también prohíbe otras prácticas, como el uso de técnicas subliminales -sonidos e imágenes imperceptibles- para manipular a grupos vulnerables. López citó como ejemplos los chatbots que incitan a las personas con adicciones a jugar o los juguetes que alientan a los niños a realizar desafíos peligrosos.
También evitaría que las organizaciones clasifiquen a las personas a través de sus datos biométricos utilizando IA, calificándolas en función de su comportamiento o rasgos personales para otorgarles acceso a beneficios o evaluar su riesgo de cometer un delito.
Sin embargo, las autoridades aún podrían usar la vigilancia biométrica en tiempo real en espacios públicos por razones de seguridad nacional.
La aplicación de las nuevas normas será competencia de la recién creada agencia supervisora de IA AESIA, excepto en casos específicos relacionados con la privacidad de datos, la delincuencia, las elecciones, las calificaciones crediticias, los seguros o los sistemas del mercado de capitales, que serán supervisados por sus correspondientes organismos de control.
Reuters