La Comisión envío hoy formalmente solicitudes de información a Bing y Google Search, así como a Facebook, Instagram, Snapchat, TikTok, YouTube y X sobre sus respectivas medidas de mitigación de los riesgos relacionados con la IA generativa.
Según informó hoy la Comisión, la solicitud, en virtud de la Ley de Servicios Digitales (DSA), quiere que estas firmas informen sobre las llamadas "alucinaciones", en las que la IA proporciona información falsa, la difusión viral de deepfakes, así como la manipulación automatizada de los servicios. que puede engañar a los votantes.
La Comisión también solicita información y documentos internos sobre las evaluaciones de riesgos y las medidas de mitigación relacionadas con el impacto de la IA generativa en los procesos electorales, la difusión de contenidos ilegales, la protección de los derechos fundamentales, la violencia de género, la protección de los menores y el bienestar mental. , protección de datos personales, protección del consumidor y propiedad intelectual. Las preguntas se relacionan tanto con la difusión como con la creación de contenido generativo de IA.
Las empresas interesadas deberán proporcionar la información solicitada a la Comisión antes del 5 de abril de 2024 para las cuestiones relacionadas con la protección de las elecciones y antes del 26 de abril de 2024 para las cuestiones restantes.
La Comisión explica que una solicitud de información es un acto de investigación que no prejuzga posibles pasos adicionales que la Comisión puede decidir tomar o no. Sobre la base de la evaluación de las respuestas, la Comisión evaluará los próximos pasos.
De conformidad con el artículo 74 (2) de la DSA, la Comisión puede imponer multas por información incorrecta, incompleta o engañosa en respuesta a una solicitud de información. En caso de que los VLOP y los VLOSE no respondan, la Comisión podrá decidir solicitar la información mediante decisión. En este caso, la falta de respuesta dentro del plazo podría dar lugar a la imposición de multas coercitivas.
La IA generativa es también uno de los riesgos identificados por la Comisión en su proyecto de directrices sobre la integridad de los procesos electorales. Su objetivo es proporcionar a los VLOP y VLOSE mejores prácticas y ejemplos de posibles medidas de mitigación de los riesgos relacionados con las elecciones, incluidas medidas específicas vinculadas a la IA generativa.






