Les grandes entreprises technologiques doivent identifier et étiqueter les deepfakes d'IA avant les élections européennes

L'UE a demandé aux grandes entreprises technologiques comme Facebook et TikTok de s'attaquer aux deepfakes générés par l'IA en marquant clairement ce type de contenu avant les élections européennes de juin.
Cette demande s'aligne sur la législation globale de l'UE sur l'IA, qui vise 22 grandes plateformes de médias sociaux, dont Snapchat, Instagram, YouTube et d'autres, afin d'assurer la transparence de la publicité politique et de lutter contre la désinformation qui pourrait affecter l'intégrité des élections, en particulier en ce qui concerne l'ingérence russe. En vertu des nouvelles lignes directrices, ces plateformes doivent identifier et gérer les risques en étiquetant le contenu créé par l'IA. Thierry Breton, commissaire européen au numérique, a souligné le rôle de la loi sur les services numériques (DSA) dans le maintien de la sécurité électorale tout en protégeant la liberté d'expression. Bien que ces lignes directrices soient consultatives, les plateformes doivent proposer des alternatives efficaces si elles optent pour l'exclusion, risquant des enquêtes et des amendes en cas de non-conformité. L'UE prévoit de mener des "tests de stress" de préparation avec ces plateformes à la fin avril, avec des enquêtes précédentes sur les plateformes telles que X pour les pratiques de modération du contenu. De plus, l'UE a récemment demandé à plusieurs plateformes de détailler leurs stratégies pour atténager les risques liés à l'IA.
Newsletter

Related Articles

×