IA et pédocriminalité : en Europe et aux Etats-Unis, la justice prête à sévir
L'avocat Yann-Maël Laeher explique ce qu'encourent les utilisateurs de ces nouveaux contenus
L’IA ouvre de nouvelles possibilités aux promoteurs de matériel pédopornographique mais des deux côtés de l'Atlantique, les systèmes judiciaires prennent les devants.
C’est une première dans la jeune histoire des utilisations problématiques de l'Intelligence Artificielle : en mai dernier, le Département Américain De la Justice (DOJ, ministère de la Justice) a arrêté dans le Wisconsin un individu qui avait créé par l’intelligence artificielle des images pédopornographiques. Les générateurs d’image par intelligence artificielle dominants sur le marché comme Midjourney et DALL-E 3 ont beau imposer des garde-fous qui empêchent ce type de dérives, d’autres opérateurs moins connus se révèlent plus laxistes. Ce qui n’est pas le cas de la justice américaine qui considère que la création et diffusion de tout matériel relevant de la pédopornographie demeure en soi un crime, quand bien même le processus n’a pas nécessité d’exploiter de « vrais » mineurs. Le DOJ fait en effet valoir que ce genre d’images banalise des pratiques sexuelles illégales et peut servir à manipuler des mineurs dans la vraie vie. Qu’en est-il pour la France et l’Europe ? L’avocat Yann-Maël Larher, avocat spécialiste du numérique, apporte quelques éléments de réponse :
Reflets : Les images virtuelles vont-elles de plus en plus se substituer aux images réelles dans les affaires de pédocriminalité?
Yann-Maël Larher : Oui, c’est malheureusement très probable, car les outils d’intelligence artificielle sont facilement accessibles et simples d’utilisation, et ne prennent pas encore en compte les enjeux éthiques et juridiques associés à ces questions. Cependant, il...