IA et pédocriminalité : en Europe et aux Etats-Unis, la justice prête à sévir
L'avocat Yann-Maël Laeher explique ce qu'encourent les utilisateurs de ces nouveaux contenus
L’IA ouvre de nouvelles possibilités aux promoteurs de matériel pédopornographique mais des deux côtés de l'Atlantique, les systèmes judiciaires prennent les devants.
C’est une première dans la jeune histoire des utilisations problématiques de l'Intelligence Artificielle : en mai dernier, le Département Américain De la Justice (DOJ, ministère de la Justice) a arrêté dans le Wisconsin un individu qui avait créé par l’intelligence artificielle des images pédopornographiques. Les générateurs d’image par intelligence artificielle dominants sur le marché comme Midjourney et DALL-E 3 ont beau imposer des garde-fous qui empêchent ce type de dérives, d’autres opérateurs moins connus se révèlent plus laxistes. Ce qui n’est pas le cas de la justice américaine qui considère que la création et diffusion de tout matériel relevant de la pédopornographie demeure en soi un crime, quand bien même le processus n’a pas nécessité d’exploiter de « vrais » mineurs. Le DOJ fait en effet valoir que ce genre d’images banalise des pratiques sexuelles illégales et peut servir à manipuler des mineurs dans la vraie vie. Qu’en est-il pour la France et l’Europe ? L’avocat Yann-Maël Larher, avocat spécialiste du numérique, apporte quelques éléments de réponse :
Reflets : Les images virtuelles vont-elles de plus en plus se substituer aux images réelles dans les affaires de pédocriminalité?
Yann-Maël Larher : Oui, c’est malheureusement très probable, car les outils d’intelligence artificielle sont facilement accessibles et simples d’utilisation, et ne prennent pas encore en compte les enjeux éthiques et juridiques associés à ces questions. Cependant, il est possible d’intégrer dès la conception (« by design ») des limitations, par exemple en empêchant l’utilisation de certaines expressions comme l’association de mots sexuellement explicites avec des personnages mineurs. Même si ces images représentent des personnages fictifs, leur caractère virtuel n’empêche pas la sanction légale, qui peut être aussi sévère que pour ceux qui conservent, diffusent ou transmettent des images réelles. La loi française sanctionne toutes les formes de pédocriminalité, y compris les représentations graphiques de personnages mineurs générés par IA. Cependant, il faudra attendre les premiers procès impliquant des images pédopornographiques générées par IA pour voir si leurs auteurs seront aussi sévèrement punis que ceux qui exploitent des enfants réels. À ma connaissance, aucun procès de ce genre n’a encore eu lieu en France.
Y a-t-il des différences d’appréciation entre les membres de l’Union Européenne sur ce sujet?
Je vous renvoie à la directive européenne relative à la lutte contre les abus sexuels et l'exploitation sexuelle des enfants, ainsi que la pédopornographie qui impose aux États membres de sanctionner la pédopornographie, en la définissant de manière aussi large qu’en France. L’article 2 de cette directive définit la pédopornographie comme « tout matériel représentant de manière visuelle un enfant se livrant à un comportement sexuellement explicite, réel ou simulé », ou « tout matériel représentant de manière visuelle une personne qui paraît être un enfant (...) réel ou simulé (...) à des fins principalement sexuelles ». L’adjectif « simulé » permet d’inclure les images générées de manière non réelle. Cette formulation large vise à couvrir toutes les formes de matériel pédopornographique, y compris celles qui n’impliquent pas directement des mineurs mais des jeunes adultes qui en ont l’apparence, ce qui englobe potentiellement le contenu créé par intelligence artificielle (IA).
Qu'adviendra-t-il dans ce cadre juridique si un artiste recourant à l’IA réalise des dessins très réalistes relevant de la pédopornographie? Tombera-t-il lui aussi sous le coup de la loi ou bien est-il protégé par la liberté d'expression ?
La liberté d'expression est un droit fondamental, mais elle a des limites. Lorsque des contenus impliquent l'exploitation d'images sexuelles d'enfants, la plupart des législations mondiales considèrent que ces limites sont dépassées. La protection de la société, en particulier celle des enfants, prime sur le droit à l'expression dans ce contexte. Ainsi, un dessin ou une sculpture, tout comme une photographie ou une vidéo, peut être concerné par ces restrictions légales.
La décision de la Cour de cassation du 2 mars 2011 (n° 10-82.250) a abordé la question des images potentiellement pédopornographiques, notamment dans le cadre d'expositions artistiques. La Cour a précisé qu'une image ne peut être considérée comme artistique que si elle est perçue de manière suffisamment objective, sans être réduite à son caractère purement pornographique.
Dans le contexte de l'intelligence artificielle, cela souligne que les utilisateurs de ces technologies doivent être conscients non seulement des capacités des outils, mais aussi de leurs responsabilités légales. En droit pénal, l'adage « nul n’est censé ignorer la loi » s'applique. L'intention coupable se fonde sur la connaissance du caractère pédopornographique des images. Même si des images de ce type sont générées accidentellement, l'utilisateur pourrait être poursuivi s'il ne prend pas immédiatement les mesures nécessaires pour les supprimer dès qu'il en prend connaissance.
Un phénomène qui explose
L'utilisation de l'IA pour générer des contenus pornographiques explose. Encore embryonnaires sur un plan technique, les sites se multiplient. Il y a ceux qui déshabillent les personnes, ceux qui fabriquent des scènes pornographiques, ceux qui permettent de plaquer la photo d'une personne sur un autre corps (« deepfakes »), etc.
Nombreux sont les sites qui recensent ces nouveaux « outils » et se rémunèrent au clic.

Pour l'instant, on retrouve les travers des premières versions de Midjourney ou DALL-E. Là où l'on pouvait apercevoir des mains avec 6 doigts, on observe ici des hommes avec deux sexes, dont un sur le torse... Mais les programmes d'intelligence artificielle générative vont s'améliorer dans ce domaine également.
Comme pour toute technologie, ce n'est pas celle-ci qui pose problème mais son usage. Or on observe déjà des situations dramatiques, par exemple en Corée, où de jeunes femmes sont harcelées avec des images les mettant en scène artificiellement grâce à ces outils.
L'inquiétude est déjà grande sur un plan simplement informationnel de ne plus pouvoir discerner les vraies informations des fausses informations, les vraies images des fausses, les vraies vidéos des fausses. L'utilisation de ces technologies pour créer des contenus à caractère sexuel va encore aggraver la situation.