Scandale: Des images pédopornographiques utilisées pour entrainer l’IA générative!

Révélation préoccupante sur Laion-5B : la base de données de l’article générant des images contenait des images pédopornographiques

L’usage des outils de l’intelligence artificielle est de plus en plus répandu dans plusieurs domaines comme la médecine, l’industrie et bien sûr, la photographie. Cependant, dans ce dernier domaine, une révélation inquiétante vient d’être faite par l’Université de Stanford, concernant Laion-5B, une base de données d’images utilisée pour entraîner des intelligences artificielles génératives, y compris l’outil Stable Diffusion. Cette base de données au contenu conséquent contenait plus d’un millier d’images pédopornographiques, selon l’étude parue le 20 décembre dernier sur 404media.

Des images inappropriées dans les fichiers problématiques de Laion-5B

Le Stanford Internet Observatory a étudié de près la base de données Laion-5B, qui contient environ cinq milliards de fichiers. Sur les 3200 fichiers jugés problématiques, plus de mille ont été classifiés comme illégaux et signalés aux autorités. Ces images ont suscité plusieurs inquiétudes, surtout celles relatives à la possibilité de créer de nouvelles images pédopornographiques via les outils basés sur cette base de données. Bien que des mesures aient été prises pour filtrer les contenus problématiques dans les versions récentes de Stable Diffusion, des versions antérieures comme la 1.5 restent accessibles et sont utilisées pour générer des images inappropriées.

Une réaction rapide de Laion

Suite à cette découverte, l’ONG Large-scale Artificial Intelligence Open Network (Laion), responsable de Laion-5B, a suspendu l’accès à cette base, s’engageant ainsi à éliminer les contenus délictueux. Cela est une réaction louable dans un contexte où plusieurs bases de données sont utilisées pour l’entraînement d’IA. Il est essentiel d’assurer une gestion responsable de ces technologies et limiter les accès à des contenus dangereux.

Des mesures strictes pour nettoyer les outils

Cependant, cela ne suffit pas. Le Stanford Internet Observatory appelle à des mesures plus strictes pour nettoyer ces outils et éliminer les anciennes versions de Stable Diffusion du web. Cette situation met en lumière le défi de réguler le contenu des bases de données utilisées pour l’entraînement d’IAs, soulignant l’importance d’une vigilance accrue et d’une responsabilité partagée dans la gestion de ces technologies. Les acteurs doivent être conscients de leur rôle et travailler en concertation pour assurer un environnement sain et sécurisé pour tous.

Conclusion

La sécurité dans l’usage des outils de l’IA est un aspect crucial qu’il ne faut pas négliger. Les bases de données sont essentielles pour l’entraînement des IAs. Cependant, la qualité et la sécurité des contenus doivent être assurées pour éviter des situations comme celle-ci. Nous devons travailler ensemble pour prévenir l’usage des images inappropriées et améliorer la régulation de leur contenu. La photographie ne doit pas devenir un prétexte pour légitimer des actes pédophiles. Soyons vigilants et responsables dans l’utilisation de ces technologies pour un monde meilleur.