Lutter contre la désinformation grâce à l'IA : le cas Wikimedia

L'intelligence artificielle (IA) est de plus en plus présente dans des domaines variés comme le social, l'environnement ou le partage de la connaissance. Wikimedia France, acteur clé de la diffusion de la connaissance libre et collaborative, illustre parfaitement cet essor. Avec des initiatives à fort impact, comme un outil de lutte contre la désinformation et un audit des LLMs pour contrôler les modèles d’IA et vérifier leur fiabilité et neutralité, Wikimedia France se positionne à l’avant-garde d’une IA éthique et engagée pour la transparence et la fiabilité des informations.

Wikimedia : un pilier de la connaissance libre

Fondée en 2004, Wikimedia France soutient les projets emblématiques comme Wikipédia et le Wiktionnaire, qui offrent un accès gratuit et libre au savoir. L’association compte 13 salariés et mobilise plus de 200 bénévoles réguliers parmi une communauté active de plusieurs milliers de contributeurs par mois. Ses actions englobent des partenariats avec des institutions culturelles, des écoles et des initiatives de plaidoyer pour protéger le contenu libre et ouvert.

Wikimedia ne se contente pas de préserver la connaissance ; elle explore des nouvelles technologies comme l’IA pour soutenir ses missions. Face aux défis actuels de désinformation et de biais dans les contenus, Wikimedia France s’engage dans des projets novateurs pour promouvoir un Internet plus fiable et transparent.

Deux projets innovants pour la détection de désinformation et l’amélioration de l’entrainement des LLMs

Détection de la désinformation : un projet européen d’envergure

Le combat contre la désinformation est l’une des priorités du mouvement Wikimedia. À cette fin, l’organisation s’associe à un projet financé par la Commission européenne pour développer un modèle IA capable de détecter les tentatives de désinformation sur les réseaux sociaux et Wikipédia. Ce projet rassemble 18 universités, ainsi qu’OPSCI, une entreprise spécialisée en IA, le média Euractiv, et d’autres acteurs. Couvrant huit langues, l’initiative vise à fournir un outil automatisé pour aider les modérateurs à identifier et gérer efficacement les informations douteuses.

Pour mener à bien un tel projet, les investissements sont importants. L’initiative mobilise trois membres de l’équipe de Wikimedia France, dont une salariée à temps partiel, ainsi que des bénévoles engagés et un budget global de 2 millions d’euros alloué au projet. Pour Wikimédia France le travail est de constituer un corpus d’exemples de désinformation, c’est à dire un ensemble de contenus faussement informatifs ou trompeurs qui ont pu circuler. La consultation des modérateurs de la plateforme est également prévue pour ajuster l’outil en fonction de leurs besoins spécifiques.

Audit des LLMs : vers une IA éthique

L’évolution rapide des modèles de langage IA, ou LLMs, soulève des questions éthiques cruciales, en particulier en matière de biais et de représentativité des informations. Wikipédia, qui représente jusqu'à 25 % des corpus d’entraînement de certains modèles comme Copilot, joue un rôle central dans ces enjeux. Si les articles de Wikipédia contiennent des biais, les LLMs entraînés sur ces données risquent de les amplifier, reproduisant potentiellement des contenus misogynes, discriminatoires ou non fiables. Pour prévenir ces dérives, Wikimedia France va collaborer avec OPSCI dans un projet financé par la BPI visant à auditer les biais présents dans les articles de Wikipédia, afin de préserver la qualité et l’intégrité de ces informations, cruciales pour l’écosystème de l’IA.

Avec un lancement du projet prévu pour début 2025, cet audit de LLMs qui bénéficie d’un financement global de 1,15 million d’euros (dont 150 000 € pour Wikimedia) démontre que des initiatives ambitieuses sont nécessaires pour développer une IA responsable et éthique.

Défis, plaidoyer et perspectives : vers une IA responsable

Les défis internes : accompagner le changement

L’adoption de l’IA au sein de Wikimedia suscite des réactions partagées parmi les contributeurs. En effet, certains redoutent que l’IA puisse compromettre la fiabilité de Wikipédia en amplifiant des contenus non cités, voire en utilisant sans crédit le travail des contributeurs. Les enjeux de copyright et d’attribution continuent de susciter des discussions au sein de la communauté, motivant des actions de plaidoyer pour protéger les droits des auteurs et assurer une reconnaissance des sources dans les modèles d’IA.

Pour répondre à ces préoccupations, Wikimedia insiste sur une utilisation responsable de l’IA, en veillant à ce qu’elle soutienne la fiabilité et la transparence de l’information tout en respectant les principes de collaboration et en s’assurant que les auteurs des contenus soient reconnus et crédités pour leur travail.

Un plaidoyer pour une IA éthique

Wikimedia France s’investit activement dans les discussions européennes pour encadrer l’usage des technologies IA. En collaboration avec des experts en éthique numérique et des organisations internationales, elle milite pour des lois garantissant des pratiques responsables, comme l’attribution des sources et la valorisation du travail humain. Ces actions s’inscrivent dans un effort global pour défendre une IA éthique.

Perspectives : sensibilisation et innovation

Wikimedia France s’associe au programme Café IA, porté avec le Conseil National du Numérique (CNUM) et qui vise à sensibiliser le grand public aux impacts de l’IA en créant des espaces d’échange et de réflexion accessibles et collaboratifs. C'est grâce à son réseau d'experts internes mais également sa collaboration avec des partenaires tel qu'OPSCI que l'association est capable de mener à bien une telle initiative - qui nécessite ressources financières, humaines, expertise technique et pédagogique.

Intérêt général, collaboration, investissement : le mouvement Wikimedia est la preuve qu'une IA "for Good" ne se construira ni seule, ni du jour au lendemain. Envie de soutenir ces initiatives ? On est toujours ravi de répondre à vos questions sur l’IA au service du bien commun :).