Wikipédia en grand danger : menacé par l’utilisation abusive de l’IA

Wikipedia, fameuse encyclopédie collaborative en ligne, est confrontée à un nouveau défi : l’arrivée massive de contenus générés par l’intelligence artificielle (IA), souvent de qualité médiocre. Pour faire face à ce problème, un groupe d’éditeurs a lancé le WikiProject AI Cleanup, une initiative qui vise à lutter contre l’invasion de contenus mal sourcés et mal rédigés par cette technologie.

© Unsplash/Oberon Copeland @veryinformed.com

Il n’y a pas que nos emplois qui sont en danger face à l’essor de cette technologie. Les sources d’informations sont visées, notamment Wikipédia, par la perte de qualité provoquée par les IA. D’après un rapport de 404 Media, ces éditeurs ne cherchent pas à bannir totalement l’usage des modèles, mais plutôt à éliminer les contenus générés qui manquent de sources fiables, contiennent des erreurs ( « hallucinations ») ou sont tout simplement inutiles.

À lire > Pour l’un des pères fondateurs de l’IA, la technologie menace l’humanité

Les bénévoles traquent le contenu généré par l’IA sur Wikipédia

Les membres du projet ont appris à identifier certains schémas récurrents dans la prose ou des « expressions types » de l’IA. Plusieurs paragraphes sont typiques de cette technologie, ce qui n’échappe pas aux nombreux bénévoles qui alimentent Wikipédia.

Le défi est de taille, car beaucoup de contenus IA de mauvaise qualité sont plus difficiles à repérer, notamment lorsque des erreurs plausibles apparaissent dans des sujets complexes. Par exemple ? 404 Media cite un article sur une forteresse ottomane fictive, la « timbery », qui semblait crédible mais qui n’a jamais existé. Sans expertise, ces erreurs seraient passés comme une lettre à la poste.

La lutte contre ces contenus IA est d’autant plus difficile que leur production est rapide. Le travail pour contrer ces contenus considérés comme médiocres est aussi compliqué par le fait que Wikipédia repose sur des bénévoles. Tous n’ont pas le temps et l’énergie de traquer ces textes.

Des sites ont été rétrogradés en termes de fiabilité

Cette situation a déjà impacté la perception de la fiabilité de certaines sources. Par exemple, certains éditeurs de Wikipédia ont rétrogradé la fiabilité de sites comme CNET, qui avait été critiqué l’an dernier pour avoir publié des articles générés par IA remplis d’erreurs.

Ilyas Lebleu, membre fondateur du WikiProject AI Cleanup, a expliqué à 404 Media comment l’équipe repère le contenu IA en reproduisant des « styles » similaires avec ChatGPT. Cette méthode leur permet de repérer rapidement les articles générés par IA.


Pour ne manquer aucune news sur BuzzArena, abonnez-vous sur Google Actualités
Réagissez à cet article !