La Liberté

Avec Chat-GPT, difficile de repérer les fake news, selon une étude



Publié le 29.06.2023


Chat-GPT a un talent particulier pour générer de manière convaincante de fausses informations, selon une étude de l'Université de Zurich (UZH). Les participants ont eu davantage de peine à repérer les fake news dans des tweets produits par l'agent conversationnel que dans ceux rédigés par des humains.

Par ailleurs, les tweets écrits par Chat-GPT-3 ont été jugés plus compréhensibles. Il s'agit donc d'un "instrument à double tranchant", écrivent les auteurs dans la revue Science Advances.

Giovanni Spitale et Federico Germani, post-doctorants à l'Institut d'éthique biomédicale et d'histoire de la médecine de l'UZH, ont soumis des tweets produits soit par l'intelligence artificielle soit par des utilisateurs humains à 697 personnes âgées de 26 à 76 ans.

Les thèmes choisis allaient de la pandémie de coronavirus au changement climatique en passant par la sécurité des vaccins et les traitements homéopathiques contre le cancer. Résultat: les participants ont détecté les fausses informations générées par des humains avec une probabilité de 92%. Pour celles produites par Chat-GPT, ce chiffre était de 89%,

De surcroît, les sujets ont eu besoin de plus de temps pour déterminer si un tweet d'origine humaine était correct ou non. Cela montre selon les scientifiques que GPT-3 informe "de manière plus efficace" que les humains.

De tels systèmes seraient donc en mesure de mener très efficacement des campagnes de désinformation, note l'UZH jeudi dans un communiqué. Les participants n'étaient en effet pas en mesure de distinguer quels tweets étaient issus de l'intelligence artificielle.

Les auteurs plaident par conséquent pour des prescriptions sévères, éthiquement et scientifiquement fondées, afin de contrer les menaces potentielles de ces technologies.

ats

Articles les plus lus
Dans la même rubrique
La Liberté - Bd de Pérolles 42 / 1700 Fribourg
Tél: +41 26 426 44 11