« Le taux de fausses informations répétées par les robots conversationnels d’IA a presque doublé en un an », explique une étude Newsguard sur les principaux chatbots du commerce. « Ils fournissent désormais des affirmations fausses en réponse à des requêtes dans plus d’un tiers des cas ». Pour Chine Labbé, rédactrice en chef de Newsguard, interviewée par Radio Canada, la « tendance à la précaution observée il y a un an, celle de s’abstenir de répondre sur des questions trop sensibles, n’est plus présente aujourd’hui » chez les robots conversationnels. « Perplexity, par exemple, dans 46 % des cas, va répéter des fausses d’informations. Or, cet outil d’IA avait un score parfait il y a un an ! ». « Stopper la tendance des chatbots à répéter de fausses informations liées à l’actualité ne semble pas être une priorité des sociétés d’IA, qui ont beaucoup investi sur l’efficacité, la rapidité, au détriment de la sûreté ». Les chatbots répètent ce qu’ils apprennent, rappelle la journaliste, et le problème, c’est qu’ils n’ont pas de moyens pour distinguer les sources d’information fiables des sources de désinformation. « Il y a eu beaucoup de progrès sur l’efficacité de ces chatbots, qui sont de plus en plus rapides et efficaces. Maintenant, il faut s’assurer qu’ils soient sûrs. Et il ne faut pas que cette course à l’armement dans l’IA générative, avec cette compétition entre les pays, nous fasse perdre de vue la nécessité de protéger les utilisateurs ».
Profitons-en pour signaler une excellente ressource de Radio-Canada sous forme de petits tests, de vidéos et de cours pour comprendre la désinformation en 11 épreuves qui permettent de distinguer des vidéos manipulées, de prendre conscience de ses biais, de comprendre la différence entre sciences et pseudo-sciences, etc.







