L’arrivée de l’IA et les efforts de lutte contre la désinformation par la vérification des faits 

L’intelligence artificielle (IA) est un terme générique désignant les logiciels informatiques qui imitent la cognition humaine afin d’effectuer des tâches complexes et d’en tirer des enseignements. L’apprentissage automatique est un sous-domaine de l’IA qui utilise des algorithmes formés sur des données pour produire des modèles adaptables capables d’effectuer une variété de tâches complexes. Un outil d’IA est une application logicielle qui utilise des algorithmes d’intelligence artificielle pour effectuer des tâches spécifiques et résoudre des problèmes. Les outils d’IA peuvent être utilisés dans divers secteurs, de la santé à la finance en passant par le marketing et l’éducation, pour automatiser des tâches, analyser des données et améliorer la prise de décision. 

La plupart d’entre nous se sont engagés dans la course à l’intelligence artificielle et la crainte d’être à la traîne est réelle. Si tout le monde semble s’accorder sur le fait que nous devons tous prendre le train de l’IA pour être à la pointe de la technologie, personne ne semble savoir où va ce train. Mais n’oublions-nous pas de nous poser les questions cruciales : quel type d’IA voulons-nous vraiment pour notre société? Existe-t-il des domaines sociaux où la décision est trop importante ou trop sensible pour être confiée à une machine ? Après tout, il se pourrait qu’il n’y ait pas une seule course à l’IA, mais plusieurs, allant dans des directions opposées. C’est pourquoi l’un des principaux problèmes est l’incapacité générale à comprendre l’effet réel de la désinformation à l’ère de l’IA. Toute initiative ou tout effort visant à lutter contre la désinformation devrait être fondé sur des solutions politiques factuelles, utilisant des données empiriques claires sur les dommages réels qui sont d’une ampleur qui mérite une intervention.

 En marge d’une Masterclass pour les journalistes et les OSC au Cameroun, #defyhatenow a engagé une conversation sur l’impact de l’IA sur le processus de production et de distribution de l’information à l’ère numérique. Deux formateurs principaux d’Africa Check Sénégal, Valdez Onanina et Azil Momar, ont apporté un éclairage supplémentaire lors d’une discussion avec nos boursiers d’Africa Factchecking Fellowship – #AFFCameroon basés à Yaoundé. 

La session a été modérée par Donald Tchiengue, coordinateur des projets numériques, qui a lancé des discussions sur la façon de trouver des articles de fact-checking sur le changement climatique, d’obtenir les bonnes informations et de comprendre les opportunités et les menaces de l’IA.

La vérification des faits repose sur des informations factuelles, et il faut toujours s’assurer que chaque élément d’information est vrai. Mener une enquête, qui prendra plus de temps, est généralement la meilleure option. L’accent a été mis sur quelques aspects, notamment sur les raisons pour lesquelles certaines informations sont vérifiables et d’autres non, ainsi que sur la mesure dans laquelle il convient de vérifier une information, après quoi des recommandations ont également été formulées sur la manière de vivre avec l’avènement de l’intelligence artificielle, comme le montrent les points mis en évidence : l’IA est-elle une opportunité ou une menace ? L’IA peut représenter un danger selon la personne qui l’utilise, tout dépend de ce que nous recherchons, l’IA peut fournir des conseils sur les informations que nous recherchons, l’IA peut nous aider à vérifier le contenu sur les réseaux sociaux. Quels sont les sujets qu’il est important de fact-checker et ceux qui ne le sont pas ? Critères pour les informations à vérifier : Intérêt public, viralité, demande du public, est-il vérifiable ? La tendance sur le sujet. Quelles sont les limites de l’intelligence artificielle ? Chat GPT n’apporte pas toujours des informations vraies et exactes, l’IA ne remplacera jamais la mémoire humaine.

#defyhatenow à l’ère de l’IA : le mélange de l’intelligence artificielle et de la désinformation/du discours de haine 

L’utilisation de l’IA pour réguler les discours de haine a un impact direct sur la liberté d’expression, ce qui soulève des préoccupations concernant l’État de droit et, en particulier, les notions de légalité, de légitimité et de proportionnalité. Le recours à l’IA, même sans supervision humaine, est une nécessité lorsqu’il s’agit de contenus qui ne pourraient jamais être justifiés d’un point de vue éthique ou juridique, comme la maltraitance des enfants. Toutefois, la question se complique lorsqu’il s’agit de domaines d’expression contestés, tels que les discours haineux, pour lesquels il n’existe pas de position éthique et juridique universelle quant à leur nature et au moment (le cas échéant) où ils doivent être supprimés.

Bien que des technologies telles que le traitement du langage naturel et l’analyse des sentiments aient été mises au point pour détecter les textes préjudiciables sans devoir s’appuyer sur des mots ou des phrases spécifiques, la recherche a montré qu’elles sont encore loin de pouvoir saisir le contexte ou de détecter l’intention ou la motivation de l’orateur. Cela reflète l’importance de la contextualisation du discours, un aspect qui ne correspond pas bien à la conception et à l’application des mécanismes automatisés et qui pourrait présenter des risques pour la participation en ligne des groupes minoritaires. En outre, les mécanismes automatisés sont fondamentalement incapables de comprendre les nuances et le contexte du langage et de la communication humaine.

La règle selon laquelle l’IA doit toujours rester sous le contrôle de l’homme et les États doivent offrir un accès effectif à des voies de recours aux victimes de violations des droits de l’homme découlant du fonctionnement de l’IA. Elle fait également référence à la promotion de la connaissance de l’IA. En ce qui concerne ce dernier point, il est possible d’offrir une formation aux droits de l’homme et de renforcer les capacités des personnes directement ou indirectement impliquées dans l’application des systèmes d’IA.

Quelques organisations de la société civile camerounaise œuvrant pour la promotion d’un internet sain et des espaces de libertés publiques, réunies à Yaoundé le 09 juin 2023, ont fait les constats suivants : L’intelligence artificielle (IA) est une technologie de pointe qui se développe rapidement et qui a le potentiel de révolutionner positivement de nombreux aspects de notre vie. Cependant, le développement de l’IA soulève également un certain nombre de questions éthiques et existentielles qui doivent être abordées de toute urgence dans le monde, mais aussi au Cameroun. Pour en savoir plus sur la déclaration faite lors de cette réunion, lire ici 

Il est impératif de s’adapter et d’accepter que l’IA devient une nouvelle normalité dans notre société et qu’elle finisse par être de plus en plus présente dans nos vies quotidiennes, faire en sorte que cela devienne un instinct constant pour tout le monde d’être toujours observateur, de penser de manière critique et de poser les bonnes questions est la meilleure chose pour au moins un niveau minimum de sûreté et de sécurité, apprendre et mettre à jour les dernières tendances sur l’IA, comprendre comment elle fonctionne afin d’être en mesure de relever facilement les défis. #defyhatenow organisera, par le biais d’une session de formation, une session de formation pour les dirigeants des médias traditionnels afin d’expliquer ces concepts. Le développement d’activités au sein des organisations de personnes touchées ou confrontées au discours de haine et à la désinformation permettra à davantage d’activistes de lutter contre ce fléau. Le fact-checking joue un rôle crucial dans la vérification des faits et la validation des résultats produits par les algorithmes de l’IA. En promouvant une culture de la vérification des faits, nous pouvons renforcer la confiance et la crédibilité de cette technologie.

share post on social media...

Facebook
Twitter
LinkedIn
Telegram
Email
WhatsApp

continue reading...

Skip to content