On peut utiliser l’intelligence artificielle (IA) pour détecter dans les bulletins de nouvelles des partis pris impossibles à percevoir autrement. Une équipe de recherche de l’Université McGill a mis au point un programme informatique qui génère une couverture médiatique de la COVID-19 à partir de titres d’articles de la CBC. Elle a ensuite comparé la couverture de presse simulée aux bulletins de nouvelles du moment et a découvert que la CBC avait moins insisté sur l’urgence sanitaire et qu’elle avait brossé un portrait plus positif des personnalités et de la réalité géopolitique que l’IA.
« Lorsqu’on rapporte des faits réels, il faut faire des choix complexes et prendre des décisions sur l’importance à accorder aux événements et aux acteurs. En comparant les faits rapportés et la couverture médiatique qui aurait pu être réalisée, nous mettons l’accent sur les choix éditoriaux des agences de presse », explique le professeur Andrew Piper, du Département de langues, littératures et cultures de l’Université McGill. Selon les chercheurs, comme le cadrage médiatique, l’opinion publique et les politiques gouvernementales sont étroitement liés, il est essentiel d’évaluer les autres couvertures possibles.
« Les nouvelles générées par l’IA présentent la COVID-19 principalement comme une urgence sanitaire et utilisent beaucoup de termes biomédicaux pour décrire la pandémie, alors que la CBC a eu tendance à se focaliser sur l’aspect humain plutôt que sur la maladie. La CBC a également assuré une couverture plus positive que celle à laquelle on aurait pu s’attendre au cœur d’une crise sanitaire majeure, ce qui a créé une sorte d’effet de ralliement. En faisant preuve d’optimisme, on atténue le sentiment de peur », précise le chercheur.
L’influence des partis pris
Bon nombre d’études portent sur l’impartialité inhérente à l’IA, mais il est également intéressant d’utiliser l’IA pour mettre en lumière la subjectivité humaine. « Nous cherchons à révéler des choses que nous n’aurions pas pu voir autrement », explique le professeur Piper.
« Nous ne laissons pas entendre que l’IA est impartiale, mais au lieu de chercher à éliminer les partis pris, ce que de nombreux chercheurs s’emploient à faire, nous voulons comprendre pourquoi ces partis pris existent et comment ils apparaissent », précise Sil Hamilton, adjoint de recherche et étudiant sous la supervision du professeur Piper.
L’IA pour comprendre le passé et, un jour, prédire l’avenir
Pour les chercheurs, cette étude n’est que la pointe de l’iceberg et propose de nouvelles avenues où l’IA pourra servir à analyser des comportements humains passés, mais aussi à prévoir des actions futures. La prédiction de résultats politiques ou juridiques en est un exemple.
Actuellement, sous la direction de Hamilton, l’équipe utilise l’IA pour modéliser le processus décisionnel de la Cour suprême des États-Unis. « En nous basant sur des décisions passées, pouvons-nous prévoir les décisions des juges dans des dossiers cruciaux futurs ou des affaires anciennes qui reviennent devant les tribunaux? Nous espérons que l’IA nous permettra d’y arriver un jour. »
L'étude
L’article « The COVID That Wasn’t: Counterfactual Journalism Using GPT », par Sil Hamilton et Andrew Piper, a été publié dans ACL Anthology.
Method of Research
Computational simulation/modeling
Subject of Research
Not applicable
Article Title
The COVID That Wasn’t: Counterfactual Journalism Using GPT
Article Publication Date
16-Oct-2022