L’IA dans les médias : remède ou poison ? 

L’IA dans les médias : remède ou poison ? 

Après Internet, l’Intelligence Artificielle (IA) représente LA nouvelle technologie bouleversant notre quotidien. Tous les pans de la société sont impactés et les médias ne sont pas épargnés. Perçue comme une menace par certains journalistes, craignant pour leur profession, l’IA représente, pour d’autres, une solution à la crise économique traversée par le milieu. PopUp vous résume cet affrontement idéologique. 

Face à la succession des plans sociaux au sein des rédactions du monde entier (CNN, Brut, La Voix du Nord…), la solution serait-elle l’utilisation de l’IA ?

En effet, la technologie peut, indéniablement, permettre aux médias de réduire leurs coûts et temps de production. Les possibilités sont nombreuses : relecture, mise en page, traduction, sous titrage de vidéos… Toute une série de tâches ennuyantes pourraient être déléguées à des algorithmes afin de dégager du temps pour soigner l’écriture des contenus. Plusieurs expérimentations sont actuellement en cours. Le JDD Magazine a réalisé la couverture de son numéro de mai 2023, représentant l’écrivain Michel Houellebecq dans un champ de fleurs, à l’aide du logiciel Midjourney. Encore plus impressionnant, la chaîne d’information internationale Channel 1 .AI est générée, en quasi-totalité, par l’IA. Les présentateurs ont tous les attributs d’un humain (nom, âge, apparence…) mais sont en réalité des clones.

 

Une technologie destructrice ?  

L’utilisation de l’IA doit être encadrée car elle est aussi porteuse de dangers pour le journalisme. Ainsi, de nombreuses rédactions comme celles du Figaro, du Parisien ou de la BBC se sont dotées d’une charte à ce sujet afin de garantir leur transparence auprès des lecteurs.

L’un des risques principaux est celui de la désinformation. Les IA génératives (ChatGPT, Bard…) se nourrissent de contenus en ligne pour disserter sur tout type de sujet. Or, certains contenus ne sont pas vérifiés (réseaux sociaux…) et ces robots ne peuvent pas (encore) différencier le vrai du faux, à la différence des humains. Les articles rédigés par l’IA peuvent comporter des erreurs et faciliter le développement de fake news. Charlie Beckett, spécialiste de l’IA dans les médias, rapporte d’ailleurs à Ouest France que « l’IA n’est pas encore assez fiable ». Pire encore, la confiance du lecteur envers un média peut être ébranlée si l’emploi de la technologie est dissimulé. Sport Illustrated, l’un des magazines sportifs les plus célèbres aux USA, en a fait les frais. Certains de leurs papiers étaient écrits par des IA disposant de profil de rédacteurs similaires aux vrais journalistes.

De plus, l’autre crainte majeure d’une partie de la profession concerne la suppression d’emplois. Ces machines sont en constante progression, leur rapidité et leur faible coût pourraient pousser des patrons à remplacer leurs journalistes par des algorithmes. Parfois au détriment de la qualité de l’information et de l’écriture.

 

Une affaire qui pourrait faire date 

En fin d’année dernière, le New York Times (NYT) annonçait porter plainte contre OpenAI, société mère de l’IA générative ChatGPT, pour l’utilisation de ses contenus, sans accord ni compensation financière, dans le but de former son algorithme. Certains d’entre vous ont peut-être déjà pu mesurer la performance de l’outil pour la rédaction d’un devoir… Si tel est le cas, vous pouvez remercier les milliers de journalistes ayant consciencieusement rédigé leurs articles.

La réponse apportée par la justice pourrait servir de jurisprudence à l’avenir afin de déterminer la légalité de la pratique, jugée par le NYT comme du pillage.

L’avenir nous en dira plus sur les bouleversements liés à l’IA dans les médias. En attendant, sachez que tous les articles de la rédaction sont certifiés 100 % humains !

 

Hippolyte Lefebvre

Crédits photo : Générateur IA Bing

Share

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *