Jusqu'où les journalistes peuvent-ils utiliser l'IA ? La transparence peut-elle être contre-productive ? Le "dilemme de la divulgation" dans l'ère de l'IA pour les nouvelles.

Jusqu'où les journalistes peuvent-ils utiliser l'IA ? La transparence peut-elle être contre-productive ? Le "dilemme de la divulgation" dans l'ère de l'IA pour les nouvelles.

L'IA est devenue le "co-éditeur invisible" dans les salles de rédaction. Transcription de notes d'interview, organisation de vastes documents, résumés, propositions de titres, assistance à l'image... Ce qui nécessitait auparavant du personnel et du temps se fait désormais en quelques minutes. Pour l'industrie des médias, qui fait face à des contraintes budgétaires, l'IA est un moyen attrayant de "réduire les coûts et d'accélérer la production". Cependant, cette commodité rend également "la responsabilité" floue et ébranle la confiance.


Cette tension est finalement devenue un "point de discorde entre employeurs et employés". Les journalistes de ProPublica, connus pour leur journalisme d'investigation indépendant, ont adopté une position ferme dans les négociations concernant l'utilisation de l'IA, faisant de l'exploitation de l'IA un point central dans les conflits de travail de l'industrie des médias.



1) Ce qui se passe actuellement sur le terrain : L'IA est "utile" — mais les incidents augmentent

La raison pour laquelle le terrain ne peut se passer de l'IA est claire. Dans le journalisme axé sur les données, l'IA simplifie les tâches complexes et économise du temps. La transcription vocale est déjà automatisée, et les services de recherche intègrent désormais des résumés IA.


D'un autre côté, les "incidents" résultant d'une mise en œuvre précipitée sont également apparus. Des cas de correction d'erreurs dans les résumés IA, d'articles publiés sous des noms d'auteurs inexistants, et de fabrications de faits par les produits générés. Un cas emblématique a été celui d'Ars Technica, qui a publié un article contenant des "citations fabriquées" générées par un outil IA, avant de le retirer et de s'excuser. Cela a montré que même un vétéran du reportage technologique peut tomber dans le piège des faiblesses typiques de l'IA (mélanger des mensonges plausibles).


En d'autres termes, l'IA peut être à la fois un "ange de l'efficacité" et un "démon de la destruction de la confiance". Le problème est que les organisations de presse n'ont pas encore déterminé "où placer les garde-fous" en tenant compte de cette dualité.



2) Pourquoi y a-t-il des conflits : Les enjeux de la gouvernance de l'IA concernent plus "l'autorité" que "l'écriture"

Réduire le point de discorde à "écrire des articles avec l'IA ou non" serait une erreur. Le véritable conflit est bien plus large.

  • Divulgation (Disclosure) : Comment informer les lecteurs de l'utilisation de l'IA

  • Intervention humaine (Human-in-the-loop) : À quelles étapes le jugement humain est-il indispensable ?

  • Emploi et compétences (Jobs) : Quand l'IA remplace des emplois, qui est protégé et qui est réaffecté ?

  • Responsabilité éditoriale (Accountability) : En cas d'erreur, qui est responsable : le journaliste, l'éditeur ou l'introducteur de l'outil ?


Du côté de ProPublica (gestion), la position est que "fixer l'exploitation d'une technologie en rapide évolution dans un contrat contraignant sur plusieurs années est risqué", tandis que le syndicat s'oppose en disant que "sans fixation, il n'y a pas de garde-fou". C'est un véritable bras de fer de gouvernance.


Ce qui est important ici, c'est que l'étendue de l'utilisation de l'IA s'élargit d'un "point" à une "ligne". De l'initiation de l'enquête à la publication, l'IA peut intervenir dans d'innombrables étapes. Par conséquent, une règle simple comme "afficher chaque utilisation de l'IA" peut ne pas bien saisir la réalité du terrain.



3) "La divulgation augmente la confiance" est-elle une illusion ? — Le dilemme de l'annonce

Les lecteurs disent généralement vouloir savoir si l'IA est utilisée. Cependant, lorsqu'on indique réellement l'utilisation de l'IA, la confiance tend à diminuer — cette contradiction tourmente les professionnels des médias.


Pourquoi ? Plusieurs raisons peuvent être envisagées.
L'une est que les lecteurs associent directement l'IA à un "outil de réduction des coûts" ou à un "symbole de négligence". Une autre est que les "hallucinations" de l'IA générative sont bien connues, renforçant le préjugé selon lequel "IA = source d'erreurs". L'affaire du retrait par Ars Technica a renforcé cette méfiance.


De plus, un certain nombre de personnes pensent qu'"il ne faut pas utiliser l'IA dans le journalisme". Pour ces personnes, la divulgation devient une "étiquette d'avertissement".


En fin de compte, bien que la divulgation puisse être une "preuve de sincérité", elle comporte également le risque d'évoquer une "baisse de qualité" ou "l'absence de journaliste". C'est un véritable "Catch-22".



4) Les règles ne suivent pas : La vitesse du changement rend les "règlements" obsolètes

L'affirmation selon laquelle l'évolution de l'IA est trop rapide est courante dans l'industrie. Un essai récemment viral a attisé cette idée en disant : "Si vous n'avez pas touché à l'IA ces derniers mois, elle est méconnaissable aujourd'hui", ce qui a alimenté l'argument selon lequel "même si nous rédigeons des règlements maintenant, ils deviendront rapidement obsolètes".


Cependant, c'est justement parce que le changement est rapide qu'il est nécessaire d'avoir des "principes fondamentaux". Par exemple,

  • La responsabilité de la vérification des faits incombe aux humains

  • Les citations, noms propres et chiffres doivent être liés à des sources vérifiables

  • Les sections impliquant l'IA doivent laisser des journaux d'audit
    On devrait pouvoir créer une "ossature d'exploitation" qui reste valable même si le type d'outil change.


En fait, Trusting News encourage l'élaboration de directives sur la transparence et les méthodes d'explication de l'utilisation de l'IA.



5) La "loi" doit-elle intervenir : Les répercussions de la NY FAIR News Act de l'État de New York

Le débat a finalement atteint la sphère politique. Dans l'État de New York, un projet de loi (NY FAIR News Act) a été proposé, exigeant une exonération claire et une divulgation pour les contenus d'actualités impliquant l'IA générative, ainsi qu'une révision par une autorité éditoriale humaine, suscitant des opinions partagées.


Les partisans invoquent "la garantie de la transparence", "la protection des travailleurs" et "les droits des lecteurs". Les opposants et les sceptiques craignent que "le gouvernement n'intervienne dans les décisions éditoriales" et que cela ne porte atteinte à "l'indépendance des médias et à la liberté d'expression".


Ce que l'on voit ici, c'est que la gouvernance de l'IA dépasse la "gestion interne des entreprises" et devient une question de conception du système social.



6) Réactions sur les réseaux sociaux : Les voix du terrain commencent à réclamer "la gouvernance" plutôt que "la transparence"

Il est intéressant de noter que le débat sur les réseaux sociaux dépasse la simple opposition "l'IA est-elle bonne ou mauvaise" pour se concentrer sur "comment la gouverner".


(A) Côté syndicat/journalistes : Exiger non seulement l'emploi mais aussi des "garde-fous de confiance"

Dans les communications de NewsGuild, les négociations de ProPublica sont perçues comme un "rempart contre l'abus de l'IA", avec des publications affichant une position ferme, prête à faire grève. Sur Bluesky, un ton de solidarité avec les actions de ProPublica est également perceptible.


L'implication est la suivante : "L'IA va de toute façon être intégrée. Alors, liez la transparence, l'intervention humaine et la minimisation de l'impact sur l'emploi par des contrats et des processus."


(B) Communauté tech/lecteurs : Exiger un audit et demander "Qui a fait ça ?" suite au retrait d'Ars Technica

Concernant le retrait des "citations fabriquées" par Ars Technica, de nombreuses réactions sur les forums et communautés demandent "Pourquoi cela n'a-t-il pas été vérifié ?" et "Qui a utilisé l'outil, et où cela aurait-il pu être arrêté ?", réclamant un audit des processus.


Il s'agit moins d'une critique émotionnelle de l'IA que d'une perspective axée sur "l'échec de la gestion des processus". Si les sorties de l'IA sont traitées comme des "matériaux", il est évident qu'un responsable de l'inspection des matériaux et des normes est nécessaire.


(C) Réactions au projet de loi : "La divulgation" seule ne suffit pas / "Trop d'ingérence"

Les réactions à la NY FAIR News Act sont partagées. Sur LinkedIn, par exemple, on parle de "gouvernance du cycle de vie" qui inclut non seulement l'introduction d'outils et les mentions, mais aussi l'accès aux données, les autorisations et la traçabilité.


D'un autre côté, il y a une forte critique selon laquelle cela pourrait compromettre l'indépendance des médias. La question est de savoir si la loi peut garantir la transparence sans affecter le "contenu éditorial", ce qui est difficile en pratique.



7) Comment les salles de rédaction devraient-elles "gouverner" : Trois solutions pragmatiques

La réponse pragmatique à la question soulevée par cet article n'est pas "utiliser ou ne pas utiliser l'IA", mais se résume aux trois points suivants.

① Définir l'"utilisation importante de l'IA" et la restreindre fortement

La divulgation uniforme à toutes les étapes est difficile à gérer. C'est pourquoi,

  • Génération de texte

  • Résumé important (remplaçant les points clés d'une nouvelle)

  • Génération ou modification d'images et de vidéos

  • Génération de citations (traitée comme interdite par principe)
    Les domaines "importants" qui influencent le jugement des lecteurs et où les erreurs peuvent causer de grands dommages doivent être définis et soumis à un audit et une divulgation stricts.

② Concevoir l'intervention humaine non pas comme "édition" mais comme "responsabilité"

"Vu par un humain" est faible. Qui a vérifié quoi et selon quelles normes ? La conception des journaux et des autorisations devient le centre de la gouvernance. L'affaire Ars Technica a montré que la faiblesse résidait dans la conception de l'exploitation plutôt que dans le libellé des règles.

③ L'explication aux lecteurs doit être un "aide à la compréhension" et non une "absolution"

La divulgation n'est pas une panacée pour renforcer la confiance. Il est donc nécessaire de concevoir une "explication" qui inclut non seulement "Nous avons utilisé l'IA", mais aussi

  • Pour quoi elle a été utilisée (ex : transcription, organisation de documents)

  • Les parties où elle ne doit pas être utilisée (ex : génération de citations non effectuée)

  • Procédures de correction en cas d'erreur



Conclusion : L'IA est devenue un "sujet de gouvernance" plutôt qu'un "outil"

L'IA augmente l'efficacité des salles de rédaction. Mais en même temps, elle multiplie les voies d'introduction d'erreurs et dissout les frontières de la responsabilité. Le fait que les syndicats