L'ère où l'IA rédige et évalue les articles scientifiques : Évolution ou effondrement de la publication scientifique ? Comment la "crédibilité scientifique" va-t-elle changer ?

L'ère où l'IA rédige et évalue les articles scientifiques : Évolution ou effondrement de la publication scientifique ? Comment la "crédibilité scientifique" va-t-elle changer ?

1. L'IA s'infiltre dans l'"entrée" de la recherche

Le sujet de l'IA générative attire souvent l'attention sur la recherche elle-même (génération d'hypothèses et conception d'expériences). Cependant, l'impact de l'IA sur l'"entrée" qui soutient la confiance dans la science - la rédaction, la révision par les pairs, l'édition et la publication - est en train de se faire sentir progressivement.


L'article d'Undark décrit ce changement à la fois du point de vue de la "rédaction" et de la "révision par les pairs". Mohamad Hosseini, chercheur en éthique de l'IA ayant traité des manuscrits soumis en tant qu'éditeur, a observé un certain nombre de manuscrits manifestement générés par l'IA, avec des utilisations excessives de tirets, des sauts logiques et des incohérences dans le texte. Cependant, la qualité de l'IA continue de s'améliorer, et cette capacité de détection pourrait un jour ne plus être efficace - c'est ce sentiment d'urgence qui constitue le point de départ de l'article.


2. Augmenter le nombre de "personnes capables d'écrire" : l'IA comme aide à la rédaction

Là où l'IA générative montre d'abord sa valeur, c'est dans les tâches de "rédaction" telles que le résumé de la littérature, la création de brouillons, la traduction et la révision de textes en anglais. Pour les non-anglophones en particulier, la barrière de la langue peut être un désavantage dans la diffusion des résultats de recherche. L'article indique que l'IA peut réduire cet écart et aider un plus grand nombre de chercheurs à se faire une place dans les revues internationales.


En fait, l'utilisation par les chercheurs apparaît déjà dans les statistiques. Une enquête menée par Nature auprès d'environ 5 000 chercheurs internationaux a révélé qu'une certaine proportion utilise l'IA pour la rédaction de brouillons, la traduction, le résumé et l'édition. Une autre analyse à grande échelle, portant sur un grand nombre de résumés dans le domaine biomédical, a estimé qu'un nombre considérable pourrait être modifié par des modèles linguistiques d'ici 2024, en se basant sur l'augmentation des expressions suspectées d'être d'origine IA.


L'important ici n'est pas tant que "l'IA écrit des articles", mais que la réduction du "coût des tâches de rédaction" augmente la production de recherche. Si la vitesse d'écriture augmente, les soumissions augmentent, et les manuscrits reçus par les rédactions deviennent un flot continu. L'équilibre entre qualité et quantité devient de plus en plus difficile à maintenir.


3. Hallucinations, plagiat, fabrication : les dangers amplifiés par la commodité

Les faiblesses de l'IA sont bien connues : hallucinations (mensonges plausibles), erreurs de citation, présentation de preuves inexistantes. L'article souligne également des problèmes graves propres à la publication académique - le plagiat et la prolifération des "usines à articles" - que l'IA peut exacerber. L'IA peut générer rapidement des textes bien formatés à partir de rien, abaissant ainsi le seuil de la fraude. La fabrication de données existait déjà avant l'IA, mais l'IA permet la "production de masse" et la "vitesse".


Ce qui est effrayant, c'est que la fraude ne se produit pas toujours par malveillance. Les chercheurs peuvent utiliser l'IA comme une "roue d'appoint pratique", et finir par mélanger involontairement des informations erronées ou du plagiat. Plus le texte généré est naturel, plus il est facile pour les lecteurs et les auteurs de se laisser emporter par l'apparence de crédibilité.


4. La tentation d'introduire l'IA dans la révision par les pairs : pénurie de personnel et attentes d'équité

La révision par les pairs est le prochain sujet central de la discussion. Il est signalé que la pénurie de réviseurs s'est aggravée depuis la pandémie, et les éditeurs rencontrent des difficultés telles que des refus ou des absences de réponse lorsqu'ils sollicitent des réviseurs. Cela suscite l'espoir que "l'utilisation de l'IA pourrait élargir le bassin de réviseurs". L'article mentionne que Roy Perlis, rédacteur en chef de JAMA+AI, évoque la possibilité que l'IA allège la charge des chercheurs et augmente le nombre de personnes pouvant participer à la révision.


De plus, il existe une illusion selon laquelle la révision par l'IA serait "neutre". Si elle peut se distancer des écoles de pensée, des réseaux ou des préjugés envers certaines hypothèses, l'équité pourrait même s'améliorer. Cependant, l'article met rapidement en garde : l'IA apprend à partir des données de publication passées, et peut reproduire les biais historiques (privilégiant les chercheurs célèbres, les institutions renommées, les pays centraux). En fait, plusieurs études ont montré que l'IA a tendance à évaluer plus favorablement les institutions de haut statut ou les auteurs renommés.


Ce qui ressort ici, c'est que "l'IA n'est pas neutre", mais qu'elle représente "le passé moyen". Si la culture de publication passée était biaisée, la révision par l'IA risque d'automatiser ce biais.


5. Établissement de règles : autorisation, interdiction et divulgation comme approche réaliste

Alors, comment les éditeurs et les revues académiques réagissent-ils ? Selon l'article, de nombreuses revues majeures fournissent des directives sur l'utilisation de l'IA générative, interdisant les utilisations pouvant conduire à des fraudes, tout en permettant sous conditions l'édition linguistique et l'assistance à l'analyse. PLOS exige que les noms des outils utilisés, les méthodes d'utilisation, l'évaluation de la validité des résultats et l'étendue de l'impact soient clairement indiqués.


En ce qui concerne la révision par les pairs, la confidentialité est le principal point de discussion. Si des manuscrits non publiés sont saisis dans des services d'IA externes, cela soulève des préoccupations de fuite d'informations. C'est pourquoi certains grands éditeurs demandent aux réviseurs de ne pas télécharger de manuscrits non publiés dans des IA génératives, selon l'article.


De plus, il y a une expansion des règles telles que ne pas reconnaître l'IA comme co-auteur, ou ne pas autoriser les images générées ou modifiées par l'IA. En fin de compte, à moins de fixer la responsabilité sur les "humains", la vérifiabilité scientifique est compromise. L'article souligne également le principe fort selon lequel "en fin de compte, c'est l'auteur humain qui est responsable de chaque mot et chiffre de l'article".


6. La détection n'est pas infaillible : le jeu du chat et de la souris commence

L'idée de "détecter les contenus générés par l'IA" est séduisante, mais l'article reste prudent. Les outils de détection ont leurs limites, et les utilisateurs comme les créateurs évoluent. À mesure que les particularités stylistiques s'estompent, que la logique s'affine et que les citations deviennent plus "plausibles", la distinction devient plus difficile. De plus, une dépendance excessive à la détection pourrait créer une autre forme d'injustice, par exemple en soupçonnant les non-anglophones qui utilisent l'IA pour la révision.


Ainsi, la publication académique ne peut ni "interdire complètement" ni "accepter entièrement" l'utilisation de l'IA. La solution pragmatique consiste en une "gestion" combinant (1) transparence (divulgation), (2) confidentialité (limitation des entrées), (3) supervision humaine (responsabilité fixée), et (4) mesures contre la fraude (renforcement des processus d'édition et de révision).


7. Réactions sur les réseaux sociaux : optimisme et pessimisme s'accélèrent simultanément

 

Non seulement l'article lui-même est mentionné, mais les réactions sur les réseaux sociaux concernant "IA × publication académique" en général sont polarisées.


Les arguments du côté pessimiste sont simples : "La publication n'est pas prête", "La fraude va augmenter", "La confiance va s'effondrer". Dans les communautés qui suivent les rétractations et les fraudes scientifiques, il y a une forte vigilance contre le "déluge de faux articles" généré par l'IA, et le ton récurrent est que l'infrastructure de publication ne peut pas suivre.


Les arguments du côté optimiste incluent : "Nous pouvons créer de nouveaux flux de travail", "Il y a de la place pour repenser la révision et la publication". Par exemple, des membres d'arXiv parlent de l'opportunité pour la publication scientifique d'intégrer de nouveaux outils et méthodes à l'ère de l'IA générative, et le débat avance en supposant le changement.


Et comme approche réaliste, il y a beaucoup de discussions sur "jusqu'où peut-on tolérer et que doit-on divulguer". Un post présentant l'enquête de Nature montre les différences de perception et les conditions au sein de la communauté scientifique concernant l'utilisation de l'IA, et indique qu'une "gestion en nuances de gris" est nécessaire plutôt qu'une approche binaire.


En résumé, l'atmosphère sur les réseaux sociaux est la suivante :

  • La commodité n'est pas niée (surtout pour la rédaction, le résumé, la traduction)

  • Mais il y a une forte inquiétude concernant la fraude, la fabrication et la prolifération de contenus de mauvaise qualité

  • La solution réside dans "règles + supervision + transparence" plutôt que dans l'interdiction
    En effet, les points de discussion décrits dans l'article d'Undark sont répétés avec d'autres mots.

8. Le point focal à venir : "Qui est responsable de quoi ?"

L'idée que l'IA va transformer la publication scientifique est désormais une voie tracée. La question est de savoir "comment" elle va changer.


Si l'IA accélère la production de masse d'articles et la fraude, et rend la révision par les pairs superficielle, la confiance dans la science s'érodera. À l'inverse, si l'IA réduit les écarts linguistiques, compense la pénurie de réviseurs et rend le processus éditorial plus efficace, la science deviendra plus accessible.


Le point de divergence réside dans la gouvernance, pas dans la technologie. Divulgation, confidentialité, responsabilité fixée, et regard humain. Comme le montre l'article à la fin, l'IA exerce une pression pour réévaluer chaque étape du processus de publication. C'est pourquoi nous devrions discuter non pas de "si l'IA doit être introduite", mais de "si la conception permet aux humains d'assumer la responsabilité".



URL de la source