Avec des modèles linguistiques avancés tels que ChatGPT, la frontière entre l’écriture humaine et l’écriture automatique est plus floue que jamais.
Alors, comment savoir si un contenu a été généré par l’IA, et quelle est la fiabilité de cette détection ?
Dans cet article, on examine les signes qui peuvent vous aider à identifier un contenu généré par l’IA, ainsi que leur fiabilité.
Le style d’écriture de ChatGPT est-il détectable ?
Oui, certains indicateurs peuvent suggérer qu’un contenu est généré par ChatGPT, mais il peut être difficile de le déterminer avec une certitude absolue.
En fait, des études ont montré que même des éducateurs qualifiés peuvent parfois se tromper sur le fait que le travail d’un étudiant est généré par l’IA ou non. Cela prouve que, bien qu’il y ait des indices, la capacité humaine à détecter l’écriture de l’IA est loin d’être parfaite.
L’un des plus grands défis est que les gens peuvent facilement modifier les résultats de ChatGPT pour les rendre moins détectables. Quelques modifications de la formulation, du ton ou de la structure peuvent rendre le contenu généré par l’IA plus humain, en l’intégrant de manière transparente à d’autres types de travaux écrits.
Un autre facteur de complication est la variabilité de la façon dont ChatGPT répond aux différentes demandes. En fonction de l’entrée, l’IA peut générer un contenu qui va de très générique à étonnamment nuancé, ce qui rend difficile l’établissement de règles cohérentes pour la détection.
En fin de compte, s’il est possible de faire des suppositions éclairées pour déterminer si un contenu est généré par l’IA, on ne peut jamais en être sûr à 100 %. Il existe des outils d’aide à la détection, mais même ceux-ci ont leurs limites. Ils ont souvent du mal à être précis, en particulier lorsque le contenu a été délibérément modifié pour éviter d’être détecté.
Signes qu’un texte a été généré avec ChatGPT
Même s’il est difficile de détecter les contenus générés par le ChatGPT, certains signes augmentent la probabilité qu’un texte ait été produit par l’IA :
1. Ton passif et impersonnel
ChatGPT utilise souvent une voix passive et détachée, ce qui peut rendre le texte moins engageant. Vous remarquerez peut-être que le texte ne contient pas de pronoms à la première ou à la deuxième personne tels que « je », « vous » ou « nous », que les rédacteurs humains utilisent fréquemment pour créer un ton conversationnel et relationnel.
Ce style impersonnel peut être un signe révélateur que le contenu a été généré par une IA.
2. Manque d’originalité et de nuance
Le contenu généré par l’IA fournit souvent des informations génériques sans grande profondeur. Le ChatGPT s’appuie souvent sur des faits largement connus et peut ne pas offrir les perspectives ou les points de vue uniques qu’un rédacteur humain pourrait apporter.
La lecture d’un texte qui semble général, qui manque de nuances ou qui évite les exemples spécifiques peut indiquer qu’il a été produit par une IA.
3. Structures et motifs répétitifs
L’une des caractéristiques communes des contenus générés par l’IA est leur structure répétitive. ChatGPT a tendance à produire des phrases de longueur similaire et une organisation prévisible des paragraphes. Contrairement aux contenus rédigés par des humains, qui présentent généralement un flux dynamique avec des structures de phrases et un rythme variés, les contenus de l’IA peuvent sembler monotones.
En outre, l’IA répète souvent des points sans apporter de valeur ajoutée, ce qui donne l’impression que le contenu est répétitif et moins direct.
4. Absence d’anecdotes personnelles
Les rédacteurs humains utilisent souvent des anecdotes ou des exemples personnels pour rendre leur contenu compréhensible et attrayant. ChatGPT, cependant, manque d’expériences personnelles et, par conséquent, inclut rarement ce genre d’histoires.
Si le texte semble impersonnel et dépourvu de la touche personnelle qui rend généralement les écrits plus compréhensibles, cela pourrait indiquer l’implication d’une IA.
Les détecteurs de texte IA sont-ils fiables ?
Lorsqu’il s’agit d’identifier des contenus générés par l’IA, les détecteurs d’IA sont l’un des principaux outils disponibles. Cependant, s’appuyer uniquement sur des outils tels que Originality.AI, CopyLeaks …etc pour vérifier l’authenticité d’un contenu a ses limites :
- Ces détecteurs ont souvent du mal à être précis lorsqu’ils rencontrent des contenus qui ont été délibérément modifiés pour échapper à la détection. Dans certains cas, les taux de précision pour la détection de contenu généré par l’IA sont descendus jusqu’à 17,4 %, ce qui est loin d’être fiable.
- Les recherches ont démontré que les contenus rédigés par des personnes dont l’anglais n’est pas la langue maternelle sont plus susceptibles d’être signalés comme étant générés par l’IA, même s’ils sont entièrement rédigés par des humains. Ce biais peut conduire à des jugements injustes, en particulier dans les milieux universitaires ou professionnels.
- Les détecteurs d’IA sont également souvent incohérents dans leurs jugements. Parfois, ces outils donnent une réponse « incertaine », indiquant qu’ils ne peuvent pas dire avec certitude si le contenu est généré par l’homme ou par l’IA. Cette incohérence entraîne à la fois des faux positifs et des faux négatifs, ce qui rend les outils moins fiables.
- Les détecteurs d’IA perdent également une grande partie de leur précision à chaque nouvelle version du modèle LLM. L’évolution rapide des grands modèles de langage signifie que les méthodes de détection doivent constamment s’adapter aux nouvelles versions. Par exemple, il existe une différence notable en termes de précision de détection entre les anciens modèles tels que GPT-3.5 et les modèles plus avancés tels que GPT-4o ou Claude 3.5.
- En outre, les styles d’écriture plus formels et structurés sont plus susceptibles d’être signalés comme étant générés par l’IA. C’est pourquoi certains outils de détection, comme Originality.AI, conseillent aux utilisateurs de se concentrer sur des styles d’écriture plus informels afin d’éviter les fausses alertes.
Comment savoir s’il s’agit d’un texte généré avec ChatGPT
Détecter les écrits générés par l’IA est une tâche complexe, et bien qu’il existe des outils et des signes pour vous aider, ils sont loin d’être infaillibles. Si vous soupçonnez qu’un contenu a été généré par ChatGPT, voici quelques mesures pratiques que vous pouvez prendre pour l’évaluer :
- Tout d’abord, comprenez les limites de la détection de l’IA. Le contenu généré par l’IA peut être manipulé pour échapper à la détection, ce qui signifie que même les meilleurs outils disponibles peuvent ne pas être en mesure de l’identifier avec précision. Le contenu édité par l’IA peut ressembler de très près à un texte humain, en particulier si les modifications sont apportées pour ajuster la formulation, le ton ou la structure. Il convient donc d’être prudent avant de porter un jugement définitif, en particulier dans les environnements à fort enjeu tels que les milieux universitaires ou l’édition professionnelle.
- Comme nous l’avons vu précédemment, le ton passif, le manque d’originalité, les structures répétitives et l’absence d’anecdotes personnelles sont des marqueurs courants. Évaluez si le contenu n’a pas la profondeur ou la perspective unique que vous attendriez d’un rédacteur humain. Si l’écriture semble trop générale, évite les détails ou répète les mêmes points sans apporter de valeur ajoutée, cela pourrait indiquer l’implication d’une IA. Toutefois, aucun de ces signes ne constitue à lui seul une preuve définitive.
- Compte tenu de ces limites, il convient d’assurer la transparence de votre évaluation. Si vous utilisez des outils de détection de l’IA pour porter un jugement, indiquez clairement les outils que vous utilisez et les critères sur lesquels vous vous appuyez.
Voici donc ce qu’il faut retenir : certains signes indiquent qu’un texte est généré par l’IA, mais il faut savoir que ce n’est pas sûr à 100 %.