L’intelligence artificielle est sans conteste l’un des outils les plus intéressants pour les petites et moyennes entreprises qui nécessitent l’appui d’un.e agent.e de communication. Jusqu’à présent dans bien des cas, on choisissait la personne qui faisait le moins de fautes en écrivant! Des programmes comme ChatGPT (il en existe plusieurs) viennent complètement changer la donne.
En gros, il suffit d’entrer quelques mots et déterminer le type d’écrit que l’on vise (communiqué, courriel, article de blog, nouvelle, etc.) et le programme s’occupe du reste. La première fois qu’on voit un texte s’écrire sous nos yeux en quelques secondes, on est certainement impressionné.
Comment ça marche?
L’intelligence artificielle, IA pour les intimes, fonctionne en suivant des modèles préétablis et en utilisant des algorithmes de traitement de langage naturel pour créer un modèle de texte. Il dispose évidemment d’un module de correction, ce qui fait qu’habituellement, ses textes sont presque toujours exempts de fautes d’orthographe, grammaticales ou de syntaxe.
On suppose également qu’il puise son information sur un thème donné à partir de celle à laquelle il a accès sur le web. Il est donc possible que vous lui demandiez de rédiger un texte relatif à un aspect de votre travail où l’IA va vous en apprendre!
Pas de miracle
L’IA ne fait cependant pas de miracle. Les rédacteurs professionnels considèrent souvent les ChatGPT de ce monde comme la solution cheapo et pour cause:
- Incapable d’émotion. Le programme se borne à assembler des structures de phrases selon des modèles préétablis, qui sont généralement neutres et sans saveur. Ainsi, ce n’est pas l’outil idéal pour répondre à votre clientèle si, par exemple, vous dirigez un centre de soins de longue durée où l’aspect humain joue un rôle capital dans vos communications.
- Il ignore ce qu’il ignore. L’algorithme puise ses informations parmi des millions de données en ligne, mais tout comme vous, il ne peut pas parler de ce qu’il ignore. Si certaines informations ne sont pas dans ses banques de données, elles n’apparaîtront évidemment pas dans le texte qu’il produira. L’intervention humaine sera donc utile pour compléter l’information.
- Il peut avoir un parti-pris. Non, ChatGPT n’est pas neutre puisque l’information sur laquelle il se base ne l’est peut-être pas non plus. Par exemple, si sa base de données est limitée dans un domaine ou dans une langue spécifique, il peut manquer de connaissances ou de discernement dans l’information qu’il fournit.
- Il ne remplace pas un humain. Du moins, pas pour des tâches complexes basées sur la réflexion et des valeurs humaines. Souvenez-vous des séries télé de science-fiction où le héros arrive à combattre le méga-ordinateur qui contrôle le monde, en confrontant la machine à des réflexions humaines. C’est un peu la même chose.
- Il ne s’auto-réglemente pas. Du moins, pas pour l’instant. Ce qui signifie qu’il est attrayant pour les fraudeurs et les gens mal intentionnés qui pourraient s’en servir pour créer de faux documents (une chanson écrite par John Lennon qui “refait surface”, par exemple). L’utilisation malveillante de l’IA est la hantise des gouvernements et de tous ceux qui peuvent potentiellement en être victimes.
Verdict
Nous nous sommes amusés à demander à ChatGPT de générer sa propre conclusion basée sur le texte qui précède. Voici sa réponse.
Il est difficile de qualifier ChatGPT de « bon » ou « mauvais » de manière absolue. En tant que programme d’intelligence artificielle, il est neutre en termes de moralité. Sa qualité dépend de l’utilisation qui en est faite et des résultats qu’il génère. ChatGPT peut être utile pour des tâches telles que la génération de texte, la réponse à des questions et l’assistance dans divers domaines. Cependant, il peut aussi présenter des limites en termes de compréhension contextuelle et d’exactitude des réponses, nécessitant parfois une supervision humaine pour éviter les erreurs. En résumé, son efficacité dépend de son application et de l’attention portée à son utilisation responsable.