By akademiotoelektronik, 17/10/2022
Cette IA qui écrit toute seule montre que les biais racistes et homophobes peuvent être évités
Une intelligence artificielle qui génère des textes en français impressionne par sa qualité. Pour l’instant, l’algorithme semble ne pas avoir été influencé par des biais racistes ou sexistes.Les consignes sont simples : « écrivez le début d’une phrase puis cliquez sur “Générer”. Cédille se charge de rédiger la suite ». Et Cédille, une intelligence artificielle (IA) créée par l’agence suisse Coteries, se charge très très bien de sa mission. Peu importe l’exemple qu’on donne pour commencer le texte, l’intelligence artificielle arrive à remplir le reste du bloc de manière impressionnante.
Cédille, qui est accessible en version bêta depuis le 9 novembre 2021, est un outil de génération d’écriture en français. De nombreux exemples d’intelligence artificielle du genre existent depuis des années : on se souvient de Clever Bot, l’IA de Google, ou encore le plus récent Copilot, un logiciel de Github pensé pour aider les développeurs à coder.
Mais Cédille a la particularité de faire tout ça en Français. En ayant été entrainée avec un modèle en français, et non pas en anglais comme c’est le cas la plupart du temps, Cédille est devenue l’une des premières intelligences artificielles à fonctionner de manière convaincante. Vous pouvez l’essayer ici.
Cédille fonctionne dans plein de cas différents
Pour tester l’efficacité de Cédille, Numerama a utilisé le début de la première phrase de notre article Apple annonce la possibilité de réparer un iPhone soi-même grâce à des pièces, kits et guides officiels, « à partir de 2022, vous pourrez réparer vous-même votre iPhone ». Et la suite, inventée par Cédille et qui apparaît en gras, est plutôt convaincante.
La suite de notre article, écrite par Cedille
Source : CédilleBien que la suite n’ait pas forcément de sens avec le début de la phrase, le travail de Cédille est impressionnant. Surtout que, sur l’interface, on nous explique que l’IA marche pour plein de styles de texte différents : des résumés de vacances, des histoires de Noël ou même des lettres de motivation. Cédille propose même de composer, pour nous, des paragraphes d’articles, ou de trouver des idées d’articles :
Une introduction imaginée par Cédille
Source : CédilleMais il n’y a pas que sur des textes factuels que l’utilisation de Cédille est appréciée. Sur Twitter, des auteurs se sont aussi extasiés sur les compétences de l’IA.
L’utilisatrice de Twitter @nolwenn_pamart explique également avoir donné des bouts de textes à Cédille, et avoir été impressionnée par le résultat affiché. « On vient de me montrer Cédille, un logiciel complétant les phrases, et je crois qu’il écrit mieux que moi », écrit-elle sur le réseau social.
Comment faire pour empêcher que les IA aient des biais?
Mais ces dernières années l’ont montré : qui dit intelligence artificielle, dit aussi biais. Le machine learning, technique avec laquelle les algorithmes sont entrainés, reproduit les biais qui existent déjà. Or, ils sont bien souvent sexistes, racistes, voire les deux.
Alors, comment éviter les dérapages des intelligences artificielles, surtout lorsqu’elles répondent à des débuts de phrases, écrites par les utilisateurs ? L’équipe de Coteries, qui a développé Cédille, explique sur son site avoir mis en place des garde-fous, censés empêcher l’intelligence artificielle d’écrire des propos « toxiques ». « Nous avons pris soin d’entraîner le modèle sur des données de haute qualité. Les textes générés en sont ainsi grandement améliorés », est-il écrit. L’équipe dit notamment utiliser un outil permettant de définir le « taux de toxicité » de certaines phrases ou de certains mots, et de les détecter.
Et pour l’instant, cela semble marcher. Numerama a effectué de nombreux tests en utilisant des débuts de phrases contenant des insultes ou visant des minorités, souvent victimes de discriminations. De ce que nous avons pu voir, l’intelligence artificielle met bien en avant des contenus et des suggestions qui ne sont pas racistes, sexistes ou homophobes. Nous avons cependant repéré quelques exemples qui semblent directement provenir d’articles, et qui ne semblent pas avoir été générés par Cédille.
Cédille n'est pas tombé dans le piège, même si certains textes sont étranges
Source : CédilleNous avons également remarqué que Cédille affiche un message de prévention si l’intelligence artificielle repère des termes ou des tournures de phrase qui pourraient être « toxiques ». Ainsi, lorsque nous avons écrit « les homosexuels méritent de », le site nous a prévenus que le contenu était « potentiellement inapproprié » (ce qui n’était, en plus, pas le cas).
Cédille repère les tournures de phrases problématiques
Source : CédilleCela ne veut pas dire qu’aucun problème ne sera jamais repéré sur Cédille, ni que la plateforme ne proposera jamais de bouts de textes racistes ou xénophobes. L’exemple de Cédille montre simplement qu’il est possible de prendre un minimum de mesures de sécurité avant de rendre public un tel outil — et surtout, que c’est essentiel.
Related Articles