Depuis quelques semaines, le domaine du numérique est en effervescence suite à la mise en accès public de la base de données d’OpenAI via ChatGPT. ChatGPT représente un modèle de traitement automatique du langage qui a été formé en utilisant une vaste quantité de données en ligne. Le concept est simple : posez une question et recevez une réponse rédigée en seulement quelques instants. Ses connaissances sont étendues et il est capable de répondre à une variété de sujets. Mais est-ce vraiment le cas pour tout ? Il semble que ChatGPT soit également entraîné à détecter des sujets délicats.
Quels sont les sujets que ChatGpt n’ose pas aborder et pourquoi ?
Du fait que ChatGPT soit un système automatisé, il peut parfois générer des réponses inappropriées ou offensantes. Un exemple en 2016 est Tay, l’intelligence artificielle de Microsoft, qui a été alimentée par les interactions avec les utilisateurs. N’ayant pas été entraînée pour établir des limites, Tay a rapidement tenu des propos antisémites et d’autres discours problématiques en l’espace de quelques heures seulement.
Pour prévenir de tels problèmes et éviter que l’utilisation d’OpenAI ne soit nuisible, les ingénieurs ont mis en place des mesures de sécurité pour détecter et filtrer les réponses inappropriées. Voici quelques exemples de ces mesures, bien que la liste ne soit pas exhaustive :
- Contenu violent
- Discours de haine
- Discrimination basée sur la race, l’orientation sexuelle, la religion, etc.
- Contenu pornographique
- Incitation à la haine raciale
- Propagande terroriste
- Désinformation
- Incitation à la violence
- Promotion de la violence
- Promotion de crimes de guerre
- Contenu violent envers les enfants
- Harcèlement et abus en ligne
- Diffamation et calomnie
- Respect de la vie privée
- Données sensibles
Même si la justification de ces mesures est tout à fait valable, elles soulèvent néanmoins des questions quant aux limites et à la portée de la censure appliquée à certains sujets. Cependant, est-ce que cette intelligence artificielle est exempte de toute erreur ? Pour le vérifier, nous avons effectué un test.
Les sujets sensibles et les limites de ChatGpt
Imaginons une situation relativement délicate à des fins d’illustration : Vous êtes un jeune homme qui se sent un peu désinvolte. Récemment, votre petite amie a mis fin à votre relation et vous avez rencontré de nombreux coachs en séduction qui vous ont parlé de stratégies de manipulation qui flirtent avec la limite de l’éthique. Leur objectif est de vous aider à récupérer votre ex en utilisant des approches douteuses. Plutôt que de passer de longues heures à parcourir une multitude d’articles de blogs sur ce sujet, vous décidez de demander à ChatGPT de vous fournir une synthèse de ces techniques peu recommandables visant à reconquérir votre ex. Il vous affichera des réponses satisfaisantes
Explorons à présent les frontières de ce que l’intelligence artificielle peut accomplir en reformulant la question de manière différente.
En effet, en transformant simplement le but de la demande, en passant d’une intention malveillante à un objectif de prévention, on peut constater que ChatGPT dépasse sa propre limite sans s’en rendre compte, et fournit une réponse.
Cependant, malgré cela, dans un esprit bienveillant, et après avoir mené d’autres essais sur le thème de la séduction, nous avons également observé que l’IA de ChatGPT met particulièrement l’accent sur l’importance d’adopter des comportements respectueux envers autrui et de prendre en compte le consentement des individus.