Détail objet

Auteur

Théophile Schenker

Date du dépôt

17.01.2023

Département pilote

DEF

Département en appui

DCIRH

Identifiant

23_INT_6

Commission

-

Délais réponse du CE

24.04.2023

Dernière décision du GC

Transmise au CE, 24.01.2023

Texte déposé

Fin novembre 2022, l’entreprise américaine OpenAI rendait public ChatGPT, une intelligence artificielle, plus précisément un modèle de langage arrangé sous forme de chat, capable de répondre à des demandes variées en langage naturel d'une manière très impressionnante. En apparence, ChatGPT est capable, entre autres et avec plus ou moins de succès, de comprendre des textes, de répondre à des questions techniques, scientifiques, historiques… de générer complètement des écrits, qu’il s’agisse de poèmes, de rédactions d’écoliers, de recettes de cuisine, d’argumentations, de code source informatique ou même d’interventions parlementaires (et ce n’est pas le cas de celle-ci).

 

A terme, comme soulevé par M. le Conseiller d’Etat Frédéric Borloz dans le Blick, une telle intelligence artificielle pourrait marquer un tournant dans notre société. Aujourd’hui, l’outil peut déjà se montrer très pratique dans de multiples domaines et offre un accès facilité à de nombreuses informations pour tout un chacun.

 

Cependant, il prend aussi de court, en étant imposé au monde du jour au lendemain, sans débat ni régulation, par une entreprise privée. Il apporte ainsi un grand nombre de risques :

  • Dans l’immédiat, dans les gymnases et universités, si tout devoir, toute tâche de rédaction ou de préparation d’exposé peut être confié à ChatGPT en quelques clics, comment éviter les fraudes et s’assurer qu’une dépendance accrue à la technologie ne vienne pas remplacer le développement des compétences visées par ces exercices ? Les logiciels de détection de plagiat sont inopérants face à cette méthode et il est facile de tromper les quelques outils de détection de texte généré par une IA.
  • De manière générale, ChatGPT n’est pas entraîné pour analyser des questions et leur répondre d’une manière logique ou vraie. Étant un modèle de langage, il est entraîné à partir de données provenant d’internet simplement pour déterminer une suite probable d’un texte, mot après mot, de manière tout à fait similaire aux suggestions de mots suivants sur les smartphones, en plus avancé. Il produit ainsi sans recul des contenus toujours vraisemblables, mais pas toujours vrais. Sans être expert·e du domaine concerné, il est parfois très difficile de déterminer si une réponse est vraie ou fausse… d’autant plus que ChatGPT n’est souvent pas capable d’indiquer ses sources. Des réponses peuvent également comporter des contradictions. Ces limites sont-elles bien comprises par les utilisateurs et utilisatrices ?
  • Bien que ChatGPT ne se prononce généralement pas sur des questions sensibles, il ne peut être totalement dépourvu de biais idéologiques. Ceux-ci sont déterminés par les données sur lesquelles il a été entraîné ainsi que par les filtres supplémentaires appliqués par openAI. Est-ce bien responsable de confier un tel pouvoir à une entreprise américaine ?
  • Malgré les filtres appliqués qu’il y a souvent moyen de contourner, il y a un grand potentiel d’utilisations malveillantes de ChatGPT : créer des virus informatiques, obtenir des informations détaillées sur la synthèse de drogues, générer des messages de harcèlement.

 

ChatGPT n’est qu’une IA parmi d’autres. Elle va continuer à s’améliorer et d’autres similaires vont probablement émerger. Les IA capables de générer des images à partir de textes telles que Dall-E 2, Midjourney ou stable diffusion sont également en train de s’améliorer rapidement. Dans le futur, il faut s’attendre à des IA multitâches et multimodales, capables de travailler avec du texte, des images, des sons, des vidéos, comme Pathways de Google. A moyen terme, il n’est plus inenvisageable qu’un certain nombre d’emplois qu’on ne pensait pas remplaçables par des machines le soient finalement.

 

Je souhaite donc poser les questions suivantes au Conseil d’Etat :

 

  1. La mise à disposition publique d’outils d’intelligence artificielle tels que ChatGPT a-t-elle été anticipée par les établissements de formation vaudois ?
  2. Quelles sont les démarches entreprises dans les établissements de formation vaudois suite à l’arrivée de ChatGPT ?
  3. Les enseignant·e·s sont-ils et elles informé·e·s, voire formé·e·s pour accompagner au mieux à l’arrivée de ces nouveaux outils et si oui, comment ?
  4. Pour ne pas arriver trop tard, dans quelle mesure l’enseignement des enjeux cruciaux liés au développement rapide de ces IA peut-il déjà être transmis aujourd'hui aux élèves dans le cadre de l’éducation au numérique ?
  5. Le Conseil d’Etat a-t-il identifié d’autres champs de l’activité de l’Etat dans lesquels le développement récent de chatGPT et des IA a une influence importante ?
  6. Le Conseil d’Etat juge-t-il utile de mettre en place un suivi actifs des développements des IA et de leur implication pour l’Etat et la société afin de pouvoir anticiper leur arrivée plus sereinement ?

Conclusion

Souhaite développer

Documents

LienTitre
  23_INT_6-Texte déposéIntervention parlementaire

Séances dont l'objet a été à l'ODJ

DateDécision
24.01.2023
17.01.2023

Liste exhaustive des cosignataires

SignataireParti
Sylvie PodioVER
Alberto MocchiVER
Nathalie VezVER
Céline MisiegoEP
Yannick MauryVER
Nathalie JaccardVER
Hadrien BuclinEP

Partager la page

Partager sur :