Numérique

ChatGPT et IA : Sciences Po convie l’ESR au débat

Par Marine Dessaux | Le | Pédagogie

Dans un écosystème de l’enseignement supérieur et de la recherche français où l’outil d’intelligence artificielle ChatGPT commence à être intégré aux enseignements, Sciences Po Paris a rapidement préconisé une utilisation limitée et très encadrée. Une position qui a créé un débat immédiat… que l’institut d'études politiques continue d’animer. Le 16 mars dernier en soirée, l’institution réunissait différents points de vue. Synthèse.

D’après une étude de la Fondation Walton Family, 51 % des enseignants américains utilisent ChatGPT. - © YT/Sciences Po Paris
D’après une étude de la Fondation Walton Family, 51 % des enseignants américains utilisent ChatGPT. - © YT/Sciences Po Paris

ChatGPT et les autres technologies d’intelligence artificielle (IA) permettant de générer du contenu ou des synthèses peuvent-elles réellement être considérées comme des outils pédagogiques parmi d’autres ?

Pas de l’avis de Sciences Po Paris qui a annoncé, dans un courrier adressé aux étudiants et enseignants le 27 janvier, l’interdiction d’utiliser le robot conversationnel d’Open AI en dehors d’un encadrement pédagogique. Cette position inédite dans l’enseignement supérieur français a valu de nombreuses réactions critiques enjoignant les formations à se saisir de l’outil plutôt qu’à restreindre son utilisation.

L’institut d’études politiques a décidé de prolonger le débat en organisant, le 16 mars, avec la Conférence des Grandes Écoles et France Universités, une conférence « Enseignement supérieur et intelligence artificielle. Je t’aime, moi non plus ! ». Deux visions s’y opposaient : d’un côté les défenseurs d’une expérimentation en temps réel des technologies d’intelligence artificielle dans les enseignements ; de l’autre le refus d’une appropriation rapide, alors que de nombreuses zones d’ombre légales et éthiques persistent.

Résister à l’avènement de l’intelligence artificielle dans le supérieur, mission impossible ?

Alain Goudey est spécialiste des technologies diruptives. - © D.R.
Alain Goudey est spécialiste des technologies diruptives. - © D.R.

Avec ChatGPT, « nous allons vers un outil qui fera partie du quotidien », estime Alain Goudey, directeur général adjoint en charge du numérique de Neoma. Impossible de passer à côté de cette disruption, s’apprêtant à bouleverser le fonctionnement de nos sociétés, estime celui qui est par ailleurs professeur de marketing.

Et pour cause, les annonces s’accélèrent : Google implémente, le 14 mars, de nouvelles fonctionnalités d’IA générative dans son outil de traitement de texte et sa boîte mail. Le même jour, Open AI annonce la sortie de GPT 4, technologie sur laquelle se base ChatGPT, actuellement à sa troisième version. Deux jours plus tard, Microsoft présente son nouvel outil de productivité nourri à l’IA, Copilot…

Dans l’école de commerce, cela ne fait pas l’ombre d’un doute : cette nouvelle technologie doit faire partie des enseignements. Pour les élèves, il est crucial de maîtriser l’art du prompt, c’est-à-dire savoir formuler ses demandes à l’IA de façon à obtenir les résultats les plus pertinents. « À Neoma, nous voulons former des managers éclairés sur le sujet de la technologie, sans pour autant être illuminés par les faiseurs de technologie », explique Alain Goudey.

« On ne doit pas trop résister, répond également Asma Mhalla, spécialiste des enjeux politiques et géopolitiques de la Tech. Notre société doit savoir métaboliser les surprises. ». Enseignante à Sciences Po, elle encourage les étudiants à utiliser l’IA dans ses cours. En binôme, chacun doit s’approprier l’idéologie d’un penseur de la Tech (tech thinker) et débattre. « L’utilisation de ChatGPT n’a aucune importance, car il y a une réflexion individuelle, puis en binôme et enfin en classe », expose Asma Mhalla. Pour faire face aux développements de l’IA, les enseignements doivent évoluer et ne plus être dans « une obsession de la réponse, mais de la conviction », ajoute-t-elle.

Des réticences à une utilisation élargie trop rapide

Dominique Boullier est professeur des universités spécialiste des usages du numérique et des technologies cognitives. - © D.R.
Dominique Boullier est professeur des universités spécialiste des usages du numérique et des technologies cognitives. - © D.R.

Un discours que réfute Dominique Boullier, professeur des universités spécialiste des usages du numérique et des technologies cognitives et chercheur au Centre d’études européennes et de politique comparée (UMR CNRS-Sciences Po). « On nous met dans un tunnel cognitif, politique et financier. (…) Se plier à ce rythme est délétère ! »

Plutôt que d’être dans la réaction et « patcher les problèmes », il préconise une réglementation — dans la lignée du Data Act, adopté par le Parlement européen le 14 mars (et qui doit encore passer devant le Conseil de l’Union européenne) afin de réguler le marché des données. Un peu comme pour l’autorisation de mise sur le marché d’un médicament, le professeur estime qu’il faudrait des phases de test avant de permettre une utilisation élargie des nouvelles technologies d’intelligence artificielle. Ce devrait ainsi être aux enseignants d’exiger de la technique des usages spécifiques et « de se les approprier en fonction des objectifs pédagogiques ».

« Ces IA ont des effets structurants systémiques importants, on ne peut pas jouer avec ça. Il faut des tests avec les enseignants, étudiants… Mais dans des espaces contrôlés où tout sera mis en commun. Cela débouchera sur des protocoles précis, comme pour l’industrie du médicament et de l’automobile. Nous devrions annoncer un programme de demandes à ceux qui développent des IA sur de vrais sujets, pas ceux sur lesquels ils pensent pouvoir trouver des investisseurs », défend-il.

Les problématiques qui restent ouvertes

Alors que ChatGPT a déjà commencé à s’immiscer dans les usages — des étudiants ou des enseignants, des enjeux persistent notamment concernant la propriété des données. Ce qui ouvre une réflexion sur la souveraineté technique européenne.

Droits d’auteur pour les enseignants

 Cécile Badoual est vice-présidente formation d’Université Paris Cité. - © D.R.
Cécile Badoual est vice-présidente formation d’Université Paris Cité. - © D.R.

Les étudiants ne sont pas les seuls à utiliser ChatGPT… ni les plus actifs ! D’après une étude de la Fondation Walton Family, menée du 2 au 7 février, 51 % des enseignants américains utilisent ChatGPT dont 40 % au moins une fois par semaine contre 22 % des étudiants.

Les pédagogues aussi doivent être sensibilisés aux problématiques que peut poser l’usage de l’intelligence artificielle concernant les droits d’auteurs. « Les données sont partagées sans aucune pensée de ce qu’il y a derrière : des enseignants mettent un cours sur ChatGPT pour [en tirer les grandes lignes et] en faire un PowerPoint. Or, le cours a été capté et les données qui peuvent être sensibles ne vont plus appartenir aux personnes qui les ont données », met en garde Cécile Badoual, vice-présidente formation d’Université Paris Cité. Un risque, ensuite : que ces informations soient revendues.

Bien que ChatGPT avertisse de ne pas partager d’informations sensibles, 2,3 % des salariés ont entré des données confidentielles dans le robot conversationnel, selon une étude de l’éditeur de sécurité Cyberhaven (26 février-4 mars). 

Une idéologie propre derrière les outils

Asma Mhalla est membre du Laboratoire d’anthropologie politique de l’EHESS/CNRS. - © D.R.
Asma Mhalla est membre du Laboratoire d’anthropologie politique de l’EHESS/CNRS. - © D.R.

« Les rivalités entre puissances se jouent sur la question de l’intelligence artificielle, car c’est elle qui dessinera la morphologie du 21e siècle, affirme Asma Mhalla. L’accoutumance à ces outils, qui apportent un certain confort, dépolitise. Ils sont cependant parfois utilisés à d’autres fins : policières, militaires… » Ce qui pose la question de qui crée l’IA générative, avec quels critères, et comment seront restitués les savoirs.

Finalement, au-delà de la prise de position des établissements, c’est au niveau national et politique que sont les enjeux. Une question de souveraineté technique à l’heure où les outils d’IA en pointe sont majoritairement américains. « Quelle vision du monde est encapsulée dans ces technologies ? La question c’est : pourquoi ChatGPT n’est-il pas européen ? », ouvre Asma Mhalla.

Les annonces de Mathias Vicherat

En introduction du débat, le directeur de Sciences Po, Mathias Vicherat, est revenu sur la polémique. « Dans une forme de réduction médiatique et de caricature de la pensée, le titre [des articles traitant de la position de l’établissement] était ‘Sciences Po interdit ChatGPT’. C’était totalement faux puisque notre enjeu est plutôt de voir quelles sont les implications de cet outil en matière de pédagogie et de recherche. »

Il en a également profité pour faire des annonces : « Nous souhaitons développer une formation des enseignants à ces outils avec l’Institut des compétences et de l’innovation, mené par Jean-Pierre Berthet et Delphine Grouès. » Est par ailleurs prévu un nouveau cours sur l’IA pour tous les masters 1 à partir du semestre de printemps 2024.