Vous avez dit « IA sceptique »?

J’ai eu le plaisir d’animer un débat sur l’IA dans le sup lors des assises du CSIER qui se tiennent cette semaine. Ont participé à cette table ronde Younès BENNANI (Vice-Président Transformation Numérique Université Paris 13 Sorbonne Paris Cité), Nadia JACOBY (Association VP-NUM) et Yann BERGHEAUD (Responsable du Pôle d’Accompagnement à la Pédagogie Numérique de la Direction du Numérique de l’université Lyon 3 Jean-Moulin, VP de l’Association nationale des services Tice et audiovisuels. Du chemin reste à parcourir en ce qui concerne les usages de l’intelligence artificielle par la communauté universitaire. Durant cette conférence nous avons d’ailleurs effectué un sondage en live en demandant qui a recours à l’IA dans l’assistance. Trois mains se sont levés pour nous raconter leur expérience.  J’ai été plus loin avec Yann Bergheaud qui a accepté de répondre à mes questions, notamment sur les limites de l’IA dans le supérieur.

Les limites de l’IA ?

L’information des usagers ciblés par l’IA doit être complète et ne pas se limiter de CGU (conditions générales d’utilisation). Il faut connaître les solutions techniques et les datas utilisées. A l’avenir le grand défi sera donc d’informer la masse sur la technologie utilisée. Sauf que l’IA se base sur un algorithme compliqué dont la valeur ajoutée réside justement dans sa complexité. C’est un point à éclaircir face à des personnes sceptiques. Le rapport de Cédric Villani préconise d’ailleurs la création d’un comité d’éthique. Pour ma part, je ne suis pas sur que ce soit la bonne solution. Cela doit passer essentiellement par la formation et l’information. Je rappelle que le RGPD prévoit que l’on permette à un étudiant soumis à un dispositif d’IA de s’y opposer.

Manque de compétences dans les universités ?

Ce qui nous manque dans les universités ce sont essentiellement les profils métiers : ingénieurs cogniticiens, datas scientist pour les modèles prédictifs, intégrateurs… Sans ces profils nous ne pourrons pas développer l’IA dans nos établissements. D’autant que nous sommes incapables de nous aligner en termes de rémunération. Il faut en prendre conscience.

On en est où à Lyon 3 ?

Nous avons misé sur le big datas, pour disposer de cartographies d’usages de la plate-forme pédagogiques et des services de l’universités . On fait de l’analyse et pas de prédictif. Mais cette première brique nous amènera bientôt vers l’IA sous réserve d’une stratégie nationale ou locale. On pourrait imaginer que les établissements locaux se regroupent pour avoir une politique commune.

Peut-on être « IA sceptique » aujourd’hui ?

Le scepticisme accompagne toutes les innovations. On ne pas prendre une innovation en se focalisant exclusivement sur les aspects positifs. Un certain recul est nécessaire pour éviter le risque de détournement contre l’humain. Dans l’éducation, il ne faudrait pas que l’IA impose des dispositifs de sélection, de discrimination ou une information tronquée. Nous devons y aller mais je ne sais pas encore comment réagiront les enseignants, les étudiants ou les personnels ? Quels seront les efforts à déployer en matière de formation ? Quelle technologie choisir au moment où elle change à grande vitesse ? Ce sont des questions centrales qui aboutissent en réalité à remettre au centre l’enseignement.

 

 

 

Be Sociable, Share!

This entry was posted on lundi, mai 28th, 2018 at 11:00 and is filed under Interview. You can follow any responses to this entry through the RSS 2.0 feed. You can leave a response, or trackback from your own site.

Leave a Reply