IA et humanité

J’aurai le plaisir la semaine prochaine d’intervenir lors d’un colloque à la National Taipei Normal University sur le thème “Intelligence artificielle (IA) et sagesse humaine”. Tandis que je prépare mon exposé, je souhaitais cette semaine partager avec vous les quelques observations suivantes.

D’abord, un constat préliminaire: il faut bien séparer deux aspects de l’IA en éducation. D’un côté une IA qui vient au service direct des apprentissages. C’est le cas par exemple lorsqu’un logiciel est capable d’analyser les réponses fournies par un élève et de lui proposer en retour un parcours personnalisé au vu de ses résultats. C’est ce que nous appelons “l’apprentissage adaptatif”. De l’autre côté, des concepts du type “apprentissage profond” ou “apprentissage automatique” qui consistent, pour faire court, à modéliser des données de manière abstraite. Qu’on ne s’y méprenne pas, ce sont ici les machines à qui on apprend à apprendre, pas aux élèves, même si ces avancées peuvent in fine leur bénéficier.

Les réflexions qui se donnent pour objet l’intelligence artificielle dans le domaine de l’éducation  recouvrent ces deux aspects: mettre au service des élèves les outils les plus efficaces pour mieux apprendre (cela représente au passage un marché économique colossal); tenter de penser la place des hommes et des femmes dans un monde où la machine est dotée de prodigieuses capacités de calcul et donc de prédiction de l’avenir (cela ne rapporte pas immédiatement d’argent). On connaît le résultat de cette seconde catégorie de travaux notamment à travers l’expression “compétences pour le XXIème siècle”, qui constitue un catalogue -sans cesse redéfini – des priorité éducatives. Ces réflexions parallèles sont cruciales.

Un scénario possible (quoi qu’un peu caricatural, je vous le concède) de l’apport de l’IA: les élèves passent des tests au sein d’une institution d’éducation bienveillante. Ces résultats sont analysés, comparés, croisés avec d’autres données (niveau d’étude des parents, situation professionnelle, lieu de résidence,…). Se dégage alors de manière très précise le profil de chaque élève: ses chances de réussite, les notes qu’il/elle obtiendra, le métier vers lequel il/elle devra se diriger,…L’institution bienveillante met en place tout un dispositif pour suivre l’élève, elle crée des indicateurs et des statistiques rendus toujours plus performants par la recherche en IA et, ce faisant, crée ce que par ailleurs elle se défend absolument de faire: des normes. Celles-ci serviront à juger de la performance de votre enfant: l’écart type avec la “moyenne” est soudain trop élevé, l’institution bienveillante reçoit la famille: l’élève ne répond pas aux critères (on ne le dira pas comme ça, mais le terme exact est qu’il/elle est déviant-e). La place de l’élève, sa valeur – à l’école et au delà – est sujet à discussion (il/ elle est réévalué-e).

On l’aura compris, ce scénario soulève des questions d’éthique. Les outils, les institutions ne sont pas intrinsèquement bienveillants. Pour se prémunir d’un tel scénario, il nous faut injecter beaucoup d’humain à la machine afin d’en limiter les effets potentiellement négatifs. Dès lors la question que nous devons nous poser est celle de l’enseignement explicite de compétences permettant le traitement à hauteur d’homme et de femme de ces situations. Parmi celles-ci, je citerais l’empathie, la compassion, le soin de l’autre, comprendre que la diversité est une richesse inestimable et irréductible à la normalisation statistique. Il en existe sans doute bien d’autres et vous avez assurément tous et toutes votre mot à dire: j’aimerais donc vous inviter à ne pas hésiter à les partager avec moi.

Excellent weekend à tout le monde!

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *