image editor output image 911716684 1754202298370

Intelligence artificielle et éducation : innovation risquée ou progrès mal encadré ?

image editor output image 911716684 1754202298370
Le recours à l’intelligence artificielle pour corriger l’Examen d’État 2025 en RDC marque une avancée technologique majeure. Mais en l’absence d’un encadrement éthique solide, cette innovation suscite des inquiétudes sur la transparence, l’équité et la gouvernance des systèmes éducatifs.

Le 28 juillet 2025, alors que débutait la 58e édition de l’Examen d’État, la ministre de l’Éducation nationale et Nouvelle Citoyenneté annonçait l’utilisation officielle du système d’intelligence artificielle S-Note Manager pour corriger les épreuves. Présentée comme une réponse à la lenteur, aux erreurs humaines et aux fraudes, cette technologie promettait efficacité et objectivité.

Mais derrière cette décision historique, des voix s’élèvent. L’expert Joël Mobeka Ekabela, spécialiste du droit du cyberespace et de l’éthique numérique, appelle à la prudence. Pour lui, cette réforme soulève une question cruciale : peut-on déléguer la responsabilité d’évaluer des centaines de milliers d’élèves à une machine sans garantie éthique, juridique et technique ?

Le S-Note Manager a été présenté sans que des étapes fondamentales ne soient rendues publiques : aucune phase de test formelle, aucun audit indépendant, ni implication des syndicats, enseignants ou experts en pédagogie. Le système fonctionne-t-il à partir de données locales ? Respecte-t-il les principes de confidentialité ? Peut-on contester une correction biaisée ? À toutes ces questions, aucune réponse claire n’est apportée.

Cette absence de transparence inquiète d’autant plus que l’IA n’est jamais neutre : elle apprend à partir de données humaines, souvent imparfaites ou incomplètes. En introduisant un outil sans explication claire sur sa conception ou ses limites, l’État congolais introduit, selon Joël Mobeka, une “boîte noire” dans un processus aussi sensible que l’évaluation académique nationale.

L’UNESCO, à travers plusieurs instruments internationaux, a pourtant balisé la voie : testabilité, supervision humaine, transparence, recours en cas d’erreur, et implication multisectorielle sont les piliers d’une intelligence artificielle éthique. Le Consensus de Beijing (2019) et la Recommandation sur l’éthique de l’IA (2021) rappellent que toute technologie appliquée à l’éducation doit être compréhensible, explicable et contestable.

Malgré l’importance de ces repères, la mise en œuvre du S-Note Manager en RDC semble les ignorer. Le système a été déployé sans charte éthique nationale, sans comité indépendant et sans outil de recours pour les élèves lésés. Le risque : que l’innovation devienne source d’injustice, et non de progrès.

Pour que l’innovation serve réellement l’éducation, plusieurs mesures s’imposent :

  1. Un audit public du système d’IA utilisé pour identifier ses sources de données, ses algorithmes de notation et ses marges d’erreur.
  2. La mise en place d’un comité national d’éthique appliquée à l’éducation, garant d’une gouvernance technologique inclusive.
  3. L’adoption d’une charte éthique nationale sur l’IA dans l’éducation inspirée des référentiels de l’UNESCO.
  4. Et surtout, la formation des enseignants et des syndicats, pour favoriser l’appropriation du système et renforcer la confiance des acteurs de terrain.

Le virage technologique engagé avec S-Note Manager est indéniable. Mais s’il n’est pas encadré, il risque d’aggraver les inégalités et de miner la légitimité de l’Examen d’État. Car dans un pays où l’éducation est une affaire de justice sociale, l’évaluation scolaire ne peut être laissée à une technologie opaque, aussi performante soit-elle.

Comme le rappelle le Comité national d’éthique du numérique en France, « une IA digne de confiance est une IA sûre, fiable et éthique ». Pour que l’intelligence artificielle serve réellement l’école congolaise, elle doit être au service des élèves, et non au-dessus d’eux.

Publications similaires

Laisser un commentaire