Depuis l’annonce de l’utilisation de l’Intelligence artificielle dans la correction de l’exetat en Avril 2025, j’avais lors de la conference sur l’intelligence artificielle en Mai 2025 à l’Université Omnia Omnibus posé de vraies questions d’éthique, surtout avec le manque de vision nationale sur l’intelligence artificielle.
Quand vous cherchez les informations relatives au S-note manager utilisé dans la correction, il n’y a aucune information technique rendue publique. J’ai consulté 5 pages de google et je n’ai vu que les dépêches de presse qui soit louent la prouesse technologique soit dénoncent une correction tendancieuse et imaginaire.
Entre-temps, le ministère multiplie les déclarations pour justifier sa démarche.
Quelles technologies utilisent S-note Manager? La partie application peut être fonctionnelle à 120% mais ici on veut voir le traitement algorithmique.
Est-ce de la reconnaissance d’images? Car comme on apprend qu’il y a des scanners qui sont utilisés et probablement ils doivent non seulement prendre les images mais aussi faire la reconnaissance optique des caractères pour prélever les identités. Pour une technologie comme une autre il faut des éclaircissements. A écouter certains communiqués du ministère, il y a lieu de recadrer les choses.
Il y a lieu donc de corriger même la version du ministère de l’Education Nationale et Nouvelle Citoyenneté. La raison est simple.
Aucun modèle de l’IA n’étant parfait, celui utilisé pour la correction de l’Exetat n’est pas parfait. Malheureusement le ministère ne peut pas avoir le courage de dire cette vérité technique. En partie parce que la solution serait développée par le ministère et là encore le fournisseur de la solution n’est pas précisé.
Et puis qu’aucun modèle n’atteint une précision de 100%, plusieurs questions émergent.
1. Comment est-ce que le modèle a été construit? La conception et la construction sont le commencement de toute aventure.
2. Le modèle a-t-il été entrainé en RD Congo? Cela peut paraître sans importance. Mais un modèle entrainé dans les tropiques Congolais serait encore plus éloquent.
3. Quelles données ont été utilisées pour entraîner le modèle? La pertinence des données garantit la pertinence du modèle. Les données sont le ferment de tout modèle.
4. S’il s’agit des données passées, quel est le volume?
5. Quelle est la précision du modèle utilisé ? Ici, c’est après les premiers tests, avec les données de vérification du modèle, les résultats doivent être partagés.
6. Comment est-ce que la précision du modèle a été améliorée? Il est supposé que la précision s’améliore avec le temps. Il s’agit des questions qui devraient être éclaircies bien avant la session ordinaire. Et puis viennent les questions de procédure.
7. Quelle est l’assurance de vérification humaine? Toutes les copies ont-elles été revues par les humains ? S’il n’y a pas possibilité et même la certitude de vérification de toute copie alors les remous publics sont justifiés. Toute minimisation de la vérification humaine est un piège. Gagner en rapidité pour publier les résultats veut dire ignorer la contre verification humaine. A écouter l’explication des collaborateurs des ministres, tel semble être le cas.
8. En cas d’erreur de correction, qui est responsable de cette dérive ? C’est ici que l’éthique d’une IA responsable intervient.
9. Puis que cette erreur peut facilement affecter les candidats qui se trouvent dans la moyenne 45-55%, faisant échouer ceux qui devraient réussir et faisant réussir ceux qui devraient échouer, quelle est la garantie que ceux qui sont à la marge ne sont pas lésés ? Imaginons juste que la précision soit de 90%, ce qui est déjà acceptable pour plusieurs modèles, cela veut dire qu’il y a 10% d’incertitudes. Et sur cette marge de 10% le questionnement de pose.
10. L’algorithme de correction a-t-il été audité par des experts indépendants? L’audit indépendant allait énormément renforcer la crédibilité du système au lieu de la remettre en question.
Par dessus tout, comme questionnement de politique publique, pourquoi avoir adopté une utilisation d’IA à grande échelle alors que le pays ne dispose pas d’une politique claire et d’une vision en matière d’IA ? L’absence d’un tel cadre est le plus grand frein de l’évolution de l’IA en RD Congo. Le rapport récent (Juin 2025) de l’UNESCO sur l’état de préparation de la RDC à l’intelligence artificielle est fort éloquent. La question de l’IA dans l’éducation doit être traitée. On peut toutefois rappeler que la RDC avait aussi adopté les Recommandations de l’Ethique de l’Intelligence Artificielle de l’UNESCO en 2021.
Au delà de toute polémique, l’opinion publique doit être éclairée. Les experts de l’Education doivent être éclairés. Si les experts sont laissés dans le nuage (flou), laissant ainsi le débat seulement au niveau des spéculations, quel sort est réservé aux profanes ? Doivent-ils continuer à nager dans la boue de la confusion? Ou bien les experts du ministère doivent continuer à chauffer avec des communiqués, au lieu d’éclairer? C’est ici où, la transparence aiderait!
Addis Abeba, 6 Août 2025
Filippe Faradja