Author: Mitja Jermol

  • Avons-nous encore besoin des REL à l’ère de l’IA ?

    Avons-nous encore besoin des REL à l’ère de l’IA ?

    Fawzi Baroud, professeur associé et titulaire de la chaire UNESCO en REL à l’université Notre Dame de Louaize, s’appuie sur plus de trois décennies d’expérience dans le domaine des technologies de l’information dans l’enseignement supérieur pour mener à bien des initiatives de transformation numérique. Son travail promeut l’ouverture et l’innovation responsable, en mettant fortement l’accent sur l’utilisation des TIC et des REL pour élargir l’accès à l’éducation et faire progresser l’équité.

    Mitja Jermol est un informaticien et chercheur en IA slovène qui dirige des initiatives internationales sur l’éducation ouverte, les technologies de la connaissance et les politiques. Il est titulaire d’une chaire UNESCO et anime les discussions mondiales sur l’intelligence artificielle, l’éthique et la transformation numérique dans les milieux universitaires et industriels.

    L’intelligence artificielle générative (l’IA générative) est en train de remodeler presque toutes les pratiques établies dans le domaine de l’éducation. Certaines personnes affirment que les ressources éducatives libres (REL) sont parmi les principales victimes. L’IA générative peut produire des supports d’apprentissage instantanément et à la demande, alors quel est l’intérêt du travail minutieux de création, de conservation et de partage des REL ? Pourquoi investir dans des référentiels basés sur les communs alors qu’un simple prompt peut donner des résultats comparables en quelques secondes ?

    Les REL sont perçues à tort comme du contenu, quelque chose qui pourrait être facilement synthétisé par un modèle linguistique. En réalité, les REL sont des expériences d’apprentissage conçues et scénarisées. Elles incarnent l’intention pédagogique de créer des expériences d’apprentissage, comprennent un processus de compréhension étape par étape, impliquent des activités qui engagent les apprenant·es à différents niveaux, fournissent un retour d’information avec des évaluations alignées sur les objectifs d’apprentissage et favorisent l’inclusion grâce à l’accessibilité. Tout ce savoir-faire humain ne peut (encore) être capturé dans un prompt, même si celui-ci est complexe et correctement structuré.

    Au-delà de la pédagogie, les REL fournissent également une provenance et une responsabilité, ce que l’IA générative a du mal à faire. Les REL permettent de retracer les origines, ce qui est essentiel dans le contexte éducatif où il est important de savoir d’où proviennent les connaissances, non seulement pour maintenir l’intégrité académique, mais aussi pour permettre à d’autres de s’appuyer sur des travaux antérieurs. 

    Nous devons donc considérer la relation entre les REL et l’IA générative comme un enrichissement mutuel, et non comme un remplacement. Les REL offrent une provenance transparente, des licences ouvertes et des expériences d’apprentissage conçues de manière pédagogique, tandis que l’IA générative accélère la mise à jour, la traduction, l’adaptation et l’accessibilité, rendant les REL plus faciles à maintenir et plus réactives sans sacrifier la qualité ou l’intégrité.

    En résumé, cette amélioration mutuelle peut être envisagée sous plusieurs angles spécifiques :

    • Le paradoxe des données d’entraînement. Les IA génératives sont entraînées sur des contenus créés par l’humain, tels que les REL, et si ceux-ci disparaissent, l’IA sera entraînée sur des données générées par les IA génératives, ce qui réduira la qualité au fil du temps. 
    • Contenu contre conception pédagogique. Les REL ne sont pas seulement du contenu ; elles comprennent des architectures pédagogiques complexes ancrées dans des siècles d’expertise.
    • Vérification et confiance. Les résultats de l’IA générative manquent d’origines. Les REL comportent des attributions, peuvent être évaluées par des pairs et suivent les traditions scientifiques de vérification.
    • Contextualisation et localisation. Contrairement au contenu de l’IA générative, qui a tendance à être générique, les REL sont capables de saisir les contextes linguistiques et culturels spécifiques des communautés qui comprennent les besoins locaux.
    • Les biens communs. Les REL représentent l’éducation comme une entreprise humaine commune. La génération à la demande par l’IA générative éloigne l’éducation du maintien de la connaissance comme bien commun.
    • Et enfin, la dimension d’équité. Les REL sont téléchargeables, accessibles hors ligne et peuvent être utilisées sans API commerciales ni abonnements. Cependant, l’importance de cet aspect dépend entièrement des éléments suivants :

    REL et IA : une question mondiale, des réponses très locales

    La réponse à la question « Avons-nous encore besoin des REL à l’ère de l’IA ? » dépend beaucoup de l’endroit où vous vous trouvez.

    Pour illustrer cela, nous allons examiner deux contextes très différents :

    • Le Liban, où les difficultés économiques et l’accès inégal à la technologie rendent les REL indispensables à l’équité et à la survie.
    • La Slovénie, où une infrastructure numérique solide et les politiques européennes en matière d’éducation déterminent la manière dont les REL et l’IA sont utilisées dans l’enseignement supérieur.

    En examinant ces deux cas côte à côte, nous soutenons que l’avenir de l’éducation ne consiste pas à choisir entre les REL et l’IA générique, mais à comprendre comment elles peuvent fonctionner ensemble dans différentes réalités.

    Le contexte libanais

    Dernièrement, une idée audacieuse revient sans cesse dans les discussions sur l’éducation :
    « Pourquoi s’embêter avec les REL alors que l’IA peut générer du contenu instantanément ? »

    À première vue, cela semble raisonnable. En quelques secondes, l’IA peut produire un plan de cours, une étude de cas ou un quiz. Alors pourquoi passer du temps à créer et à partager des ressources ouvertes ?

    Cependant, les limites pratiques du contenu instantané apparaissent dès que l’accès, le coût et la langue entrent en jeu. Au Liban, cette distinction est très importante. Les universités et les écoles sont confrontées à des crises financières, à des budgets limités et à un accès inégal à la technologie. Toutes les personnes étudiantes ne disposent pas d’un appareil puissant ou d’un accès à des outils d’IA payants. Les REL offrent quelque chose d’essentiel : des supports pédagogiques gratuits et réutilisables qui peuvent être traduits en arabe ou en français et adaptés aux besoins réels des salles de classe.

    Parallèlement, les REL ne sont pas seulement une solution technique, mais aussi une solution sociale, en particulier lorsque les utilisateurs et utilisatrices et les institutions sont soumis à des pressions. Les REL créent également un sentiment de force partagée. Lorsque les éducateurs et éducatrices partagent ouvertement leurs ressources, ils et elles se soutiennent mutuellement. Les connaissances restent accessibles, même lorsque les systèmes sont fragiles et que le financement est incertain. L’IA peut certainement aider, en traduisant, en mettant à jour ou en personnalisant les REL, mais elle ne peut remplacer les valeurs humaines qui sous-tendent l’éducation ouverte.

    Au Liban, les REL restent le fondement d’une éducation équitable et durable. L’avenir n’est pas de remplacer les REL par l’IA, mais de les utiliser ensemble : les REL et l’IA.

    Transition vers le contexte slovène

    Le Liban montre comment les REL peuvent être une bouée de sauvetage en période de crise et d’accès limité. La Slovénie, cependant, présente un tableau tout à fait différent. Grâce à une infrastructure numérique solide et au soutien des politiques éducatives européennes, l’accent est moins mis sur l’accès que sur les questions d’innovation, d’intégrité académique et de durabilité à long terme.

    La Slovénie offrant une connectivité Internet universelle et soutenant stratégiquement les établissements d’enseignement par des investissements, les obstacles généraux à l’adoption de technologies et/ou de pratiques innovantes telles que l’IA générative sont moins importants. Le principal défi auquel est confronté le système éducatif slovène n’est pas de savoir si les élèves et les enseignant·es utiliseront l’IA générative, mais comment ils ou elles l’utiliseront. Cela ouvre des perspectives, mais crée également des tensions dans un domaine où les pratiques et les lignes directrices établies font encore défaut. Plusieurs obstacles ont déjà été signalés, comme par exemple l’absence d’évaluation critique du contenu généré par l’IA, l’homogénéisation des supports, les questions de propriété intellectuelle et de licences, un déficit de compétences et une charge de travail accrue.

    La Slovénie, l’Europe et la plupart des pays du monde sont confrontés à un défi crucial : leur dépendance à l’égard de quelques puissantes solutions d’IA générative contrôlés par les géants mondiaux de la technologie. Cela menace la souveraineté numérique et l’autonomie éducative, car l’évolution de la géopolitique pourrait rendre les outils d’aujourd’hui inabordables demain. Malgré ses investissements dans un modèle linguistique national, la Slovénie ne peut à elle seule rivaliser avec les entreprises, ce qui fait de l’indépendance à long terme une question urgente.

    Image générée par l’IA

    Concilier les deux perspectives

    Considérés ensemble, ces deux contextes montrent pourquoi les dimensions mentionnées, telles que l’équité, la confiance, la localisation et les biens communs, se manifestent différemment en fonction des conditions locales. Lorsque l’on examine ensemble le Liban et la Slovénie, on constate que le même débat mondial prend des formes très différentes. Dans un contexte, les REL favorisent l’équité et la résilience en temps de crise. Dans un autre, elles complètent les systèmes numériques avancés. Ce qui reste constant dans les deux cas, ce sont les valeurs fondamentales d’ouverture, de collaboration et d’inclusion. 

    La dépendance est un risque ; la diversification est la stratégie  

    Les discussions des deux côtés portent également sur la question de savoir si nous devons considérer l’IA générative non seulement comme un outil, mais aussi comme l’infrastructure principale de l’éducation. Cela soulève des risques critiques de dépendance à l’égard d’un petit nombre de plateformes, de leurs modèles de tarification, de leurs conditions de connectivité et de leurs décisions politiques, que les éducateur·rices et les apprenant·es ne peuvent contrôler. Ici, les REL peuvent apporter la résilience nécessaire en fournissant une couche stable, hors ligne et vérifiable, tout en utilisant plusieurs outils d’IA générative remplaçables comme couche d’amélioration qui peut être activée ou désactivée sans perturber l’éducation. 

    Maîtriser notre avenir éducatif

    « Avons-nous encore besoin des REL à l’ère de l’IA ? » n’est pas la bonne question. Nous devrions plutôt nous demander « Qui voulons-nous voir contrôler l’avenir de l’éducation ? ».

    S’appuyer uniquement sur l’IA générative reviendrait à gérer l’éducation sur un terrain en location. Comme le montrent les exemples du Liban et de la Slovénie, dépendre de quelques modèles commerciaux d’IA générative rend l’éducation vulnérable à la hausse des coûts, aux difficultés techniques et aux changements politiques que nous ne pouvons pas contrôler.

    Une voie possible consiste à utiliser les deux, en tirant parti des spécificités de chacun. Les REL, en tant que base, peuvent garantir que les connaissances restent libres, vérifiées par des humains et toujours accessibles à tous sans restriction. L’IA générative, en tant qu’accélérateur, peut fournir des mécanismes simples, efficaces et puissants pour traduire, adapter et mettre à jour cette base.

    En garantissant que l’éducation reste ouverte, détenue et gérée par la communauté, tout en utilisant l’IA générative pour la renforcer, nous pouvons faire en sorte que l’apprentissage reste un bien public plutôt qu’une offre privée. C’est ainsi que nous construirons l’éducation de demain, qui ne sera pas seulement high-tech, mais aussi sociale, éthique, sûre et ouverte à toutes et tous.

    Cet article fait partie de la série : “Sharing is a challenge”, publiée tout au long du mois de mars 2026, en collaboration avec la Chaire UNESCO RELIA et le réseau Euniwell.

    Newsletter : Si vous souhaitez recevoir les articles chaque jour directement dans votre boîte mail, n’hésitez pas à vous inscrire à notre newsletter.

    Traduction : Cet article a été écrit en anglais. Cette traduction, réalisée à l’aide d’outils automatiques puis relue par notre équipe, peut contenir des inexactitudes. Merci de nous signaler toute erreur.

    À propos de l’image de mise en avant de l’article

    L’intention artistique originale reste celle de l’artiste et peut être différente de l’intention éditoriale de notre remix. Nous remercions Joana Mundana pour le partage de son œuvre sous licence ouverte CC BY-NC-SA 4.0.

    « 

    Avons-nous encore besoin des REL à l’ère de l’IA ?

     » de Fawzi Baroud & Mitja Jermol est sous licence CC BY 4.0

  • Différencier le vrai du faux dans l’éducation

    Différencier le vrai du faux dans l’éducation

    L’article d’aujourd’hui est écrit par Mitja Jermol

    Mitja Jermol est titulaire de la chaire UNESCO sur les technologies ouvertes pour les ressources éducatives libres et l’apprentissage ouvert. Il est membre du conseil d’administration du Centre international de recherche sur l’intelligence artificielle sous les auspices de l’UNESCO (IRCAI). La Chaire et IRCAI sont basés à l’Institut Jozef Stefan, à Ljubljana en Slovénie.

    Selon une étude menée par Stanford en 2016, plus de 80 % des élèves du collège ont du mal à faire la distinction entre les contenus fabriqués et les vraies informations en ligne (Wineburg et al., 2016). L’étude a été régulièrement adaptée depuis (https://purl.stanford.edu/gf151tb4868) et les résultats empirent au lieu de s’améliorer.

    Ces statistiques alarmantes soulignent une crise croissante dans l’éducation : la production de désinformation et son impact sur l’apprentissage des élèves.

    L’ère numérique, qui a permis un accès sans précédent à l’information, s’accompagne du défi de naviguer dans un paysage de plus en plus complexe de vérité et de mensonge. Les établissements d’enseignement et les universités, traditionnellement bastions du savoir et de la pensée critique, sont confrontés à la tâche difficile de préparer les étudiant·es à distinguer les faits de la fiction dans un environnement où la désinformation se propage à une vitesse sans précédent par le biais des médias sociaux, des applications et des plateformes numériques.

    Figure generated by AI

    Avec l’apparition d’une IA générative de plus en plus puissante qui permet à chacun·e de créer des millions d’histoires convaincantes mais mensongères, le défi devient de plus en plus complexe à mesure que la frontière entre le contenu authentique et le contenu généré artificiellement s’estompe.

    Plusieurs études ont révélé la nature complexe de la désinformation et son impact sur l’apprentissage. Des chercheur·es (Ecker et al. 2022) ont découvert que l’exposition à la désinformation peut créer des idées fausses persistantes qui résistent à la correction, même lorsque les étudiant·es reçoivent par la suite des informations exactes. Une étude publiée pour la première fois dans Scientific American en 2018 (Greenemeier 2018) a démontré que la désinformation se propage jusqu’à six fois plus vite que les faits avérés sur les réseaux sociaux, ce qui rend particulièrement difficile pour les étudiant·es de maintenir une compréhension précise de l’actualité.

    Figure générée par l’IA

    Il semble que l’humanité passe rapidement d’un monde réel basé sur des données, des faits et une vérité commune conçue par une méthode scientifique à une réalité purement fictive et narrative, où la frontière entre la vérité et la fabrication devient de plus en plus floue. Ces défis posent des risques importants pour le processus éducatif. Les étudiant·es qui ne peuvent pas évaluer efficacement les sources d’information peuvent développer des idées fausses qui entravent leur apprentissage, peuvent prendre des décisions basées sur des données erronées et propager la désinformation. En outre, l’incapacité à distinguer les informations crédibles des informations non crédibles compromet les objectifs fondamentaux de l’éducation, à savoir former des esprits critiques et informés.

    Plusieurs études (Centola et al., 2018, Xie J et al., 2011) ont démontré que seulement 10 à 25 % de la population totale d’un pays peut suffire à renverser les conventions sociales ou à établir de nouvelles normes. Ainsi, si l’on combine la puissance de l’IA générative avec l’effet amplificateur des réseaux sociaux et qu’on les utilise stratégiquement sur une population ayant grandi dans un monde complexe de faux et de vrai, sans mécanismes ni méthodes adéquats pour les distinguer, le potentiel de manipulation et d’érosion de la confiance envers les institutions et envers l’information elle-même devient extrêmement dangereux.

    Cependant, il existe déjà plusieurs mécanismes pour lutter contre la désinformation et plusieurs nouvelles tentatives pour relever ces défis dans l’éducation, en combinant les compétences traditionnelles de pensée critique avec les techniques modernes de culture numérique, soutenues par une intégration systématique dans les programmes scolaires, une pédagogie critique et une évaluation continue.

    La méthode SIFT (Stop, Investigate, Find better coverage, Trace claims), par exemple, développée par Caulfield (Caufield 2023), a donné des résultats prometteurs en améliorant la capacité des élèves à évaluer les informations en ligne. Le test CRAAP (Currency, Relevance, Authority, Accuracy, Purpose) développé par Blakeslee (2004) et principalement utilisé par les bibliothécaires pourrait être adapté pour prendre en compte des facteurs spécifiques aux plateformes d’information tels que les biais algorithmiques, le contenu généré par les utilisateurs/utilisatrices et la propagation de fausses informations au sein de réseaux fermés. Cette adaptation pourrait également inclure la motivation et la crédibilité de l’auteur·e, l’impact émotionnel, etc.

    Plusieurs approches plus traditionnelles comprennent diverses combinaisons d’apprentissage par l’enquête, de lecture latérale et d’évaluation des sources, de projets collaboratifs de vérification des faits, de simulations et de jeux de rôle, d’analyse critique des récits médiatiques.

    Enfin, nous aimons toujours conclure en mettant tout le poids sur les épaules des enseignant·es. Il est vrai que les enseignant·es devraient servir de modèles d’évaluation critique lorsqu’ils/elles enseignent aux élèves. Il est également conseillé que leur développement professionnel implique d’être informé·es des nouvelles tendances en matière de désinformation, qu’ils/elles apprennent et enseignent des techniques d’évaluation, qu’ils/elles développent des compétences pour guider les discussions des élèves sur des sujets controversés, et plus encore. Bien que les enseignant·es, les écoles et les systèmes éducatifs soient essentiels, la question de la séparation du faux et du vrai dans l’éducation s’étend bien au-delà de la salle de classe. Les enseignant·es ne sont qu’un élément d’un défi sociétal plus large qui nécessite une approche coordonnée. Pour répondre à cette question complexe, il faut une stratégie globale qui implique la participation des familles, l’engagement de la communauté, des initiatives d’éducation aux médias, la responsabilisation des plateformes et une recherche continue sur la nature et l’impact de la désinformation.

    La capacité à distinguer le faux du vrai est devenue une compétence fondamentale pour le XXIe siècle. L’avenir de la citoyenneté éclairée et du discours démocratique dépend de notre capacité à préparer les étudiant·es à un paysage informationnel de plus en plus complexe. La vérité, c’est que nous ne sommes pas très bons dans ce domaine aujourd’hui et que le développement rapide des technologies, la dissolution rapide des normes et la pratique de la désinformation aux plus hauts niveaux de la société sans responsabilité ne sont pas des exemples à suivre.


    Références

    Blakeslee S, (2004) « The CRAAP Test, » LOEX Quarterly: Vol. 31: No. 3, Article 4.
    Available at: https://commons.emich.edu/loexquarterly/vol31/iss3/4

    Caulfield M, Wineburg S, (2023), “How to Think Straight, Get Duped Less, and Make Better Decisions about What to Believe”, University of Chicago Press; First Edition (November 16, 2023)

    Centola D, Becker J, Brackbill D, Baronchelli A. (2018) “Experimental evidence for tipping points in social convention” .Science 360,1116-1119(2018).DOI:10.1126/science.aas8827

    Ecker U.K.H., Lewandowsky S., Cook J. et al (2022). “The psychological drivers of misinformation belief and its resistance to correction”. Nat Rev Psychol 1, 13–29 (2022). https://doi.org/10.1038/s44159-021-00006-y

    Greenemeier L (2018), “False news travels 6 times faster on Twitter than truthful news”, https://www.pbs.org/newshour/science/false-news-travels-6-times-faster-on-twitter-than-truthful-news

    Wineburg S, McGrew S, Breakstone J, Ortega T. (2016).” Evaluating Information: The Cornerstone of Civic Online Reasoning”. Stanford Digital Repository. Available at: http://purl.stanford.edu/fv751yt5934

    Xie J, Sreenivasan S, Korniss G, Zhang W, Lim C, Szymanski BK. (2011) “Social consensus through the influence of committed minorities”. Phys Rev E Stat Nonlin Soft Matter Phys. 2011 Jul;84(1 Pt 1):011130. doi: 10.1103/PhysRevE.84.011130. Epub 2011 Jul 22. PMID: 21

    Veuillez noter que cet article a été traduit avec l’aide de l’intelligence artificielle et révisé par des personnes non professionnelles de la traduction. Malgré nos efforts pour garantir la correction et la fidélité du texte, des erreurs ou imprécisions peuvent subsister. N’hésitez pas à nous en faire part : chaireunescorelia@univ-nantes.fr