Rethinking Higher Education/fr/Chapter 2

From China Studies Wiki
Jump to navigation Jump to search

Langue : FR · EN · ZH · EN-ZH · ← Livre

Enseigner signifie — Humanité et IA du point de vue d'un philosophe

Ole Doering

Université normale du Hunan

Résumé

Cet article traite de la nature de l'« IA » en tant que défi pour la compréhension de soi de l'être humain et en tant que tâche pour la pédagogie, afin de se confronter au meilleur de notre savoir. D'un point de vue philosophique, les perspectives dépendent de l'anthropologie choisie, laquelle pourrait intégrer les dimensions biologiques et sociales de la culture technologique. Les mécanismes par lesquels l'apprentissage humain est naturellement programmé nous donnent de l'espoir et de la dignité quant à notre capacité à renouveler notre système éducatif en conséquence, stimulés par la nécessité de nous confronter à l'« IA ».

1 Introduction

Comment donner sens au phénomène que l'« IA » est devenue un thème fédérateur pour l'humanité au XXIe siècle ? Dans quelle mesure ce thème est-il réaliste ? L'« IA » est-elle déjà établie comme une technologie omniprésente dans l'enseignement universitaire, ou son usage commun ne fait-il que débuter ? Les questions liées à son adéquation et à son application sont-elles fondamentalement les mêmes partout ou sont-elles sensibles au contexte ? Quelle est la perception de la finalité et des meilleures pratiques en éducation, et comment l'Europe et la Chine pourraient-elles apprendre l'une de l'autre en explorant les normes de sa mise en œuvre ?

Dans cet article, j'examine l'utilisation de l'« IA » dans l'enseignement, l'apprentissage et la pédagogie, à travers le prisme d'une relation saine et d'une attitude humaine raisonnable envers l'IA, en considérant l'objectif de l'apprentissage, les caractéristiques de cette technologie et la nature de l'humanité. Le titre comporte un terme ambigu, « enseigner signifie » (teaching means). Sa sémantique englobe l'interrelation entre l'enseignement et ses moyens (outils et mesures), ce que signifie véritablement enseigner (plutôt que prêcher ou mimer), instruire dans l'usage approprié de moyens adaptés, et les instruments du bon enseignement. La cohérence de cette ambiguïté s'établit par des actes philosophiques d'alignement de l'humanité et de l'« IA », c'est-à-dire par l'examen de l'usage du langage et des opérations de cohérence et d'intégrité.

Le marketing public de la technologie utilise « IA » comme une étiquette générale à travers différents secteurs industriels. Plus exactement, il faudrait parler de processeurs algorithmiques construits à dessein, fondés sur l'apprentissage automatique, traitant différents types de données. La signification d'« artificiel », en particulier dans sa relation avec le naturel et le culturel, est importante mais non standardisée, de sorte qu'elle doit être déterminée. La signification d'« intelligence » est encore plus importante, car elle n'exprime pas simplement notre compréhension de la chose mais est liée au potentiel d'agentivité. C'est donc une question de clarté et de responsabilité que de définir ces termes fondamentaux, en tant que noms d'une technologie dont la perception et l'application ont un grand impact sur la conscience de soi humaine, sur l'organisation d'activités cruciales et sur la compréhension des meilleures pratiques, lesquelles contribuent aux cadres des programmes d'études, des réglementations et de l'ordre social.

Étonnamment peu de choses sont discutées concernant la dénomination appropriée de la technologie, de ses processus et de ses caractéristiques. Compte tenu du pouvoir du langage et de la responsabilité d'utiliser les mots pour transmettre un sens robuste ou véridique, cette lacune doit être comblée, eu égard à l'ampleur de l'impact de l'imagination sur la réalité sociale. Il ne peut suffire de se référer à la nonchalance habituelle avec laquelle la société reçoit le design linguistique des parties intéressées. L'absence de réponses critiques à l'usage instrumental d'un langage suggestif, qu'il s'agisse de publicités, de discours politiques, d'argumentaires de vente ou de campagnes de marketing, dont l'exemple récent le plus flagrant est le nom de « Metaverse », présentant les projections de réalité virtuelle cybernétique comme une forme supérieure d'ontologie, remplaçant la métaphysique par des vœux pieux. Alors que le métavers a apparemment échoué, par manque d'infrastructure tant matérielle que logicielle, une approche monopolistique du développement de plateformes et un manque de normes de gouvernance claires, la même vigueur du battage médiatique et de l'hubris est à l'œuvre dans la présentation de l'« IA » comme une entité nouvelle dépassant la compréhension humaine, comme cela a été fait avec plusieurs percées technologiques précédentes portées par des attentes marketing, y compris la génomique censée révolutionner la santé ou les technologies de l'information censées révolutionner le savoir. D'un côté, les revenus de certaines industries et de nombreuses carrières ont été dopés. De l'autre, un impact durable significatif sur le bien-être social, la stabilité, la santé et le savoir reste à démontrer, en raison d'attentes exagérées, de perceptions trompeuses et de la durée de vie limitée de promesses superficielles.

L'intelligence est comprise comme une fonction de la raison (Vernunft) ou de la rationalité (Verstand), permettant d'établir des connexions spontanées entre des schémas de connaissance et de perception, dans le cadre des opérations de l'expérience (Erlebnis et Erfahrung). La terminologie allemande, plus spécifiquement définie, est utilisée lorsqu'elle apporte à la précision souhaitée de l'analyse. La connectivité est une caractéristique technique naturelle de l'intelligence humaine, mais elle n'est pas réductible à la performance cognitive. Chez l'humain, l'intelligence est une activité et une qualité, tissée dans l'ensemble du tissu de la sensualité, de la perception et de la réflexion, du corps étendu (Leib), de l'interaction sociale, de l'empathie, du langage, de la conjecture, de l'apprentissage par la pratique, etc. L'intelligence est incomplète, vivante, contradictoire, générique, répétitive et conservatrice, spontanée et fonctionnelle. La recréer artificiellement est possible par réduction et simulation, à travers des modèles et un perfectionnement incrémental. Les progrès étonnants des sciences et technologies concernées devraient inspirer un examen critique lucide plutôt que

Cet article est fondé sur une conférence et prend la forme d'une annotation à un débat qui devrait avoir lieu.

2 L'humanité dans l'IA

Le langage est l'expérience exprimée de l'opération de la raison, au sein d'une culture et entre les cultures, reliées par la nature humaine dotée de raison. L'apprentissage au sens de l'extension du savoir est la continuation de cette expérience, de manière pédagogique, en engageant les opérations naturelles et réfléchies du langage. La pédagogie maintient ce processus d'engagement pratique, selon les normes humaines et les capacités individuelles.

2.1 La position humaine

Dans la perspective de l'évolution historique de l'humanité, la signification de l'« IA », en tant qu'ensemble efficace d'outils invisibles fondés sur des processus mathématiques et des simulations du langage et de la cognition, devrait être comprise en relation avec le langage naturel et l'apprentissage, à savoir comment les utiliser judicieusement.

Le langage représente la culture du savoir et le savoir cultivé. La culture du savoir est un environnement socio-épistémique qui encourage, favorise et soutient le savoir tel qu'il convient aux êtres humains selon notre nature. Le savoir cultivé est la structure et le contenu naturellement développés de ce que nous avons appris, de manières qui accommodent l'humanité. La technologie est a priori instrumentale, quel que soit son degré d'intellectualité, de matérialité ou de technicité ; elle n'est technologie que lorsqu'elle peut être et est destinée à être utilisée pour servir des fins imaginées. Le langage ambigu, souvent métaphorique, de la description technologique peut confondre la relation entre l'humanité et la technologie et sa compréhension appropriée. Typiquement, l'ambiguïté, caractéristiquement enracinée dans l'ontologie instrumentale de la technologie, prend la forme soit d'une foi disproportionnée en ce que cette dernière peut accomplir (« oubliant » ainsi le sujet agent), soit d'une soumission préemptive de l'infériorité humaine devant sa toute-puissance fictive (ignorant ainsi les limitations d'un simple objet). Lorsqu'elles sont combinées avec le battage médiatique, l'hubris ou la communication stratégique, cette confusion peut être naturellement amplifiée ou délibérément manipulée, de sorte que la consommation et l'obéissance demeurent les seuls rôles humains. Cependant, elle peut aussi être contrecarrée par les Lumières, c'est-à-dire en mobilisant la raisonnabilité, la proportionnalité et l'humilité, afin de permettre le meilleur usage possible.

Par conséquent, un langage responsable, sincère et précis est nécessaire pour une compréhension claire et une attitude saine envers nos technologies, en particulier celles qui affectent directement notre cognition, par la simulation ou la parole. Ainsi, on peut surmonter les confusions ontologiques, par exemple lorsque des activités redondantes comme les jeux vidéo sont interprétées à tort comme « jouer », et les confusions épistémiques, comme lorsque la qualité est mesurée par les résultats plutôt que par la performance. C'est-à-dire en commençant par les données d'entrée.

Une vision éduquée du langage aidera à établir une position dans laquelle « parler de ce que je sais, et en même temps, savoir de quoi je parle, et comment, en considérant la finalité » de mon discours. Cela signifie que le langage est instrumental pour parler véridiquement de l'« IA », et non simplement utiliser des « mots vides » sans langage. Face à un objet instrumental, cette relation devrait être définie : d'abord, si et dans quel sens il est raisonnable de faire plus confiance aux machines qu'aux humains. Cela conduit à l'exigence de rôles partagés. Pouvons-nous faire confiance aux humains pour contrôler les machines afin qu'elles servent notre finalité et ne fonctionnent pas simplement selon leur conception ? Avec cette attitude, l'éthique et la science convergent dans une culture d'humilité délibérée, de prudence et de soin.

2.2 L'angle économique

Comme pour de nombreuses autres innovations technologiques auparavant, l'« IA » inspire le débat sur l'avenir des modes de vie traditionnels. Par exemple, le « Generative Pre-trained Transformer », à savoir GPT, montre un potentiel pour accélérer les opérations mécaniques des fonctions linguistiques de plusieurs ordres de grandeur, à condition que l'énergie et les données soient suffisamment bien fournies. Il pourrait révolutionner les recherches en ligne ou la traduction de textes écrits ou parlés. Naturellement, il y a des inquiétudes quant à l'impact de cette technologie sur le travail humain. Celui-ci deviendra-t-il obsolète ? Le travail peut-il être remplacé par la production ? Par le passé, de telles craintes reposaient sur les données du marché du travail. Les activités mécaniquement répétitives dans le flux de travail ont été automatisées, puis l'automatisation a remplacé plusieurs domaines de travail manuel, augmentant en même temps la demande d'activités spécialisées ou généralisées dans le travail intellectuel.

Il faut noter que les stratégies de développement des ressources humaines suivent des logiques économiques spécifiques, déterminées par les politiques qui définissent ce qui est valorisé et encouragé. L'investissement de la société, direct et indirect, dans la création de ces opportunités et avantages technologiques a été absorbé sans considération adéquate de la différence entre le prix de marché et la valeur économique des machines. La pratique combinée de remplacement manufacturier et de déplacement social a été portée par des opportunités qui dépendaient en partie de l'inadvertance ou de la négligence. Des options plus durables pour un emploi constructif des machines n'ont pas été explorées. L'accent a été mis uniquement sur la reconversion ou l'aide sociale pour les employés licenciés. La compensation de la valeur ajoutée et du coût social des inventions, normalement calculée sous forme d'impôts ou de redevances, n'a même pas été envisagée. Une grande partie de l'effet en cascade de l'innovation accélérée et des problèmes sociaux pourrait être compensée dès le départ, par des taxes de substitution ou des cotisations sociales, proportionnellement à l'investissement de la société qui a rendu ces développements possibles. Quels que soient les moyens, le gain serait du temps — pour apprendre, étudier, planifier, apporter un bénéfice social.

Il y aurait également un effet de cultivation, en atténuant le désespoir de l'avidité pour un revenu rapide. Gagner du temps signifierait aussi une réallocation de cette ressource la plus précieuse vers une variété de créateurs de valeur dans la société, au bénéfice d'un développement économique plus durable. Considérant que la plupart des avantages des inventions portées par l'IA résident dans le gain d'efficience et l'indifférence à l'efficacité, il peut y avoir divers scénarios de compromis supplémentaires lorsqu'une telle stratégie est poursuivie. Cet effet de cultivation engendrerait le bénéfice de la maturité des consommateurs, en leur permettant de s'habituer aux nouveaux outils, de les voir comme des objets et de découvrir en quoi ils comptent. L'absence de tels efforts de cultivation se traduit par le besoin d'éducation générale et spécialisée, notamment en matière d'utilisation technologique et d'économie. Cela est évident du point de vue de l'humanité, au service des personnes et sans en laisser aucune de côté, sur le chemin de la modernisation démocratique.

Dans un tel environnement, le travail, en tant que nécessité anthropologique et source de dignité dans la société, serait réhabilité comme un bien social lié à l'éducation. Il augmenterait l'intégrité sociale, contrecarrerait les nouvelles stratifications et soutiendrait un développement durable. Le fait que nous ne soyons pas habitués à mener de tels débats de manière raisonnable en public, mais que nous soyons portés par des réponses hâtives à de nouvelles impulsions incessantes du marché, indique la nécessité de creuser plus profondément que le traitement superficiel des phénomènes, des opportunités ou des conflits. C'est la première contribution à un débat sur l'« IA » émancipé de la rationalité technologique.

2.3 Qualité esthétique

L'esthétique en général relie la perception cohérente au jugement normatif, transcendant ce qui est beau vers le concept de beauté, ce qui est bon vers le concept de bonté, ou ce qui est véridique vers le concept de vérité, de sorte que de tels concepts puissent porter l'élan d'apprentissage de manière téléologique vers le concept de cultivation.

Cette perspective, cependant, est rendue possible par l'expérience humaine, du monde, de soi-même et de la réflexion intellectuelle. Nos rêves de perfection demeurent aussi ambigus qu'ambitieux, sauf s'ils sont accompagnés, équilibrés et intégrés par l'expérience de l'agentivité. Le microcosme le plus inclusif auquel l'esthétique peut être appliquée est son propre corps humain étendu (Leib), en tant qu'agent de cultivation et d'éducation. C'est là que nous distinguons l'original de la simulation, l'agentivité responsable du jeu, la cohérence significative de la plausibilité logique, la finalité de la fonction, la dignité de la valeur, le travail de l'activité, la formation (Bildung) de l'instruction (Ausbildung). C'est là aussi que nous revisitons la pertinence logique des formes classiques de discours indirect, telles que l'analogie, la métaphore, la corrélation, l'ironie, l'humour ou l'allusion.

En tant qu'entité sociale, un tel corps a un visage. Pouvons-nous lui donner un vrai visage humain et une vraie finalité dans l'éducation ? Même lorsqu'il est commode, attrayant ou consolant d'offrir un substitut au lieu du vous naturel, un fac-similé parfait d'un soignant humain, comme dans les soins infirmiers ou l'enseignement, déployer des robots humanoïdes pour répondre aux besoins de groupes vulnérables peut être socialement moins risqué que de tromper des citoyens aisés avec un masque amical, mais est certainement injuste. Les ressources économisées par ce raccourci, (si elles ne sont pas avares), pourraient mieux être investies dans le développement réel de relations sociales capables de bien fonctionner dans les conditions du XXIe siècle.

Un visage humain et une forme humaine appartiennent aux humains, pas aux machines. L'ironie, les arts et la comédie ont enseigné aux citoyens modernes la valeur de l'esprit de jeu libéral avec tout, défiant les tabous traditionnels, afin de surmonter les limitations de l'humanité fondées sur des pouvoirs extérieurs (tels que les institutions politiques ou les autorités religieuses). Cependant, il existe une tension naturelle nécessaire entre l'expression ludique et les transgressions, et la durabilité sociale humaine ; la liberté sociale est limitée par la liberté de l'autre, ce qui inclut le respect de la nature humaine ou de la tradition. Les marges de tolérance doivent être renégociées à mesure que la technologie avance, afin d'empêcher que la simulation et le design mimétique ne deviennent de nouvelles formes de langage frauduleux. Par conséquent, le savoir traditionnel sur la simulation et la vérité devrait être mobilisé.

Il en va de même pour la sagesse du langage. Ce n'est pas une phrase condescendante pour apaiser la pensée conservatrice, mais un aperçu philosophique formulé par Gadamer : « Le langage est le milieu universel dans lequel la compréhension elle-même se réalise. Le mode sur lequel la compréhension s'accomplit est l'interprétation ». En d'autres termes, le sens est dans l'usage du langage. C'est le point de départ de la valeur des approches analytiques en philosophie.

Lorsque nous parlons d'inventions numériques, nous ne pouvons pas commencer par les smartphones, mais par les outils et le langage lui-même, en tant qu'instruments physiques et intellectuels de la numérisation. Le mot « digital » dérive du latin digitus, signifiant « doigt » et extensions de la main : les bâtons de bois et les outils de pierre marquent le début de la capacité humaine à façonner le monde matériel selon une finalité et à établir ainsi de nouveaux horizons. C'est littéralement le début de la fabrication (utiliser les mains pour faire quelque chose). Comprendre la signification de la technologie, en tant que moyen de transformer « ce qui est donné », les data, en « ce qui est fait », les faits, aide à apprécier ce qui compte dans l'apprentissage de la fabrication.

Cette enquête nous aide aussi à faire un pas supplémentaire vers la cartographie du paysage conceptuel de l'apprentissage et de l'« IA », à savoir relier l'ontologie et l'épistémologie. Manipuler la matière des symboles de sens, organiquement et mentalement, prend la forme de la lecture et de l'écriture, c'est-à-dire la capacité d'ébaucher des conceptions alternatives du monde, de la vérité, de la beauté et du bien, de créer un espace pour l'imagination, c'est-à-dire d'explorer de nouvelles voies, de jouer selon des règles connues et même de les tester, inspirant ainsi la culture. Utiliser le langage de manière instrumentale, dans la parole et l'écriture, marque le début de la capacité humaine à se connecter à travers le temps et l'espace selon une finalité — c'est-à-dire de l'apprentissage intellectuel. Dans la même veine, le malentendu et l'erreur, la déformation et le mensonge entrent dans la vie culturelle. La perspective esthétique s'assure qu'il reste des options pour aligner les différentes approches de l'utilisation de l'« IA » dans une trajectoire unique de cultivation saine, culminant dans les connotations et les expressions du langage.

2.4 Notre tâche

La pratique du savoir change. Pour les humains, elle demeure naturellement digitale. La culture est une technologie naturelle humaine. Culture et technologie sont des expressions fonctionnelles de la nature humaine. Au fil du temps, nous déconnectons l'apprentissage technique de l'apprentissage évolutif (pratique), par des actes de spécialisation. Cela est parallélisé par le réductionnisme scientifique dans les disciplines au sein du champ de la science (Wissenschaft). Dans les deux cas, comment assurer l'alignement sur l'humanité des domaines du savoir ? Les silos qui ont émergé devraient-ils être resynchronisés, synthétisés ou transformés en un nouveau type de compétence, adapté au XXIe siècle, de manière saine ? Comment pouvons-nous apprendre à programmer la spécialisation méthodique pour qu'elle serve l'évolution de l'humanité ?

Notre capacité à manipuler le monde repousse les limites macroscopiques et microscopiques, alimentant la fantaisie et la fiction, pour stimuler l'imagination. Ce qui constituait les projections traditionnelles des marges de l'humanité, telles que le golem, l'homoncule, les androïdes ou le cyborg, semble maintenant nécessiter de nouvelles images, actualisées. Les récits traditionnels étaient portés par l'imagination fondée sur très peu d'expérience, typiquement sous l'étiquette provisoire de la science-fiction. Nous avons maintenant besoin de noms et d'histoires fondés sur des expériences actualisées, avec la pratique sociale des applications technologiques en biologie, traitement de l'information, chimie ou physique. De tels récits ne peuvent pas être principalement façonnés par les acteurs économiques ou scientifiques-techniques, dont le langage et l'intérêt ne sont pas pleinement enracinés dans la société. Ils ne peuvent pas non plus être raisonnablement laissés aux experts ou à l'évolution sociale naturelle, car nous avons appris que la puissance du développement technologique et du marketing réduit au silence le bon sens. Certes, les peurs et les promesses exagérées, les attentes dramatisées et l'entrée prématurée sur le marché ne sont pas des phénomènes nouveaux. Cependant, l'impact des problèmes non résolus avec les produits existants, mis en œuvre prématurément, tels que les smartphones, augmente de manière incrémentale dans l'incertitude des risques qui en découlent, tandis que dans le même temps, la résilience culturelle requise pour une évaluation adéquate et un traitement sociétal s'est érodée au fil des décennies.

Cela est évident dans trois domaines, à différents niveaux.

Premièrement, il y a une confusion largement entretenue sur l'agentivité. Lorsque l'on parle de « ce que l'« IA » fait », le sujet et l'objet grammaticaux doivent être clairement distingués du sujet et de l'objet réels. L'artefact composite dynamique que nous appelons « IA » doit toute son existence, sa fonctionnalité et son évolution à l'agentivité humaine, quelle que soit la concordance avec la performance prévue. Nous devrions éviter les connotations sémantiques socialement riches, telles qu'attribuer l'apprentissage, la pensée ou la suggestion à l'« IA ». Une technologie mérite une terminologie technique, non un étiquetage émotionnalisé. L'anthropomorphisme suggéré pose la question d'une conscience de soi émergente, voire d'une conscience morale, et gonfle la probabilité d'une perfection de plus en plus automatisée, même lorsque l'hypothèse axiomatique n'est pas partagée, selon laquelle c'est impossible pour des raisons a priori. Ce n'est plus un lapsus bénin, car la finalité même de la technologie est d'amplifier l'efficacité, c'est-à-dire le pouvoir. Par là, par conception et par défaut, les moindres problèmes, défauts, risques ou dangers sont amplifiés aussi. Ce qui était autrefois bénin et spéculatif pourrait maintenant avoir des conséquences réelles énormes et profondes. C'est pourquoi un examen minutieux de la justesse du langage s'impose.

Deuxièmement, comparativement aux cycles d'accommodation sociale des immersions technologiques antérieures dans la société, les séquences dans lesquelles de nouvelles dimensions d'efficacité et d'impact sont introduites deviennent de plus en plus hâtives et tronquées. Ici, « introduction » est un euphémisme, car la décence sociale insinuée n'est pas observée. Des disciplines scientifiques telles que l'évaluation des technologies (Technikfolgenabschätzung), l'éthique de la technologie, les mathématiques appliquées (Informatik) et les compétences générales de compréhension de ces inventions n'ont pas été établies comme matières majeures. Cela implique que la plupart des citoyens sont virtuellement analphabètes en ce qui concerne l'« IA ».

Troisièmement, la substitution de l'activité humaine par les machines fait partie de leur finalité souhaitée. Cependant, elle doit être raisonnablement planifiée, avec des mesures adaptées, proportionnellement à l'ensemble du processus, pas seulement l'investissement et le revenu. Comme mentionné ci-dessus dans le passage sur le travail et la production, ce qui s'applique maintenant dans le domaine du langage aurait dû être appliqué en économie il y a des décennies, à savoir l'honnêteté quant à la genèse et à la distribution de la valeur ajoutée générée par les machines qui supplantent le travail traditionnel.

C'est une situation typique qui appelle des solutions structurelles institutionnelles, afin d'assurer la finalité et la durabilité des politiques. La « culture de l'IA », concernant les humains, est une métaphore pertinente. Elle n'élargit guère le sens littéral d'être capable de lire, calculer et écrire de manière cultivée sur les opérations symboliques et physiques du matériel et du logiciel, dans leur contexte ontologique, économique et infrastructurel. C'est là que réside la tâche évidente pour un secteur éducatif réformé. Bien que des programmes interdisciplinaires appliqués auraient dû rester, ou être réhabilités, comme la norme d'excellence en éducation en général, dans tout domaine, tel que la santé, l'économie, l'histoire ou la philosophie, l'« IA » en tant que sphère sociale (et significativement liée en effet à la santé, l'économie, l'histoire ou la philosophie) pourrait en être le point culminant.

Les moyens de comprendre l'équilibre naturel entre ce que nous pouvons faire, ce que nous pouvons nous permettre et ce que nous devons faire sont mis à l'épreuve. Le savoir traditionnel des classiques, en matière de prudence et de pragmatisme, nécessite d'être revisité : Comment faire les bonnes choses pour les bonnes raisons ; comment savoir ce que l'on fait et faire selon ce que l'on sait ; comment dire ce que l'on pense et penser ce que l'on dit, concernant ce qu'est l'« IA » et ce qu'elle signifie. En considérant la responsabilité, la prudence normative est une exigence de méta-niveau de la compétence numérique (en morale, en droit et en éthique).

2.5 Pédagogie : comment apprendre d'être préparé pour l'« IA »

Amener le langage, le discours conceptuel et institutionnel sur l'« IA » et la pédagogie vers un état actualisé d'expérience et de savoir signifie pratiquement coordonner la science et la nature pour que nous puissions soutenir un apprentissage cultivé.

La compréhension fondamentale la plus pertinente dérive de théories holistiques appliquées sur les programmes d'apprentissage, combinées à la recherche neurologique sur le développement réel du cerveau, en tant qu'habitat biologique de l'apprentissage. Les humains apprennent par des processus intégrés d'expérience impliquant à la fois l'individu concerné et les facteurs sociaux. La philosophie offre des interprétations de la manière de donner sens aux implications pratiques globales de ce savoir multidisciplinaire déconnecté.

En ce qui concerne l'apprentissage, la première expérience primaire (Erleben) connecte spontanément l'individu sensible avec l'environnement. Ce n'est pas un acte neutre mais une note fondamentale pour la biographie d'apprentissage et la carrière épistémique. La qualité de cette connexion détermine la portée de la perception involontaire, ainsi que le mode subjectif d'apprentissage, la manière dont il a une « intuition » du jugement. En particulier, l'Erleben préconditionne l'expérience secondaire (Erfahrung), c'est-à-dire les processus de construction de la conscience par des événements de connectivité, coordonnés selon les schémas de la cognition, et rationalisés avec les capacités des concepts (Verstand) et des principes (Vernunft).

Le continuum de connectivité externe de l'apprentissage est expliqué comme le déploiement systématique d'exercices « apprendre en faisant », de l'observation à l'expérience pratique pendant le travail, en tant qu'interconnexion méthodique avec l'environnement tangible, par le père de la pédagogie moderne, Johann Heinrich Pestalozzi (1746-1827). Apprenant à travers ses propres expériences échouées, il est passé du dogmatisme théologique et technocratique à l'appréciation des mathématiques comme approche interprétative de la nature humaine, apprenant des schémas du travail (à distinguer de la production). Cela rend sa théorie accessible et pertinente pour les enquêtes contemporaines sur les conditions du meilleur apprentissage avec et au sujet de l'« IA », en tant qu'humains.

Il explique ainsi comment les algorithmes, leur architecture et leurs opérations au travail dans l'« IA » devraient servir les besoins naturels humains. « Ma méthode ne fait rien d'autre que reproduire le cours simple de la nature. » ... « Toute perception sensible profondément imprimée dans l'esprit humain déclenche une série de notions secondaires qui se rapprochent plus ou moins de cette perception... rassemblant ainsi des objets dont l'essence est la même ; votre compréhension de la vérité intérieure de ces objets sera élargie, aiguisée et renforcée ». Une telle éducation nourrit la culture et la souveraineté sur la technologie.

D'autre part, la connectivité interne de l'apprentissage est expliquée par la recherche en neurobiologie, sous le terme d'« apprentissage compatible avec le cerveau ». Pour l'« IA », cela est pertinent car les modèles axiomatiques de réseaux neuronaux s'inspirent de la cohérence conceptuelle, ou esthétique, la connectivité générique et la plasticité des modèles naturels, et l'orientation motivationnelle à partir de stimulations. Il apparaît donc des heuristiques de chevauchement significatives, entre les modèles biologiques et technologiques, qui peuvent être explorées dans le but de clarifier la relation conceptuelle et l'alignement des trajectoires de développement, telles que le bien-être humain.

La pédagogie appropriée est efficiente et efficace. Elle poursuit sa finalité, à savoir l'éducation, avec le minimum de dommages collatéraux possible et le plus grand impact développemental souhaité sur l'individu. Du point de vue de la biologie de l'« apprentissage compatible avec le cerveau », la pédagogie, avec ses programmes et ses institutions, évite les interventions dommageables ou trompeuses, tout en amplifiant soigneusement les processus naturels. Il est notable qu'amplifier est différent de simuler ou de corréler, car cela gère directement la causalité intentionnelle, sans prétendre ni même avoir besoin de théoriser. Concernant les structures organiques, une telle pédagogie utilise le mécanisme de la neuroplasticité comme propriété de l'apprentissage, avec l'objectif de tirer le meilleur parti de l'éducation, en tant que technologie humaniste, pour maîtriser les technologies. Sur le plan théorique, elle évite les concepts fermés, les idéologies spéculatives et la justification de la honte ou de la « force brute de la perfection », comme moyens de l'éducation, tels que dans les mesures de transformation corporelle envisagées par les partisans du transhumanisme.

L'« apprentissage compatible avec le cerveau » ne consiste pas seulement à traiter le cerveau de manière amicale, mais aussi, inversement, à nous permettre d'être traités amicalement par notre corps, tandis que nous nous efforçons de progresser, en connectant toutes les ressources humaines dans un centre d'apprentissage naturel. Au tout début, il active l'expérience « joyeuse » (homéostatique) (Erlebnis) dans les connexions avec l'environnement, combinant les réponses préconscientes au besoin et les premières expériences (Erfahrungen) de causalité, de pouvoir et de relation.

« Tous les nouveau-nés possèdent un certain répertoire de réactions comportementales qui sont activées au cours de, ou en même temps que, l'activation des systèmes centraux de réponse au stress lorsque leur homéostasie est menacée par le froid, la faim, la soif, etc. ... [La] reconnaissance précoce de la contrôlabilité d'un facteur de stress par une action propre est l'une des premières expériences d'apprentissage associatif d'un enfant et elle a un fort impact d'empreinte sur le cerveau en développement. »

En d'autres termes, l'« apprentissage compatible avec le cerveau » cultive la propension humaine à la joie (Freude), comme Leitmotiv éducatif positif et puissant. Il façonne et gère l'apprentissage comme une croissance organique, portée par la finalité humaine, non comme une augmentation par de la matière morte ou un moulage coercitif. Il soutient l'apprentissage tout au long de la vie, en émancipant la curiosité de l'avidité, de la peur ou du pragmatisme étroit. Par là, il permet des attitudes saines, une culture et une compétence authentique envers la technologie.

Comme dans l'invention d'outils précédents, tels que la calculatrice de poche ou l'ordinateur portable, la confusion ontologique et l'attrait de la commodité peuvent défier la maturité d'une société à gérer l'innovation dans son meilleur intérêt. L'attention du discours, des forces du marché et de la régulation est souvent détournée du bien-être à long terme vers des promesses à court terme. Dans cette lignée, la prospective et la responsabilité dans l'innovation et la mise en œuvre des technologies n'ont pas rassemblé la force et la stratégie nécessaires à un discours raisonnable.

Comme l'ont récemment observé des chercheurs australiens d'« Education Futures », répondant à une étude du MIT portant sur les premières données épidémiologiques de l'« IA » dans l'éducation qui mettait en garde contre des risques significatifs liés à la frustration épistémique perçue et même à la « pourriture cérébrale » : « L'IA peut en effet être préjudiciable. Les étudiants peuvent pour la plupart déléguer l'engagement critique avec l'apprentissage à l'IA, ce qui entraîne une « paresse métacognitive ». Cependant, tout comme les calculatrices, l'IA peut et devrait nous aider à accomplir des tâches qui étaient auparavant impossibles — et nécessitent encore un engagement significatif. Par exemple, nous pourrions demander aux étudiants en formation d'enseignants d'utiliser l'IA pour produire un plan de cours détaillé, qui sera ensuite évalué pour sa qualité et sa solidité pédagogique lors d'un examen oral. »

Cette discussion peut aider à dédramatiser, informer et recalibrer le débat tout en préconisant clairement une meilleure compréhension de l'ensemble du champ de la pratique. Elle ne restera pas simplement apologétique lorsque les « tâches accomplies » auront une valeur qui justifie un tel « engagement significatif », non comme une fin en soi mais pour des raisons communément acceptables. Une perspective sociale modérée par l'enquête philosophique peut affiner la compréhension de ce que l'« IA » est et « fait », en termes humains. La connectivité des disciplines pertinentes et peut-être même des industries et des instances de gouvernance peut être renforcée, afin de placer l'innovation sous un contrôle sociétal légitime, de manière à gouverner l'économie, la justice et la dignité dans l'utilisation et le contrôle de l'« IA ».

Le langage ambigu de la technologie, combiné au battage commercial, peut brouiller l'attention aiguë, du côté des enseignants, pour écouter et compatir avec les étudiants. Les étudiants ont besoin d'un accompagnement bienveillant, véridique et utile, apprenant quand utiliser leur propre esprit, leurs yeux et leurs mains, et quand utiliser les machines. Un langage responsable a été négligé dans les manières dont nous parlons de la technologie et de nous-mêmes, par exemple lorsque nous confondons jeu et jeux, performance et mesure de résultat, identique et similaire. La source la plus profonde de connectivité pour mettre l'« IA » au service de l'humanité est d'apprendre du langage, à savoir en tant que systèmes profonds de savoir intégrés, comprenant les langages naturel, social, mathématique et biologique, qui tous combinés contribuent à la culture.

Pour revenir à un langage philosophique simple, une attitude scientifique envers le langage s'assurera que, tandis que « je parle de ce que je sais, en même temps, je sais de quoi je parle, et comment, en considérant la finalité ». La cohérence de l'intention et de l'action, de la théorie et de la pratique, du nom et de l'objet ne peut être tenue pour acquise, mais peut être soutenue par les contributeurs à la culture mentionnés ci-dessus.

3 Conclusion

Que pouvons-nous apprendre de cette discussion ? Premièrement, à propos de l'attitude qui accompagne la perception et les attentes. Cette enquête est inspirée non par la peur mais par un espoir et un idéalisme raisonnables. Elle repose sur l'hypothèse qu'une compréhension appropriée de l'« IA » est possible, c'est-à-dire une compréhension holistique, socialement significative et normativement instructive. Deuxièmement, à propos du langage, en tant que corps vivant de sens symbolique expressif, qui peut relier la nature, la technologie et la culture, en particulier à travers ses caractéristiques mathématiques. Troisièmement, à propos de la société, en tant qu'habitat et laboratoire de la compréhension, non simplement un marché ou un objet de gouvernance, mais un participant à la quête de la compréhension qui compte. Quatrièmement, à propos de l'apprentissage, en tant qu'extension constructive et ludique de la connaissance-des-règles, qui intègre l'agentivité dans le langage et ouvre l'accès à la pédagogie pour individualiser la cultivation. Cinquièmement, à propos de la technologie, en tant qu'ensemble d'outils que les humains ont créés sans anticiper pleinement les propriétés et les conséquences, et qu'ils doivent donc apprendre à maîtriser à des fins humaines, en particulier en laissant le temps de mûrir et l'inspiration pour des approches alternatives. Sixièmement, à propos de la psychologie de l'autonomie, de la joie, de l'empathie et de la collaboration, pour d'abord faire confiance à l'humanité et ne pas attacher des visages aux machines, comprenant que, à la différence d'une confiance raisonnable dans la fonctionnalité et la probabilité, la confiance ne peut s'appliquer aux machines. Les ingénieurs peuvent être dignes de confiance et recevoir notre confiance, leurs constructions peuvent, espérons-le, être fiables. Septièmement, à propos de la pédagogie, nous apprenons à être préparés au continuum prospectif de la gestion des inconnues connues et inconnues, afin de gérer la prise de décision liée aux risques dans des environnements de plus en plus complexes. Huitièmement, à propos du soin, nous comprenons la nécessité d'améliorer notre attention et de réhabiliter l'importance du facteur humain omniprésent. La compétence interdisciplinaire peut permettre à la société de donner sens et d'agir de manière responsable concernant l'« IA ». À savoir, la nature de la matière doit être proprement établie, les enjeux normatifs doivent être pleinement décrits, de sorte que les jugements pratiques concernant des questions spécifiques d'« IA » soient bien fondés.

Pour conclure ce bref programmatique, ce qui importe le plus, concernant la signification de l'IA dans l'enseignement, est le suivant. Une discussion véritablement innovante sur la technologie, l'apprentissage et le langage est en retard, impliquant toutes les cultures. Après des décennies d'oubli systémique de la demande d'intégration holistique et universelle de croissances eutrophiques et dystopiques de types de savoir spécifiques, positifs et techniques, et en particulier de monoculture institutionnelle et d'ignorance générale du rôle du langage dans la science, la structure mathématique et la substance linguistique des technologies d'IA deviennent maintenant encore plus tangiblement pratiques que les technologies de l'information et les biotechnologies, qui avaient pris la tête au cours des six dernières décennies d'impact mondialisé sur les économies mondiales. En fait, l'économie est le domaine social où la science et l'éducation se rencontrent, pour, idéalement, aller de pair, ou sinon, propulser l'aliénation et l'injustice entre l'humanité et nos produits.

Les théories de l'apprentissage reposent sur qui nous voulons être (anthropologie), en tant que moteurs technologiques. Le meilleur rôle de l'IA dans l'enseignement dépend de la relation que nous définissons avec les technologies : les utiliser ou les servir, signifie d'abord décider si nous osons la maturité. Faisons-nous confiance à notre condition humaine, ou éprouvons-nous de la honte devant nos créations ? Par là, l'« IA » devient une affaire de moralité, de savoir et de style.

Bibliographie

Adler, Mortimer J. and Van Doren, Charles. 1972. How to Read a Book. New York: Simon and Schuster.

Anders, Günther. 2018. Die Antiquiertheit des Menschen: Über die Seele im Zeitalter der zweiten industriellen Revolution. München: C.H. Beck.

Ball, Philip. 2011. Unnatural: The Heretical Idea of Making People. London Bodley Head.

Basu, Tanya (December 16, 2021). "The metaverse has a groping problem already". MIT Technology Review. Retrieved March 12, 2024.

Döring, Ole. 2021: "Menschen und Cyborgs. Versuch einer deutsch-chinesischen Verständigung über das Menschsein 人性". Armin Grunwald (Hrsg.). Wer bist Du, Mensch? Transformationen menschlichen Selbstverständnisses im technischen Fortschritt. Verlag Herder: 83-109.

Gadamer, Hans-Georg. 1972. "Sprachlichkeit als Bestimmung des hermeneutischen Vollzugs". In Gadamer, Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik. (3. Auflage). Tübingen: J.C.B. Mohr (Paul Siebeck): 374-375.

Huddleston, Tom (January 31, 2022). "'This is creating more loneliness': The metaverse could be a serious problem for kids, experts say". CNBC. Retrieved April 2, 2024.

Hüther, Gerald. 2006. "Neurobiological approaches to a better understanding of human nature and human values". The Journal for Transdisciplinary Research in Southern Africa. Vol 2, No 2, a282. DOI: https://doi.org/10.4102/td.v2i2.282

Huizinga, Johan. 1939/2004 Homo Ludens. Vom Ursprung der Kultur im Spiel. Reinbek Rowohlt.

Jackson, Lauren (February 12, 2022). "Is the Metaverse Just Marketing?". The New York Times. ISSN 0362-4331. Retrieved March 12, 2024.

Jung, Matthias. 2009. Der bewußte Ausdruck. Anthropologie der Artikulation. Berlin and New York.

Kamper, Dietmar. 1994. "Der eingebildete Mensch". In: Kamper, Dietmar und Christoph Wulf (Hg.). Anthropologie nach dem Tode des Menschen. Lang: Frankfurt am Main. 273-278.

Kovanovic, Vitomir and Marrone, Rebecca. 2025. "MIT researchers say using ChatGPT can rot your brain. The truth is a little more complicated". The Conversation. DOI https://doi.org/10.64628/AA.w4kawts34 . Retrieved October 18, 2025.

MacDonald, Keza (January 25, 2022). "I've seen the metaverse -- and I don't want it". The Guardian. Retrieved January 18, 2024.

Mesquida, Peri, Pereira, Fabio Inácio and Bernz, Maurício Eduardo. 2017. "The Pestalozzi Method: Mathematics as a Way to the Truth". Creative Education, Vol.8 No.7.

Newton, Casey (July 22, 2021). "Mark Zuckerberg is betting Facebook's future on the metaverse". The Verge. Archived from the original on October 25, 2021. Retrieved March 12, 2024.

Plessner, Helmut, Die Stufen des Organischen und der Mensch. Einleitung in die philosophische Anthropologie, in: G. Dux / O. Marquard / E. Ströker (Hrsg.), Plessner, Helmuth: Gesammelte Schriften, Band IV. Frankfurt a. M. 1981

Plessner, Helmut 1970. Lachen und Weinen. In H. Plessner (Hrsg.), Philosophische Anthropologie. 11-171. Frankfurt: Fischer.

Ritterbusch, George David; Teichmann, Malte Rolf et.al. (February 9, 2023). "Defining the Metaverse: A Systematic Literature Review". IEEE Access. 11: 12368-12377. Bibcode:2023IEEEA..1112368R. doi:10.1109/ACCESS.2023.3241809.

Schiff, Daniel S., Bewersdorff, Arne and Hornberger, Marie. 2025. "AI literacy: What it is, what it isn't, who needs it and why it's hard to define". https://doi.org/10.64628/AAI.t3jn7atq9. Retrieved November 10, 2025.

Schneider, Hans Julius. 2009. "Transposition -- Übersetzung -- Übertragung". Birk, Elisabeth; Schneider, Jan Georg (Hg.). Philosophie der Schrift. Tübingen: 145-159.

Simmel, Georg. 1998. "Der Begriff und die Tragödie der Kultur" (1923). In Georg Simmel, Philosophische Kultur, Berlin: 195-219.

Shou, Darren. "I Want My Daughter to Live in a Better Metaverse". Wired. ISSN 1059-1028. Archived from the original on September 10, 2021. Retrieved April 8, 2025.

Snowden, David J. and Boone, Mary E. 2007. "A leader's framework for decision making". Harvard Business Review. 85 (11): 68.

Soetard, Michel. 1981. Pestalozzi or the Birth of the Educator (Pestalozzi ou la naissance de l'éducateur). Peter Lang: Bern.

Wimmer, Michael. 2014. "Antihumanismus, Transhumanismus, Posthumanismus: Bildung nach ihrem Ende". In: Kluge, Sven; Steffens, Gerd; Lohmann, Ingrid [Hrsg.]. Menschenverbesserung - Transhumanismus. Lang: Frankfurt am Main. 237-265.

Yang, J., Xie, W. and Ni, J. 2025. "A framework for AI ethics literacy: development, validation, and its role in fostering students' self-rated learning competence". Sci Rep 15, 38030 (2025). https://doi.org/10.1038/s41598-025-21977-5. Retrieved November 8, 2025.