Archiver

ChatGPT rend-il les humains plus intelligents — ou plus dépendants ?

OpenAI teste l'impact de ChatGPT sur l'apprentissage humain
Langue
Intelligence ArtificielleArtificial Intelligence | Éducation & CognitionEducation & Cognition | Analyse ExperteExpert Analysis
OpenAI · Recherche · Apprentissage humain

ChatGPT rend-il les humains
plus intelligents —
ou plus dépendants ?

OpenAI lance un programme de recherche inédit pour mesurer l'impact réel de ChatGPT sur l'apprentissage humain à long terme. Une initiative qui arrive tardivement — et qui soulève autant de questions qu'elle n'en résout.

4 mars 2026 Analyse spécialiste IA Lecture : 9 min
OpenAI · Research · Human Learning

Is ChatGPT making humans smarter
or more dependent?

OpenAI launches an unprecedented research programme to measure the real long-term impact of ChatGPT on human learning. An initiative that arrives late — and raises as many questions as it answers.

March 4, 2026 AI specialist analysis Reading time: 9 min

En trois ans d'existence, ChatGPT est devenu l'outil d'apprentissage le plus utilisé au monde, avec 700 millions d'utilisateurs hebdomadaires. Pourtant, jusqu'à cette semaine, personne — pas même OpenAI — ne disposait de données solides sur une question pourtant fondamentale : est-ce que cet outil améliore réellement les capacités cognitives de ses utilisateurs, ou les érode-t-il en silence ? La réponse, à en juger par les premières études disponibles, est inconfortable.

700M
utilisateurs hebdomadaires actifs de ChatGPT (2026)
18Md
messages envoyés chaque semaine sur la plateforme
83%
des utilisateurs incapables de citer leur propre essai généré par IA (MIT, 2025)
0
étude longitudinale publiée sur les effets cognitifs à long terme — jusqu'à présent

I — Le cadre de mesure d'OpenAI : une initiative ambitieuse et tardive

OpenAI vient de publier son Learning Outcomes Measurement Suite — un cadre méthodologique conçu pour mesurer l'impact de ChatGPT sur l'apprentissage humain à long terme. L'outil entend suivre trois dimensions fondamentales : la persistance des connaissances acquises, la motivation à apprendre et la capacité de résolution créative de problèmes. En parallèle, OpenAI s'est associé à l'université de Stanford — via le SCALE Initiative — pour conduire des études à grande échelle dans des établissements scolaires K-12 aux États-Unis et à l'international.

L'objectif déclaré est ambitieux : comprendre si les gains d'apprentissage observés avec ChatGPT sont durables ou simplement superficiels. « Ce qui compte vraiment, c'est de savoir si les progrès et les comportements productifs associés restent durables », écrit OpenAI dans son rapport. Une formulation qui résume à elle seule la tension fondamentale au cœur de ce débat.

🔬 Le Learning Outcomes Measurement Suite en détail

Le cadre d'OpenAI surveille trois niveaux simultanément : le comportement du modèle (comment ChatGPT répond aux questions pédagogiques), les interactions des apprenants (comment les élèves utilisent concrètement l'outil), et les résultats cognitifs qui évoluent dans le temps.

OpenAI prévoit de valider ce cadre via des études à grande échelle avant de le rendre disponible comme ressource publique pour les écoles et universités. Stanford partage ses données réelles de classes K-12 avec les chercheurs, sous protocoles stricts de confidentialité.

En tant que spécialiste de l'IA, je dois souligner ce que cette initiative reconnaît implicitement : pendant trois ans, le produit le plus utilisé dans l'éducation mondiale a été déployé sans aucun cadre rigoureux pour mesurer ses effets cognitifs. Les écoles ont intégré ChatGPT en masse — souvent sous pression des élèves et des parents — dans ce que la professeure Susanna Loeb de Stanford décrit sans détour comme un « vide de données ». Ce retard méthodologique est, à lui seul, un signal inquiétant sur les pratiques de l'industrie de l'IA.

· · ·

II — Ce que la science dit déjà : des résultats préoccupants

En attendant les résultats du programme d'OpenAI, plusieurs études indépendantes ont déjà produit des données qui méritent une attention sérieuse. La plus significative est celle du MIT Media Lab, publiée en 2025 sous la direction de la chercheuse Nataliya Kosmyna. L'étude a divisé 54 participants en trois groupes : les uns rédigeant des dissertations avec ChatGPT, d'autres avec Google Search, et les derniers sans aucun outil.

« Les utilisateurs de ChatGPT ont affiché le niveau d'engagement cérébral le plus faible et ont systématiquement sous-performé aux niveaux neurologique, linguistique et comportemental. »

— Dr Nataliya Kosmyna, MIT Media Lab, 2025

Les électroencéphalogrammes (EEG) enregistrés pendant les sessions ont révélé que le groupe ChatGPT présentait la connectivité cérébrale la plus faible des trois groupes — notamment dans les bandes alpha, thêta et delta, associées respectivement à la créativité, la mémoire et le traitement sémantique. Plus alarmant encore : à la troisième session, la grande majorité des participants du groupe ChatGPT avait abandonné toute rédaction personnelle pour se contenter de copier-coller les sorties du modèle. Les essais produits ont été qualifiés par deux professeurs d'anglais d'essais « sans âme ».

Le résultat le plus révélateur intervient en fin d'étude : lorsqu'on demande aux utilisateurs de ChatGPT de réécrire l'un de leurs essais sans l'outil, 83,3 % d'entre eux sont incapables de citer ce qu'ils ont écrit. Ils n'ont pas appris — ils ont externalisé. Ce n'est pas une nuance. C'est une rupture fondamentale avec ce que nous entendons par « apprendre ».

⚠ Point de vigilance critique

L'étude du MIT présente des limites importantes : un échantillon de 54 participants seulement, non encore soumis à évaluation par les pairs au moment de sa publication. Ces résultats sont préoccupants mais ne constituent pas une preuve définitive. C'est précisément pourquoi le programme longitudinal d'OpenAI et Stanford est nécessaire — et pourquoi son absence jusqu'ici était un problème.

· · ·

III — Le mode étude : la réponse produit d'OpenAI

Face à ces interrogations, OpenAI a lancé en 2025 son Study Mode — un mode d'apprentissage intégré à ChatGPT qui remplace les réponses directes par des questions de guidage socratiques, calibrées au niveau et aux objectifs de l'élève. Plutôt que de donner la solution, ChatGPT en mode étude pose des questions qui amènent l'apprenant à construire sa propre compréhension.

C'est une évolution conceptuelle importante. Elle reconnaît implicitement le problème identifié par les chercheurs du MIT : un outil qui fournit des réponses sans effort cognitif ne favorise pas l'apprentissage profond. En obligeant l'utilisateur à réfléchir activement, Study Mode tente de réconcilier l'efficacité de l'IA avec les mécanismes connus de la consolidation mémorielle.

Sur le plan technique, OpenAI précise que le mode est actuellement alimenté par des instructions système personnalisées — une approche pragmatique qui permet d'itérer rapidement sur les retours des étudiants, au prix d'une certaine inconsistance entre les sessions. L'objectif à terme est d'entraîner ce comportement directement dans les modèles de base, une fois que les données d'usage auront permis d'identifier ce qui fonctionne réellement.

· · ·

IV — Mon analyse : trois vérités que l'industrie évite de dire

Première vérité : le problème n'est pas ChatGPT, c'est l'usage passif. Toutes les études disponibles convergent vers le même constat : c'est la manière dont on utilise l'IA qui détermine son impact cognitif, pas l'outil lui-même. Un utilisateur qui demande à ChatGPT d'expliquer un concept étape par étape, qui remet en question les réponses, qui les reformule dans ses propres mots — celui-là apprend. Un utilisateur qui copie-colle sans lire — celui-là n'apprend pas. Ce n'est pas une découverte révolutionnaire. C'est la même distinction que nous faisions entre lire activement et regarder passivement la télévision.

Deuxième vérité : l'industrie a un problème d'incitation structurel. OpenAI est une entreprise dont le modèle économique repose sur l'engagement et l'utilisation. Plus les utilisateurs interagissent fréquemment et durablement avec ChatGPT, plus les revenus croissent. Cette structure crée une tension fondamentale avec l'objectif éducatif déclaré : un outil qui favorise la dépendance est économiquement rationnel pour son créateur, même s'il est pédagogiquement néfaste. Je ne dis pas qu'OpenAI agit de mauvaise foi — je dis que cette tension structurelle doit être nommée et prise en compte dans l'évaluation des initiatives comme le Learning Outcomes Measurement Suite.

Troisième vérité : nous avons besoin d'une régulation indépendante de l'évaluation. Laisser OpenAI évaluer l'impact de ChatGPT sur l'apprentissage humain, c'est comme demander à un fabricant de tabac de financer les études sur le cancer du poumon. Ce n'est pas une question de mauvaise volonté — c'est une question d'indépendance scientifique élémentaire. Le partenariat avec Stanford est un pas dans la bonne direction, mais il ne suffit pas. L'Europe, qui a adopté l'AI Act en 2024, devrait faire de l'évaluation cognitive indépendante des outils IA éducatifs une exigence réglementaire explicite.

Verdict de l'expert

L'initiative d'OpenAI est nécessaire, bienvenue — et trois ans en retard. Elle reconnaît implicitement ce que les chercheurs indépendants disaient depuis 2023 : déployer un outil d'une telle puissance dans les salles de classe mondiales sans mesurer ses effets cognitifs relevait d'une imprudence collective.

Les premières données du MIT sont inquiétantes. Elles ne sont pas définitives. Ce qui est définitif, en revanche, c'est ceci : ChatGPT peut être un amplificateur cognitif exceptionnel ou une béquille intellectuelle paralysante — selon comment on l'utilise. Et cette distinction ne se fait pas toute seule. Elle nécessite une pédagogie repensée, des enseignants formés, et des politiques publiques à la hauteur de l'enjeu.

Le vrai test pour OpenAI n'est pas de publier un cadre de mesure. C'est d'accepter les résultats de la recherche — même s'ils s'avèrent défavorables à ses intérêts commerciaux.

Sources & références

  • OpenAI — Learning Outcomes Measurement Suite, mars 2026 (via Axios)
  • Stanford SCALE Initiative / OpenAI — Partenariat de recherche ChatGPT en éducation K-12, 2025
  • MIT Media Lab — Kosmyna N. et al., « Impact of ChatGPT on brain activity during essay writing », 2025
  • OpenAI — « Introducing Study Mode in ChatGPT », 2025
  • OpenAI / Harvard — « How People Use ChatGPT », NBER Working Paper, septembre 2025
  • Time Magazine — « ChatGPT May Be Eroding Critical Thinking Skills », juin 2025
  • KPMG — Global AI Trust Study, 48 000 participants, 2025
  • Règlement européen sur l'IA (AI Act) — Journal officiel de l'UE, 2024

In three years of existence, ChatGPT has become the most widely used learning tool in the world, with 700 million weekly users. Yet until this week, nobody — not even OpenAI — had solid data on a fundamentally important question: does this tool actually improve users' cognitive abilities, or does it silently erode them? The answer, judging by the first available studies, is uncomfortable.

700M
weekly active ChatGPT users (2026)
18Bn
messages sent on the platform every week
83%
of users unable to quote their own AI-generated essay (MIT, 2025)
0
longitudinal study published on long-term cognitive effects — until now

I — OpenAI's measurement framework: an ambitious and overdue initiative

OpenAI has just published its Learning Outcomes Measurement Suite — a methodological framework designed to measure ChatGPT's long-term impact on human learning. The tool aims to track three fundamental dimensions: the persistence of acquired knowledge, motivation to learn, and creative problem-solving ability. In parallel, OpenAI has partnered with Stanford University — via the SCALE Initiative — to conduct large-scale studies in K-12 schools across the United States and internationally.

The stated objective is ambitious: to understand whether learning gains observed with ChatGPT are durable or merely superficial. "What really matters is whether the gains and associated productive behaviors remain durable," OpenAI writes in its report. A formulation that perfectly encapsulates the fundamental tension at the heart of this debate.

🔬 The Learning Outcomes Measurement Suite in detail

OpenAI's framework monitors three levels simultaneously: model behaviour (how ChatGPT responds to educational questions), learner interactions (how students actually use the tool), and cognitive outcomes that change over time.

OpenAI plans to validate the framework through large-scale studies before releasing it as a public resource for schools and universities. Stanford shares real K-12 classroom data with researchers under strict privacy protocols.

As an AI specialist, I must highlight what this initiative implicitly acknowledges: for three years, the most widely used product in global education was deployed with no rigorous framework to measure its cognitive effects. Schools integrated ChatGPT en masse — often under pressure from students and parents — in what Stanford Professor Susanna Loeb bluntly describes as a "data vacuum." This methodological delay is, in itself, a troubling signal about the practices of the AI industry.

· · ·

II — What science already tells us: concerning results

While awaiting the results of OpenAI's programme, several independent studies have already produced data that deserves serious attention. The most significant is that of the MIT Media Lab, published in 2025 under researcher Nataliya Kosmyna. The study divided 54 participants into three groups: some writing essays with ChatGPT, others with Google Search, and others with no tool at all.

"ChatGPT users had the lowest brain engagement and consistently underperformed at neural, linguistic and behavioural levels."

— Dr Nataliya Kosmyna, MIT Media Lab, 2025

EEG recordings taken during the sessions revealed that the ChatGPT group showed the lowest brain connectivity of the three groups — particularly in alpha, theta and delta bands, associated respectively with creativity, memory and semantic processing. More alarming still: by the third session, the vast majority of ChatGPT group participants had abandoned any personal writing and were simply copy-pasting the model's outputs. The essays produced were described by two English teachers as largely "soulless."

The most revealing result came at the end of the study: when ChatGPT users were asked to rewrite one of their essays without the tool, 83.3% were unable to quote what they had written. They had not learned — they had outsourced. This is not a nuance. It is a fundamental break with what we mean by "learning."

⚠ Critical caveat

The MIT study has important limitations: a sample of only 54 participants, and not yet peer-reviewed at the time of publication. These results are concerning but do not constitute definitive proof. This is precisely why OpenAI and Stanford's longitudinal programme is necessary — and why its absence until now was a problem.

· · ·

III — Study Mode: OpenAI's product response

In response to these concerns, OpenAI launched its Study Mode in 2025 — a learning mode built into ChatGPT that replaces direct answers with Socratic guiding questions, calibrated to the student's level and objectives. Rather than providing the solution, ChatGPT in study mode asks questions that lead the learner to build their own understanding.

This is a significant conceptual shift. It implicitly acknowledges the problem identified by MIT researchers: a tool that provides answers without cognitive effort does not support deep learning. By requiring the user to think actively, Study Mode attempts to reconcile AI efficiency with the known mechanisms of memory consolidation.

Technically, OpenAI notes that the mode is currently powered by custom system instructions — a pragmatic approach that allows rapid iteration on student feedback, at the cost of some inconsistency between sessions. The long-term goal is to train this behaviour directly into the base models, once usage data has identified what actually works.

· · ·

IV — My analysis: three truths the industry avoids saying

First truth: the problem is not ChatGPT — it is passive use. All available studies converge on the same finding: it is the way one uses AI that determines its cognitive impact, not the tool itself. A user who asks ChatGPT to explain a concept step by step, who challenges the answers, who rephrases them in their own words — that person learns. A user who copy-pastes without reading — that person does not. This is not a revolutionary discovery. It is the same distinction we made between active reading and passively watching television.

Second truth: the industry has a structural incentive problem. OpenAI is a company whose business model depends on engagement and usage. The more frequently and durably users interact with ChatGPT, the more revenue grows. This creates a fundamental tension with the stated educational objective: a tool that fosters dependency is economically rational for its creator, even if it is pedagogically harmful. I am not suggesting OpenAI is acting in bad faith — I am saying this structural tension must be named and factored into any evaluation of initiatives like the Learning Outcomes Measurement Suite.

Third truth: we need independent evaluation regulation. Letting OpenAI assess the impact of ChatGPT on human learning is like asking a tobacco manufacturer to fund lung cancer studies. It is not a question of bad faith — it is a question of basic scientific independence. The Stanford partnership is a step in the right direction, but it is not sufficient. Europe, which adopted the AI Act in 2024, should make independent cognitive evaluation of educational AI tools an explicit regulatory requirement.

Expert verdict

OpenAI's initiative is necessary, welcome — and three years late. It implicitly acknowledges what independent researchers had been saying since 2023: deploying a tool of such power in classrooms worldwide without measuring its cognitive effects was a collective act of recklessness.

The early MIT data is concerning. It is not definitive. What is definitive, however, is this: ChatGPT can be an exceptional cognitive amplifier or a paralysing intellectual crutch — depending on how it is used. And this distinction does not happen by itself. It requires rethought pedagogy, trained teachers, and public policies commensurate with the stakes.

The real test for OpenAI is not publishing a measurement framework. It is accepting the research findings — even if they prove unfavourable to its commercial interests.

Sources & References

  • OpenAI — Learning Outcomes Measurement Suite, March 2026 (via Axios)
  • Stanford SCALE Initiative / OpenAI — ChatGPT K-12 education research partnership, 2025
  • MIT Media Lab — Kosmyna N. et al., "Impact of ChatGPT on brain activity during essay writing", 2025
  • OpenAI — "Introducing Study Mode in ChatGPT", 2025
  • OpenAI / Harvard — "How People Use ChatGPT", NBER Working Paper, September 2025
  • Time Magazine — "ChatGPT May Be Eroding Critical Thinking Skills", June 2025
  • KPMG — Global AI Trust Study, 48,000 participants, 2025
  • EU Artificial Intelligence Act — Official Journal of the EU, 2024

Article publié le 4 mars 2026 · Analyse IA indépendante · Sources : OpenAI, MIT, Stanford, NBER

Published March 4, 2026 · Independent AI analysis · Sources: OpenAI, MIT, Stanford, NBER