Fede“La IA te apaga el cerebro”: el sensacionalismo ficción también.<p>Un estudio del MIT Media Lab viene siendo citado como prueba definitiva de que <strong>usar ChatGPT reduce la creatividad, apaga tu cerebro y genera una peligrosa “deuda cognitiva”</strong>.</p><p>Los titulares dicen que la “conectividad neuronal disminuye un 55%”. ¿La causa? Delegar tareas cognitivas en una IA.</p><p>¿La consecuencia? Tu mente se apaga. Tu autonomía se desvanece. Y si sos docente, probablemente ya estés criando cyborgs manipulables.</p><p>Ahora bien, vayamos por partes, como dijo Jack El Destripador:</p>El dato duro<p>Efectivamente, el estudio detecta que cuando estudiantes usan ChatGPT para escribir, muestran <strong>menor actividad cerebral medida por EEG (electroencefalografía)</strong>.</p><p>Ehmm… Bueno, esto es completamente esperable: <em>delegan parte del proceso</em>, y su cerebro responde con <strong>menor carga cognitiva</strong>. Esto es, piensan menos cuando usan una herramienta que resuelve parte del problema por ellos. Lo mismo pasaría si escribieran con una guía o copiaran un ejemplo. </p><p>Lo raro no sería que mi cerebro trabaje menos. Lo raro sería lo contrario.</p><p>¿Esto es malo, malísimo? No necesariamente.</p><p><strong>Menor actividad no significa daño, deterioro ni pérdida</strong>, sino una reconfiguración de esfuerzo.</p><p>Pero hay varios resúmenes que circulan por el Fediverso que lo presentan como si se tratara de un diagnóstico clínico irreversible.</p><p>También observaron (en el estudio) que quienes usaban IA recordaban menos lo que escribieron, citaban peor sus propios textos y sentían menos autoría. Pero, vamos, si yo le pido a una máquina que me ordene las ideas, escriba por mí y me ahorre el esfuerzo… ¿de verdad espero tener el mismo compromiso mental que si lo hago a pulmón?</p>“Deuda cognitiva”: metáfora brillante, conclusiones opacas<p>El estudio introduce el concepto de <em>deuda cognitiva</em>: cuanto más delegás, menos retenés, menos participás, menos te apropiás del proceso.</p><p>La imagen no es buena, es buenísima. Pero la lectura que hacen algunos “medios”, “colectivos” o particulares es bastante forzada: que <strong>la IA “te acostumbra” a no pensar, como si eso ocurriera solo por usarla</strong>, sin considerar el contexto, los objetivos o el marco pedagógico.</p><p>El resultado: un panfleto disfrazado de filosofía crítica que responsabiliza a la herramienta por el mal uso que hacemos de ella.</p><p>Como si fuera culpa del lápiz que no sepamos escribir poesía.</p>¿Dónde está el problema real?<p>Ciertamente, no en el uso de ChatGPT sino en <em>cómo, cuándo y para qué</em> se usa. Si el objetivo es aprender a redactar, y solo copio lo que me da la IA, no aprendo.</p><p>Pero eso no es “culpa de la IA”. En todo caso es consecuencia de <strong>la ausencia de una estrategia pedagógica, crítica y reflexiva</strong> que acompañe su uso.</p><p>La lógica que se viene aplicando en este tipo de “análisis” es la que permitiría decir que Wikipedia “atrofió” nuestra capacidad de buscar en enciclopedias. O que los correctores ortográficos destruyeron la ortografía. Y sin embargo, aquí estamos, escribiendo en voz activa.</p>Un estudio preliminar NO ES una verdad revelada<p>La autora del estudio, Nataliya Kosmyna, aclara que es un <strong>trabajo preliminar, aún no revisado por pares</strong>, y que decidió publicarlo por “preocupación”. </p><p>Perfecto. Eso es ciencia abierta.</p><p>Pero de ahí a decir que “la IA estupidiza”, hay un trecho bastante largo… y bastante sensacionalista. Y ni qué decir de que <strong>esto demuestra que la IA perjudica el aprendizaje a largo plazo</strong>.</p><p>No, en serio, ¿un experimento de cuatro sesiones es suficiente para hacer esa profecía?</p><p>Da la impresión de que lo que realmente demuestra es que cuando no ejercitamos algo, no se fortalece.</p><p>Spoiler: eso también pasa sin IA.</p><p>La IA no te estupidiza. Solo hace más evidente si querés pensar… o preferís evitarlo. El problema no es el modelo. Es el modelo de uso.</p>Pensar sigue siendo nuestra tarea<p>El estudio del MIT Media Lab presenta evidencias interesantes sobre cómo varía la actividad cerebral al usar LLMs como ChatGPT en tareas de escritura. Sin embargo, atribuir esas diferencias a un “daño cognitivo” o a una “pérdida de creatividad” es un salto interpretativo injustificado. Que una herramienta reduzca la carga cognitiva no significa que deteriore la capacidad de aprender o pensar, sino que reconfigura los modos de involucrarse con la tarea. Los efectos dependerán del propósito, del acompañamiento pedagógico y del uso que se haga de ella. La IA, como toda tecnología, no es ni buena ni mala por sí misma: amplifica lo que somos capaces de hacer con ella.</p><p>Pero si entregamos la escritura, la memoria y la creatividad a la IA <strong>sin ningún tipo de compromiso o reflexión</strong>, claro que vamos a atrofiar algo.</p><p>Pero eso se llama desidia, no inteligencia artificial.</p><p>Y es mucho más viejo que ChatGPT.</p> <p>El estudio pueden encontrarlo aquí: <a href="https://arxiv.org/pdf/2506.08872" rel="nofollow noopener" target="_blank">https://arxiv.org/pdf/2506.08872</a></p><p><a class="hashtag" href="https://fe.disroot.org/tag/ia" rel="nofollow noopener" target="_blank">#IA</a> <a class="hashtag" href="https://fe.disroot.org/tag/mit" rel="nofollow noopener" target="_blank">#MIT</a> <a class="hashtag" href="https://fe.disroot.org/tag/deudacognitiva" rel="nofollow noopener" target="_blank">#DeudaCognitiva</a> <a class="hashtag" href="https://fe.disroot.org/tag/chatgpt" rel="nofollow noopener" target="_blank">#ChatGPT</a></p>