Vivo entre muchos libros y extraigo una gran parte de mis ganas de vivir del hecho de que aún leeré la mayoría de ellos. (Elias Canetti)

miércoles, 25 de septiembre de 2024

HÉCTOR RUIZ MARTÍN. EDUMITOS
 
Hola, buenas tardes. Bienvenidos a Todos los libros un libro, el programa de Radio Universidad de Salamanca desde el que, semanalmente, os ofrezco una espero que sugerente propuesta de lectura. En estas semanas de septiembre, en las que, de manera progresiva, van dando comienzo las clases en las distintas etapas educativas, ya es tradición que en el espacio aparezcan recomendaciones de libros relacionados directa o indirectamente con el universo de la enseñanza. Así, hace quince días, os hablé aquí de Más libros y menos pantallas, el furibundo y muy bien fundamentado ensayo del neurocientífico e investigador francés Michel Desmurget en el que, como se puede colegir de su inequívoco título, se defiende la importancia de la lectura, de manera especial entre niños, adolescentes y jóvenes, como base para un fecundo desarrollo cognitivo, social, emocional y, por supuesto, académico, pues, como demuestra su autor de modo aparentemente irrefutable, los libros nos hacen mejores gracias a su capacidad para cultivar el espíritu, enriquecer el imaginario, reparar la mente, deshacer la soledad, desmoronar el oscurantismo, fecundar el lenguaje, preservar las memorias colectivas. Igualmente, la semana pasada, os traía Artificial, el interesante título de Mariano Sigman y Santiago Bilinkis, un estudio que examina las repercusiones de la Inteligencia Artificial en ámbitos tan distintos como los de la educación, objeto de nuestra serie, el trabajo, la política, la psicología o la moral, en un análisis que no soslaya los riesgos que estos acelerados avances tecnológicos conllevan, siendo, por lo tanto, lúcido y honesto frente a los peligros que desde distintos frentes se denuncian, pero que, aun así, subraya las muchas y extraordinariamente benéficas posibilidades que los modernos adelantos en computación permiten imaginar. 

Hoy cerramos esta serie con otro título excelente que es, además, el que, sin ninguna duda, toca de una manera más frontal el fenómeno educativo, un libro que traigo aquí en una circunstancia especialmente oportuna, pues coincide con la ya inminente inauguración, el próximo martes 1 de octubre, del curso académico en el Máster de formación del profesorado de la Universidad de Salamanca, la fragua en la que se forjan -permitidme el lenguaje algo añejo- los responsables de la docencia en el futuro. Se trata de la más reciente obra publicada por Héctor Ruiz Martín, investigador, biólogo y divulgador científico, que ya protagonizó un programa de Todos los libros un libro hace unos meses, en enero de este mismo año, con el muy ilustrativo ¿Cómo aprendemos?, del que mi sugerencia de ahora no deja de ser una suerte de continuación. Me estoy refiriendo a Edumitos, que presentó la Editorial ISTF en diciembre de 2023. ISTF son las siglas de la International Science Teaching Foundation, la Fundación Internacional para la Enseñanza de las Ciencias, institución sin ánimo de lucro, con sedes en Londres y Barcelona, que dirige el propio autor, un Ruiz Martín experto en el dominio de la psicología cognitiva de la memoria y el aprendizaje, con una trayectoria docente en la educación secundaria y la Universidad y una exitosa carrera científica, en la que se ha desempeñado como investigador en la Universidad de Washington y el Jet Propulsion Laboratory (NASA) de California. Ha asesorado en temas de su especialización a diversos gobiernos e instituciones educativas en España, Asia y Latinoamérica. Igualmente, es autor de varios libros sobre el aprendizaje: Aprender a aprender o Los secretos de la memoria, además de los ya citados. 

Edumitos se presenta con un subtítulo muy elocuente: Ideas sobre el aprendizaje sin respaldo científico, un asunto que, como quizá recordéis los más “memoriosos” seguidores del espacio, ya era objeto de un somero análisis en ¿Cómo aprendemos? De hecho, estamos ante un desarrollo por extenso, esta vez exhaustivo y pormenorizado, de algunas de las tesis allí esbozadas en apenas doce páginas (Edumitos se acerca a las cuatrocientas). Ya en aquella obra el investigador avanzaba las pistas que permiten entender el significado del término que encabeza el libro de hoy: El término “neuromito”, escribía entonces, fue acuñado por el neurocirujano Alan Crockard en la década de los 80, cuando lo empleó para referirse a las ideas sobre el cerebro presentes en la cultura médica que no tenían fundamento científico. Como resulta obvio, el neologismo “edumito”, que emplea ahora Ruiz Martín, no es más que la síntesis léxica que resume la aplicación del concepto de “neuromito” al ámbito educativo, y se aplicaría a aquellos malentendidos o malinterpretaciones de hallazgos científicos que versan sobre el cerebro, que se extrapolan para describir determinados procesos de enseñanza y aprendizaje, y que con frecuencia se traducen en aplicaciones prácticas para el aula de dudosa eficacia. En muchas ocasiones, se apoyan en ideas preconcebidas e intuitivas sobre cómo aprendemos y a menudo son fruto de tergiversaciones cocinadas involuntariamente por nuestro sesgo de confirmación, en palabras del anexo final de ¿Cómo aprendemos? 

La tesis de Ruiz -y pese a que no quiero resultar reiterativo, repetiré mis palabras de mi anterior reseña sobre su otra obra-, evidente para cualquiera que se desenvuelva con un mínimo espíritu crítico en el ámbito escolar, es que el encomiable interés que en los últimos años se percibe entre el profesorado por las cuestiones relativas a la investigación científica -en particular, a la neurociencia- y sus aplicaciones educativas, se ve contaminado por la ignorancia, el desconocimiento, los malentendidos, las malinterpretaciones, las ideas preconcebidas, los sesgos cognitivos, las tergiversaciones erradas, la ingenuidad y el voluntarismo (como se ve, excluyo la mala fe o la intención explícita de dañar) que, en general, la comunidad educativa mantiene sobre los hallazgos científicos que versan sobre el cerebro y sus procesos. Todo ello ha provocado como consecuencia notoria -y muy peligrosa- la proliferación en los claustros de profesores -y, en consecuencia, en las aulas- de estos mitos pseudocientíficos, estos “edumitos”, no respaldados por las evidencias, contrarios a la mejor investigación de la que disponemos, que no solo resultan insostenibles y no mejoran las prácticas educativas, sino que, en un efecto todavía más perverso, acaban por ser extraordinariamente perjudiciales desde muy diversos puntos de vista, pues suponen la toma de decisiones y la dedicación de esfuerzos a estrategias erróneas, pérdidas de un tiempo valioso que podría ocuparse en actividades más eficaces, desembolsos económicos en “soluciones” educativas basadas en teorías evanescentes y, claro está, muy negativas repercusiones en el aprendizaje de los alumnos. La labor científica de Ruiz Martín y, por supuesto, sus libros, entre los que se cuenta el que esta tarde analizamos, se centran en desmenuzar, esclarecer y revelar estas inconsistencias, proporcionando conocimientos solventes sobre el aprendizaje y la enseñanza y, por tanto, aportando luz, claridad e ideas científicamente robustas al mundo educativo. 

A modo de breve inciso, debo señalar que a todas estas causas que acabo de citar de la proliferación de ideas erradas, o directamente falsas, presentes en las facultades de Educación, en los cursos de formación del profesorado, en las salas de profesores de los centros educativos y, claro está -en su aplicación práctica-, en las aulas de colegios, institutos y universidades, hay que añadir otra sustancial, los apriorismos ideológicos, no mencionados hasta ahora por no ser objeto del estudio de Ruiz Martín -centrado en las inexactitudes con apariencia científica-, pero que sí comparece en otro libro -de título sospechosamente similar al del que hoy nos ocupa: Educafakes-, que, con un enfoque político, sociológico y no neurobiológico, acaba de publicarse hace escasamente quince días; una obra que aún estoy leyendo y que, por tanto, no puedo glosar aquí, difiriendo su posible presentación en Todos los libros un libro a dentro de algunos meses, aunque ya esté en condiciones de recomendar su lectura, al menos para ampliar nuestra mirada sobre la educación, haciéndola más rica y plural. 

Y es que la ideología, la política, y su muy decepcionante derivada actual, la absurda y cerril polarización, están muy presentes en el ámbito educativo, con dos “bandos” -siento expresarme de este modo reduccionista- de posturas casi irreductibles, cuyas respectivas tesis sobre la enseñanza, los problemas que la aquejan y sus posibles soluciones constituyen la prolongación ciega de su particular, limitada, cerrada visión del mundo, totalmente impermeable a puntos de vista opuestos. Hablo, en síntesis, de los planteamientos irreconciliables de “la izquierda” y “la derecha” en sus manifestaciones más torpes, más obtusas, más sesgadas, más superficiales, más endebles intelectualmente; aquellas por desgracia presentes en la política española (ésta es la razón por la que entrecomillo ambos términos, para apuntar así a un cierto sentido figurado, pues no se me alcanza en qué medida siguen siendo significativos esos conceptos vistas sus supuesta plasmación en la mediocre política cotidiana). Y así, la confrontación se plantea entre quienes se definen como renovadores, reformistas o incluso revolucionarios, partidarios del futuro, la modernidad, la innovación, la creatividad, la transformación, el compromiso, la igualdad, el progreso y la democracia, que postulan la necesidad de modificar radicalmente la enseñanza ante el nuevo escenario que vive el mundo como consecuencia -aunque no solo- de la incorporación masiva de la tecnología a nuestras vidas, y pretenden con ello intervenir sobre la sociedad para modificarla en un sentido “progresista” (inevitables, de nuevo, las comillas); y, por otro lado, y en mi particular experiencia, gran parte de los profesores de a pie y quienes les dan voz (valientemente, sostienen sus adalides, pues deben enfrentarse al status quo imperante), los cuales, también en su particular autopercepción, reivindicarían una enseñanza de calidad basada en lo que siempre ha resultado eficaz: excelencia, esfuerzo, disciplina, autoridad, respeto, mérito, exigencia; en otras palabras lo que se corresponde realmente con el significado de “pedagogía”: El arte de enseñar, (…) que depende de la capacidad de hablar claramente y de saber escuchar, de la capacidad de entusiasmarse y entusiasmar a los demás, de la capacidad de combinar cierta dosis de autoridad y severidad (que inevitablemente son necesarias cuando se trata de educar a alguien) con la cortesía, la serenidad y las buenas maneras, en palabras de Ricardo Moreno Castillo, uno de los más conspicuos representantes de este “frente” (y siento incurrir de nuevo en esta jerga belicista, pero parece que no hay mejor forma de describir el estado actual de las cosas). 

El “combate” es, en muchas ocasiones (y en muchos ámbitos: político, mediático -basta leer habitualmente las secciones paralelas de Educación de El Mundo y El País-, académico… ¡¡y qué decir de sus manifestaciones en las redes!!), descarnado -como de continuo ocurre en el día a día parlamentario, sin ir más lejos-, abundante en críticas agudas, sarcasmos hirientes, menosprecios a mansalva, denuncias que se pretenden clarividentes, atrevidos desenmascaramientos de las presuntas falsedades que se esconden tras aparentes certezas, fogosos improperios, invectivas jocosas, denuestos sin censura y ridiculizaciones al borde del insulto, todo ello emitido, desde las voces más exaltadas de ambas partes, en un tono general de suficiencia y condescendencia despreciativa, apasionada vehemencia y fanática indignación, prejuicios intelectuales, ironía pretendidamente divertida y elemental sentido del humor hecho de tópicos muy a menudo carentes de fundamento alguno. De tal manera que, desde el sector “progresista”, se descalifica de modo caricaturesco a sus oponentes tildándolos de dinosaurios anquilosados que sienten nostalgia del pasado, pretenden perpetuar la injusticia y los privilegios de clase, desean favorecer a la enseñanza privada, propugnan el inmovilismo, manifiestan una interesada resistencia al cambio y reflejan con sus posturas un conservadurismo reaccionario defensor de una meritocracia que solo favorece a los ricos (“franquistas” y “fachas”, por tanto, en las expresiones más extremas de la feroz y simplista banalidad que nos aqueja). Desde el otro lado, que abomina de lo que llama, irrespetuosamente, “engendros pedagógicos”, sostenidos con la coartada de la superioridad moral de una izquierda que, en el ámbito educativo, detenta además el poder de decidir (la mayor parte de las leyes de enseñanza en los últimos treinta y cinco años son obra del partido socialista), se habla de la “secta pedagógica”, cuyos miembros se entregan de manera acrítica a la experimentación sin fundamento, a la superficialidad carente de contenido, a la ligereza acientífica, a ocurrencias, extravagancias y disparates sin respaldo empírico alguno (las patochadas y estupideces que dicen los pedagogos, bullshit, chorradas y caca de la vaca, tonterías, antología de despropósitos, desvaríos, en un repertorio recogido a vuelapluma de algunas de las publicaciones de representantes de esta “facción”), movidos por una voluntad de adoctrinar y manipular a jóvenes a los que interesa desproveer de criterio (“estalinistas” peligrosos, pues, ansiosos de moldear las conciencias, si quien se pronuncia es un exponente maximalista de este grupo). 

La descabellada y ridícula insensatez de esta dicotomía, obstinada y obtusa en quienes la sustentan y aun la alientan (no en todos, obviamente; en el debate público desarrollado en las últimas décadas -en especial desde la aprobación de la LOGSE, en 1990- han intervenido también, con una mayor o menor cercanía a una u otra tendencia, y con distintos grados de apasionamiento, aunque en general sin intransigencia ni fanatismo, nombres como Antonio Muñoz Molina, Javier Marías, Félix de Azúa, Luis Landero, Eduardo Mendoza, Rafael Argullol, Arturo Pérez-Reverte, Adela Cortina, Gabriel Albiac, Arcadi Espada, Fernando Savater, Emilio Lledó, Francisco Rodríguez Adrados, Juan Antonio Marina, Gregorio Luri o Victoria Camps), es la que debería obligar a cualquier ciudadano interesado por la enseñanza y el aprendizaje, también, sin duda, a los políticos encargados de regular los procesos educativos, y especialmente a sus profesionales, formadores y profesores de secundaria y universidad, a buscar respuestas objetivas e indiscutibles -o, en caso contrario, las que conciten un mayor consenso- a los grandes retos a los que hoy se enfrenta la educación. Y es aquí en donde la obra de Héctor Ruiz Martín, y en particular este Edumitos del que ahora voy a hablaros, cobra una mayor relevancia, pues su profundo conocimiento de la ciencia y su solvente manejo de la literatura académica e investigadora más consistente sobre la materia debieran servir de referencia incontestable para afrontar este debate, sesgado, corrompido -a veces emponzoñado- por tanta confusión, tanta desinformación, tanta incoherencia, tanto desconocimiento y tanta irresponsable ligereza. 

En la breve aunque muy necesaria Introducción a su libro parte el autor de la constatación del hecho esencial que lo motiva: la omnipresencia de prácticas educativas fundadas casi exclusivamente en la intuición, en la percepción subjetiva, en los vislumbres más o menos acertados derivados de la experiencia de los docentes. En Ver más allá de la experiencia diaria, rúbrica con la que encabeza esta parte de su prólogo, Ruiz Martín alerta de la endeblez y la fragilidad de estos planteamientos, y, por tanto, del riesgo que conlleva sustentar en ellos la práctica docente. Estableciendo un paralelismo con el predicamento del que gozó durante siglos en el ámbito de la medicina el recurso a las sanguijuelas, sacralizado desde el siglo XVII como solución milagrosa para casi todos los males y cuya eficacia solo se refutaría bien avanzado el XIX tras el análisis de la descabellada praxis aplicando el método científico, nuestro investigador explica las limitaciones que supone en educación guiarse exclusivamente por la limitada e intelectual y psicológicamente sesgada experiencia personal, ignorando -desconociendo, en la mayor parte de los casos- las evidencias (no exentas tampoco de elementos falibles, aunque más “fiables”) a las que la ciencia ha llegado sobre la enseñanza y el aprendizaje. Examina así -siempre de manera somera; el preámbulo no llega apenas a las veinte páginas- los principales sesgos cognitivos que “contaminan” nuestra percepción de los hechos y las interpretaciones que de ellos hacemos, todos ya estudiados en su anterior obra: la falacia ad hominen (que se produce cuando un argumento no rebate la posición o las afirmaciones del interlocutor, sino que busca descalificar al propio interlocutor con el objetivo de desacreditar su posición), la falacia ad verecundiam (aquel argumento que apela al prestigio o a la autoridad de alguien o de alguna institución para respaldar una afirmación, a pesar de no aportar evidencias o razones que la justifiquen), la falacia ad populum (se produce cuando atribuimos nuestra opinión a la opinión de la mayoría y a partir de ahí argumentamos que si la mayoría piensa tal cosa, es que debe ser cierta), la disonancia cognitiva (que se produce cuando nuestras ideas chocan con una información o experiencia que las contradice), el sesgo de confirmación (la tendencia a advertir, atender y recordar preferentemente la información que confirma las propias creencias, en detrimento de aquella información que las contradice), el sesgo de arrastre (la tendencia a hacer o creer en algo por el mero hecho de que muchas otras personas lo hacen o lo creen); limitaciones todas que hacen que, sin darnos cuenta, nuestra experiencia personal resulte menos eficaz de lo que creemos a la hora de averiguar cómo es el mundo que nos rodea

Partiendo de esta constatación científicamente probada, si los sesgos distorsionan nuestra visión de la realidad, el método científico podría concebirse como unas lentes que permiten corregir esos defectos. Acepta Ruiz Martín que este modo científico de proceder también presenta sus limitaciones (explicaciones científicas aparentemente irrefutables hoy son superadas más adelante y arrumbadas entonces por inútiles, especialmente en un campo tan “difuso” como el de las ciencias sociales), pero coincide con Carl Sagan, al que cita, en que es el mejor que tenemos cuando se trata de describir el mundo, explicar sus causas, lograr hacer predicciones e intervenir para cambiarlo. Persuadido de ello, analiza a continuación, siempre de manera breve, la necesidad de hacer ciencia en educación, alerta del riesgo de la pseudociencia, describe los parámetros que definen el método científico e introduce un sucinto glosario de términos -mito, evidencia, aprendizaje- cuya correcta intelección resulta indispensable para la comprensión del núcleo central de su libro: el repaso de cuarenta y cuatro de estas ideas falsas, y pese a ello muy arraigadas, en su mayoría, en las mentes y en las actitudes de supuestos expertos, profesores más o menos comprometidos con su labor, tanto novatos como veteranos, padres, familias y población en general. 

El libro, pues, se estructura en cuarenta y cuatro capítulos, de corta extensión -normalmente menos de diez páginas-, en cada uno de los cuales se analiza una de estas ideas sin fundamento, se examina el porqué de los errores que la sustentan a partir de los estudios que concitan un consenso científico amplio entre los especialistas del área pertinente, y se explica cuál es la “verdad” admitida sobre cada asunto, que choca con la intuición y las explicaciones que suelen predominar en el discurso popular. Tras cada uno de los cuarenta y cuatro análisis, el libro ofrece una bibliografía específica, de en torno a los quince títulos (que, como es obvio, se repiten en más de una ocasión) de la más solvente y actualizada investigación sobre el tema respectivo. Para facilitar la sistematización por parte del lector de una cantidad tan amplia de apartados, los distintos “edumitos” se agrupan en ocho diferentes áreas temáticas en cada una de las cuales se integran siguiendo un criterio de coherencia y homogeneidad: “Aprendizaje y enseñanza”, “Técnicas de estudio”, “Emociones y aprendizaje”, “Aprendizaje de la lectura”, “Cerebro y memoria”, “Infancia y desarrollo”, “Habilidades cognitivas” y “Tecnología y aprendizaje”. Como puede apreciarse, la mera enumeración de los grandes ejes de la obra ya es muy reveladora de su extraordinario atractivo, de modo primordial para los profesionales de la enseñanza, pero también para estudiantes, familias y, como ya he señalado, cualquier persona interesada en los procesos de aprendizaje que se producen en cualquier otro ámbito de la vida. 

No es necesario adelantar que me resulta imposible, como puede imaginarse, presentar siquiera un esbozo de una tan larga lista de los “edumitos” desvelados en el muy lúcido ensayo. Intentaré, no obstante un repaso ligero pero espero que significativo sobre alguno de los más relevantes, procurando ofrecer una muestra representativa de cada uno de los ocho frentes del libro. Así, por ejemplo, en la sección “Aprendizaje y enseñanza”, la más extensa, al ser la más general, con nueve inexactitudes, falsedades o equívocos analizados, el autor examina, cuestiona y rebate ideas como la que postula que los estudiantes se diferencian en función de su estilo de aprendizaje idóneo. Por el contrario, siendo la noción de “estilos de aprendizaje” (auditivo, visual, kinestésico) una de las percepciones intuitivas más plausible a la luz de nuestra experiencia personal, se revela inconsistente bajo el escrutinio del método científico, pues no es cierto que las diferencias que tenemos las personas en nuestros modos de aprender excluyan la existencia de estrategias de aprendizaje comunes y eficaces para todos, basadas en las evidencias científicas acerca del funcionamiento de la memoria, que revelan que son, sobre todo, los conocimientos previos de los que parte el estudiante, y no las vías por las que aprendemos, los que determinan la eficacia de su enseñanza. Engañosas son también las “pirámides de aprendizaje” que proliferan por doquier en el ámbito educativo y que establecen porcentajes de éxito en dicho aprendizaje, en función del medio a través del cual éste se desarrolla (clase magistral, lectura, audiovisual, práctica, etc.), ya que el elemento diferencial para recordar y aprender una información no es la forma en la que la hayamos obtenido, sino lo que hagamos con ella a continuación. Que las personas aprenden mejor cuando descubren las cosas por su cuenta, lo que viene denominándose “aprendizaje por descubrimiento”, es otro mito educativo de gran aceptación en las modernas tendencias en la profesión; señala Ruiz Martín que ello solo es cierto cuando hablamos de conocimientos y destrezas “biológicamente primarios” (la lengua oral materna, las habilidades sociales), en los que, en efecto, cabe el aprendizaje autónomo, que en ese terreno se habría perfeccionado a lo largo de la historia evolutiva; en cambio, para los conocimientos “biológicamente secundarios” (lectura, escritura, matemáticas, ciencia, historia, etc.), que no cuentan con estructuras adaptadas en nuestro cerebro que faciliten su adquisición, dado el relativamente corto tiempo -unos pocos milenios- de la explosión cultural de la humanidad, no cabe estrategia mejor que la enseñanza organizada, dirigida y tutelada por un experto capaz de establecer vínculos y conexiones entre lo enseñado y el bagaje previo de conocimientos del alumno (sostener lo contrario obligaría a cada individuo a descubrir de manera espontánea por su cuenta, y por tanto “reconstruir” partiendo de cero, toda la historia del conocimiento humano). Es falso también que los estudiantes sepan cómo y cuándo aprenden mejor, pues sus intuiciones -que los llevan a releer la información o a subrayarla para verificar si la han aprendido, cayendo en el engaño de que el hecho de que lo que releamos nos resulte familiar equivalga automáticamente a que lo hayamos interiorizado, aprendido y puesto en disposición de usarlo- son radicalmente inciertas, pues son la evocación y la explicación en alta voz a nosotros mismos o a otra persona de aquello que queremos aprender, las que permiten consolidar el aprendizaje. Muy oportuna resulta, igualmente, la aclaración acerca del mito del learning by doing, que sostiene que la manera más efectiva de aprender es “aprender haciendo”; la tesis, incuestionablemente válida para las enseñanzas “prácticas” (encestar en una canasta de baloncesto, en el ejemplo que propone Ruiz Martín), resulta disparatada si de lo que se trata es de aprender conocimientos (¿cómo se aprende “haciendo” la Revolución francesa?, de nuevo en referencia del autor), tarea para la cual, una vez más, es fundamental establecer “enlaces”, conexiones semánticas, entre lo que ya sabemos y la nueva información que recibimos; en consecuencia, el aprendizaje perdurable y vigoroso nace al promover explícitamente la creación de esas conexiones pensando sobre lo que queremos aprender (learning by thinking), esto es: tratando de explicarlo con nuestras propias palabras, comparándolo con cosas que ya sabemos e investigando similitudes y diferencias, buscando ejemplos que lo ilustren, inventando analogías, identificando sus causas y sugiriendo sus consecuencias, aplicándolo a casos similares o parecidos. El aprendizaje activo, pues, es activo si lo es desde el punto de vista cognitivo y no, como se difunde habitualmente, si se limita a un hacer físico (jugar con piezas de Lego o intentando construir en equipo la torre más alta usando espaguetis y plastilina, prácticas -hablo a partir de experiencias propias- que he “padecido” en cursos de formación del profesorado). Equivocada es también la creencia de que los buenos resultados educativos deben tener en cuenta y respetar los particulares métodos pedagógicos de cada profesor; no hay subjetivismo posible en esta cuestión -más allá de los inevitables “estilos” personales de cada individuo-: la ciencia ha corroborado una y otra vez que existen diversas acciones y circunstancias que maximizan el aprendizaje y que, son, por tanto, objetivables sea quien sea el profesor: la elaboración, la práctica espaciada, la evocación, la codificación dual, entre una docena de ingredientes de la enseñanza guiada por la evidencia, que Ruíz Martín recoge en una tabla muy ilustrativa. Quiero resaltar también, para cerrar el comentario de esta primera parte del libro, la demoledora crítica a la muy extendida noción de que el aprendizaje cooperativo perjudica a los buenos estudiantes, que se sustenta en una realidad muy habitual en las aulas: el trabajo en equipo oculta las carencias de los peores alumnos, que camuflan su bajo desempeño en la sobresaliente actividad de los mejores. Sin negar este hecho, el investigador señala que su causa es la mala configuración de estas actividades grupales por parte de profesores que, seducidos por el “mantra” del aprendizaje cooperativo, no diseñan adecuadamente las tareas que lleva consigo, las cuales, en el fundado criterio del autor, debieran cumplir tres premisas ineludibles, ausentes, por desgracia, en la inmensa mayoría de estas experiencias: confección, por parte del profesor, de grupos heterogéneos en habilidades y conocimientos de partida; calificación idéntica para todos los miembros del grupo; y valoración -y por tanto repercusión- del desempeño individual en la nota final del grupo, que no dependerá así del logro obtenido conjuntamente, del trabajo entregado. 

En la segunda parte del libro, centrada en mitos relativos a las “Técnicas de estudio”, se clarifican algunas ideas desacertadas y de nefasta repercusión en el modo en que los estudiantes enfrentan su tarea. Y estamos ante una cuestión importante porque los estudios más destacados y fiables sobre la materia certifican que las estrategias que se siguen al estudiar constituyen un importante predictor del éxito académico y, en consecuencia, personal, social y profesional. Contra las impresiones, las opiniones y las prácticas habituales de quienes -estudiantes, opositores, personas que preparan una exposición o una intervención en las que el recordar, el memorizar resulten indispensables- copiar los textos que debemos aprender, hacer resúmenes de ello, subrayarlos, insistir una y otra vez en practicar -ejercicios, problemas- que ya dominamos, escuchar música durante el proceso de estudio, no son conductas eficaces para el aprendizaje, a la luz de las más serias y contrastadas investigaciones. 

Copiar, transcribir, “pasar los apuntes a limpio”, trasladar a otro documento de modo automático y maquinal la información que debemos aprender es una tarea superflua, si no contraproducente al inducir en quien estudia la engañosa sensación de que, a través de ella, se ha aprendido. Nuestra memoria funciona creando conexiones semánticas entre lo que sabemos y lo que debemos aprender, por lo que son las prácticas que contribuyen al establecimiento de esos lazos, como reelaborar la información o rememorarla de modo activo, las que resultan útiles en el aprendizaje. Otro tanto ocurre con la realización de resúmenes, entendidos como una mera reducción de la extensión del texto, seleccionando y cortando partes de él. Tal actividad es ineficaz, salvo que el resumen conlleve una lectura significativa del texto, que, con discernimiento y criterio, nos obligue a elegir las partes relevantes, a conectarlas entre sí y a darles sentido a partir del bagaje personal de quien lo realiza. 

Lo mismo puede decirse del subrayar, una tarea que requiere mucho menos esfuerzo cognitivo, esto es, reflexión sobre el significado del texto, que otras tareas mentales, ya mencionadas y que podemos resumir en el término “evocar”, que son las que de verdad ayudan a consolidar el aprendizaje: pensar sobre él, relacionar sus partes, reproducirlo con nuestras propias palabras, establecer conexiones con nuestros saberes previos. 

Las ciencias del aprendizaje, y la experiencia personal de cada uno de nosotros, confirman que cuanto más practicamos algo, mejor lo aprendemos. Pero Ruiz Martín alerta del riesgo de continuar haciéndolo, seguir practicando actividades, hábitos, destrezas, que ya se han entendido y aprendido, pues también se puede practicar demasiado, y ello resulta, a la postre, contraproducente. Espaciar la práctica, esperar un tiempo antes de retomar una tarea ya suficientemente consolidada, produce un impacto mayor sobre el aprendizaje profundo que “sobrepracticar” o “sobreestudiar”. Parece que nuestro cerebro, apunta el autor y demuestran diversos experimentos, no da la misma importancia a las repeticiones seguidas que a las que se producen en distintos momentos, espaciados en el tiempo. 

Muchas y muy variadas pruebas evidencian, también, que escuchar música mientras se estudia -aunque sea relajante- perturba la concentración, distrae la atención de la tarea principal y dificulta la comprensión lectora, fundamentos indispensables de cualquier proceso de aprendizaje exitoso. La presencia de la música -en distinta medida, como es natural, según si se trata de sonidos instrumentales, canciones con letra en un idioma que se desconoce, o temas con texto en nuestro propio idioma- reduce el espacio de la “memoria de trabajo”, un ámbito restringido en el que cualquier intromisión de una tarea, merma la presencia de las demás. Y es, precisamente, la capacidad de esta memoria de trabajo la que condiciona la facultad para razonar, para poner en relación ideas o hechos, para dar significado a la información que recibimos vinculándola con nuestros conocimientos preexistentes. La música, pues, como tantos otros estímulos -la consulta del móvil, por poner el ejemplo más “agresivo”- es un “distractor”, se inmiscuye en nuestra memoria de trabajo y reduce los recursos disponibles para la comprensión. 

Algunas de estas ideas se repiten -con variaciones- en el apartado titulado “Emociones y aprendizaje”. Encontramos en él algunos “edumitos” de muy frecuente irrupción en la vida escolar y a cuyo desvelamiento no contribuye solo la neurociencia, sino también la psicología (Ruiz Martín denuncia cómo la moda por la primera ha invadido el mundo educativo de un modo indiscriminado, sin discernir los límites entre una y otra ciencia, en una prueba más de la confusión reinante en la materia). Por ejemplo, que las emociones hacen más memorable lo aprendido en clase. Es indudable que aquellas experiencias que se vinculan a alguna emoción se recuerdan con más facilidad; pero lo que ocurre en estos casos es que lo que se rememora es la experiencia en sí y no tanto los conocimientos o enseñanzas que se querían aprender. A partir de la sistematización de las distintas clases de memoria -procedimental y declarativa o explícita, y, dentro de esta, la episódica y la semántica-, Ruiz Martín demuestra cómo solo esta última -la que alberga conocimientos, ideas, conceptos- contribuye al aprendizaje. No solo es así, sino que, además, poblar las aulas de experiencias emocionales puede nublar la reflexión sosegada: Aprender conceptos requiere pensar, afirma, y las emociones intensas no ayudan en tal sentido. Es un mito, también, que la motivación de los estudiantes dependa de sus intereses, razón por la cual, supuestamente, las clases deberían ajustarse a esas preferencias y los alumnos elegir qué aprender. Por el contrario, en el capítulo se exponen las razones por las que otras circunstancias -la confianza en sí mismos de los estudiantes (su autoeficacia), el establecimiento de desafíos- resultan más aconsejables porque si bien la motivación es importante para alcanzar los objetivos de aprendizaje, alcanzar los objetivos de aprendizaje es aún más importante para la motivación, en máxima rotunda que debiera constituir una guía que dirigiera el trabajo del profesor. Carece, igualmente, de fundamento la tesis según la cual los intereses de los estudiantes son particulares de cada uno y, de nuevo, en consecuencia, los profesores debieran adaptarse a dichos intereses. Aparte de las dificultades objetivas, materiales, de adecuar la enseñanza a cada alumno, por baja que sea la ratio profesor/estudiante, ese centrarse en los intereses de los alumnos obligaría a dejar de lado, a obviar, hechos, experiencias, habilidades, ideas, conocimientos, todos muy valiosos en sí mismos, pero que quedarían fuera del alcance de la labor docente por no “encajar” en el siempre muy limitado universo del discente. Despertar la curiosidad de los chicos -con historias, retos, problemas-, “descubrirles mundos”, resulta un medio mucho más eficaz para incentivar su motivación que centrarse en los ámbitos que ya conocen y dominan. Otra falacia muy común -y muy dañina- es la que sostiene que un alumno motivado es un alumno que aprende. Las clases se llenan así de experiencias motivadoras, juegos, experimentos divertidos, gamificación, que solo provocan que los estudiantes se lo pasen bien, se centren en los aspectos superfluos de la actividad, pero no que aprendan. Motivar a los adolescentes y jóvenes es muy fácil, bastaría con dejarles el móvil en cada hora de clase. La motivación es un medio, afirma el investigador, no un fin. No hay que motivar al alumno para que esté motivado, hay que hacerlo para que aprenda lo que el profesor quiere que aprenda, esto es, tratar de dar sentido a los conceptos e ideas que constituyen el objeto del aprendizaje

“Aprendizaje de la lectura”, la sección dedicada a develar y rebatir los mitos en este campo, resulta también muy sugerente, con ideas muy fecundas, bastantes de las cuales coinciden con las examinadas por Michel Desmurget en el libro del que os hablé aquí hace quince días. Alerta, de entrada, Ruiz Martín del especial peligro que entrañan las falsedades o las nociones equivocadas con respecto a la lectura, pues la competencia lectora es la base de cualquier otro aprendizaje y, por tanto, la clave esencial para el futuro desenvolvimiento de las personas en el mundo. Un niño no suficientemente educado en las habilidades lectoras, leerá defectuosamente, lo que generará en él desafección hacia le lectura, lo que, a su vez, lo llevará a no leer, limitando, por tanto, su competencia lectora, en un círculo infernal que marcará irremisiblemente su vida. Y, pese a ello, son muchas las incongruencias que se dan por buenas en este campo. Por ejemplo, y entre otras estudiadas en el libro: no es verdad que los niños aprendan a leer de manera natural y espontánea. No es lo mismo aprender a hablar, lo que, en efecto, se logra con la exposición al lenguaje y con la interacción verbal, que el dominio de la lectura, una competencia de “reciente” adquisición por parte del ser humano, que solo surge cuando aparece la escritura, hace unos 5.000 años, tiempo insuficiente para que nuestro cerebro haya evolucionado para aprender a leer con facilidad. Por el contrario, y como ocurre con tantas otras disciplinas, el modo más eficaz de aprendizaje exige la enseñanza explícita, la instrucción directa y la práctica frecuente iniciada, a ser posible, a edad temprana. Del mismo modo, incurren en un error gravísimo quienes sostienen -una suerte de vendehúmos pedagógicos- que es posible multiplicar extraordinariamente la velocidad de lectura sin que ello afecte a la plena comprensión de lo leído. Los lectores competentes leen entre 200 y 400 palabras por minuto; y estos estrategas del marketing lector asegura que, con sus innovadores métodos, puede llegarse a las 1.000 palabras, habiendo quien sostiene que pueden alcanzarse las 4.000. Estudios solventes sobre la capacidad del ojo humano para “fijar” un punto determinado de un texto concluyen, sin duda alguna, que es imposible procesar el sentido profundo de lo que leemos -y no se diga disfrutar de ello- más allá de un número determinado de “fijaciones” por minuto. Es factible, claro está, mejorar la fluidez lectora pero ello se consigue, una vez más, con una adecuada enseñanza inicial y mucha práctica, exigencias muy alejadas de las recetas milagrosas que proliferan en este ámbito. 

“Cerebro y memoria” también aborda cuestiones interesantes. La principal es el desmentido de las opiniones que desacreditan la memoria por considerarla una mera repetición -rutinaria e insulsa- de información con la intención de retenerla, idea que se ejemplifica en el anacrónico tópico de la lista de los reyes godos. Ruíz Martín, tras una oportuna precisión terminológica (lo que comúnmente asociamos a memoria, el simple “memorizar”, supone una visión reduccionista de la memoria, que, a su juicio es, ni más ni menos, la capacidad de aprender cualquier cosa) y un serio análisis -que ya estaba en su anterior libro- sobre los distintos tipos de memoria, se opone, como de costumbre con argumentos bien fundados, la visión de la memoria concebida como el disco duro de un ordenador, capaz de acumular información de manera indiscriminada. Por el contrario, a nuestra memoria, afirma en expresión provocadora, se le da muy mal “memorizar”, pues, no es capaz -o lo es con un esfuerzo y unos resultados ineficaces- de incorporar información nueva con independencia de su significado. Estamos pues ante la noción de significatividad, es decir, la idea, reiterada en todo el libro, de la necesidad de establecer conexiones cognitivas sólidas, lo que obliga a vincular los conocimientos que se pretende adquirir con los ya existentes. La memoria no es un almacén de datos apilados, sino una red en la que esos datos están conectados por relaciones de significado. Desde este punto de vista, el libro rebate, de manera irrefutable y contundente, las tesis que sostienen la inutilidad de la memoria, en un texto -muy elocuente- en el que se enumeran las consecuencias -letales para nuestra evolución como especie- que tendría la “pérdida” de la memoria. En esta sección se refutan también el mito según el cual la memoria es un músculo que hay que entrenar, pues la mera memorización de datos -no de conocimientos- no contribuye al aprendizaje; el “neuromito” de la prevalencia de un hemisferio cerebral sobre otro, lo que afectaría a las aptitudes de cada persona, y. en consecuencia justificaría el uso de estrategias educativas distintas para cada individuo en función de sus supuestos hemisferios cerebrales dominantes, pues para llevar a cabo cualquier tarea, por simple que sea, es necesaria la participación de múltiples regiones del cerebro; el disparatado mito que sostiene que solo usamos el diez por ciento de nuestro cerebro, un delirio sin base científica alguna; y, en un capítulo muy iluminador, y uno de los más extensos del libro, el mito -de seguimiento ciego en las teorías educativas pretendidamente “modernas”, responsables del bombardeo sobre actividades y productos falsamente basados en la neurociencia- según el cual la neurociencia es muy útil para informar las prácticas educativas (por el contrario, sostiene de manera categórica, bien fundada y por tanto convincente Ruiz Martín, la ciencia cuyos logros resultan más relevantes y de mayor aplicación en la enseñanza es la psicología, que, frente a lo que habitualmente se cree, no se centra solo y exclusivamente en la terapia, sino que es la responsable de los grandes avances en relación con la percepción, la atención, la memoria o la motivación, temas esenciales para orientarnos en la enseñanza y el aprendizaje). 

Las inconsistencias que recopila la sección “Infancia y desarrollo” son también, por desgracia, muy “populares”. Ello sucede con la idea de que el desarrollo cognitivo obedece a causas biológicas y que, por tanto, no cabe intervenir sobre él; por el contrario, los avances que los niños -que cualquier persona, en realidad- experimentan en su capacidad de pensar, razonar y aprender, están más relacionados con sus experiencias y con los conocimientos que de ellas se extraen que de su maduración espontánea general. Una vez más, como en tantos otros pasajes de su libro, Ruiz Martín se muestra categórico: los conocimientos que adquirimos moldean nuestro cerebro e influyen en lo que seremos capaces de pensar, hacer y aprender, de ahí la importancia de vincular el aprendizaje a una buena secuencia didáctica, en la que lo que aprende primero sirva de base para la conexión con futuras enseñanzas. Es, igualmente, un error frecuente creer que los ambientes ricos en estímulos mejoran el cerebro de los niños muy pequeños, “edumito” que está en la base de la hiperinflación de incentivos a los que muchos padres someten a sus hijos. Siendo, en sí mismos, benéficos, no existe una correlación probada entre su realización y el desarrollo cerebral. El niño de hasta tres años, dice el investigador, necesita unos adultos afectuosos que lo cuiden e interactúen con él. Y dentro de esas interacciones, y en consonancia con lo que defendía aquí hace siete días Michel Desmurguet, es la lectura compartida la actividad que más contribuye al desarrollo lingüístico del menor y, en consecuencia, a su desarrollo intelectual. Falsa es también la aseveración según la cual la música clásica, en particular la de Mozart, estimula la inteligencia de los bebés; como lo es -también errónea- la supuesta eficacia de la gimnasia cerebral -ejercicios corporales cuya práctica mejoraría las habilidades cognitivas de quienes los llevan a cabo; pese a su absoluta y disparatada falta de rigor, la teoría se aplica en más de noventa países y sus propuestas han sido traducidas a más de cuarenta idiomas, como nos informa Ruiz Martín. 

El desvelamiento de algunos muy consolidados equívocos relativos a las “Habilidades cognitivas” constituye el propósito del penúltimo apartado del libro, que se ocupa de los mitos numerados desde el trigésimo cuarto al cuadragésimo. Ruiz Martín desmitifica en esta sección planteamientos, equivocados desde el punto de vista de la ciencia, pero muy consolidados en gran parte de las prácticas educativas “modernas”, como los que sostienen que aprender determinadas materias mejora las habilidades cognitivas generales que trascienden esas disciplinas particulares (aprender latín, ajedrez o programación mejoran el desempeño en dichas especialidades, pero no en otras distantes, siendo una estafa -quizá el adjetivo es excesivo, si el planteamiento es bienintencionado- los programas y aplicaciones que se presentan bajo el lema “brain training” y que prometen potenciar nuestras funciones cognitivas a través de la realización de ciertos ejercicios regulares; no ocurre así con la práctica musical, que sí parece proporcionar beneficios cognitivos en otras áreas); los que defienden que solo se puede sostener la atención durante un máximo de treinta minutos (a las tareas que logran captar nuestro interés no les afecta el hecho de ampliar su duración, más allá de ciertos límites lógicos, pues, como parece evidenciar la práctica, si prolongamos demasiado una actividad, sí aumentan las posibilidades del cansancio y la desatención); los que postulan que la escuela mata la creatividad (al contrario, la escuela tiene la capacidad implícita de promoverla, pues no hay creatividad que “parta de cero”, que no exija conocimientos previos, y ello -proporcionar esos conocimientos- es lo que hace -o debería hacer- la institución escolar; cosa distinta es que una mala praxis docente “mate” la motivación, el afán por aprender y, por tanto, limite las actitudes creativas); los que afirman que existen diversos tipos de inteligencia -la muy popular teoría de las inteligencias -que no habilidades- múltiples (en el capítulo más extenso del libro -y también en el más documentado, con medio centenar de referencias bibliográficas, doce de ellas de la obra del propio creador de la teoría, Howard Gardner- Ruiz Martín desmonta de manera categórica la solvencia de esa tesis disparatada, en la que, sin embargo, se fundamentan tantas experiencias educativas pretendidamente innovadoras, de funesta implantación en los centros de enseñanza); los que proclaman que la educación no debe preocuparse por la transmisión y la adquisición de conocimientos sino por el desarrollo de habilidades “superiores” como la creatividad, la resolución de problemas, el análisis crítico y la realización de proyectos (ninguna de esta competencias, sin duda esenciales, puede llevarse a cabo sin una base sólida de conocimientos: las habilidades de pensamiento y los conocimientos son indisociables; entendidos estos conocimientos, claro está, no como la mera memorización superficial de nombres, datos o fechas, sino como saberes significativos, vinculados a ideas, organizados, “comprensibles” y susceptibles de transferencia a otros contextos); los que, en este mismo sentido, declaran el carácter superfluo de los conocimientos en las clases, pues “todo está ya en internet”, por lo que habría que enseñar a los alumnos a buscar la información y pudieran, de este modo, a “aprender por su cuenta” (una insensatez, en tanto que según la muy respaldada científicamente teoría de la carga cognitiva, una de cuyas consecuencias es que someter a los estudiantes a la dificultad “no deseable” de abrirse paso entre el maremágnum de información -heterogénea y desestructurada, caótica y compleja- que se van a encontrar en la red, es mucho menos eficaz -es ineficaz, en realidad- que proporcionarles esa información seleccionada, ordenada, jerarquizada y adaptada a sus necesidades; lo que constituye -obvio resulta el decirlo- la labor primordial del profesor); los que, por último, confían en las virtudes de la multitarea, una práctica que, supuestamente, puede aprenderse (las ciencias cognitivas, afirma el autor, no han corroborado que sea posible hacer dos cosas a la vez -en el mismo instante- con la misma fluidez y precisión que si abordásemos primero una y luego la otra).

El libro se cierra con cuatro muy sugerentes capítulos finales que abordan otros tantos “mitos” englobados bajo la rúbrica de “Tecnología y aprendizaje”. Así, el autor examina la repetida incoherencia según la cual el uso excesivo de tecnologías digitales estaría reduciendo la capacidad de prestar atención de los usuarios. Tal circunstancia no es cierta, la memoria no empeora ni se atrofia por su infrautilización; cosa diferente es el hecho de que, por saber que la información necesaria está a nuestro alcance, pongamos menos atención, dediquemos menos esfuerzo o dejemos de utilizar estrategias conscientes de memorización, lo que, obviamente, sí repercutirá en el recuerdo (usar el GPS del coche no deteriora nuestra memoria, aunque, como es evidente, repercute en el conocimiento de las calles y las rutas, al despreocuparnos de ello cuando ponemos nuestro itinerario en manos del algoritmo). Igualmente, el uso de la tecnología puede propiciar las distracciones, lo que, obviamente, tendrá un efecto negativo en el aprendizaje. Otro tanto ocurre -aunque las evidencias científicas puedan resultar, en este campo, especialmente “contraintuitivas”- con la supuesta merma de la capacidad de atención por el uso de dispositivos electrónicos. Dicha capacidad sigue intacta, sin cambios apreciables, por mucho que pasemos horas ante los teléfonos móviles. Lo que cambia, de manera ostensible, es la cantidad y la potencia de las distracciones que la utilización de esos artefactos conlleva. La tecnología no modifica, pues, nuestro cerebro, sino, ante la abundancia casi ilimitada de estímulos, nuestra “capacidad atencional”. El penúltimo mito desvelado en el libro es el que sostiene que el uso de pantallas en el aula -y este matiz es importante- supone un riesgo para la salud de los estudiantes. Per se no producen miopía, ni provocan trastornos del sueño, ni generan adicción, ni atrofian, como ya he señalado, la capacidad de prestar atención. Lo que provoca consecuencias no siempre benéficas son las aplicaciones programadas para facilitar la conexión continua; por lo tanto, es el uso que se hace de las pantallas y, sobre todo, lo que se deja de hacer por la sobreexposición a su hiperestimulante magnetismo: en síntesis, recibir otro tipo de estímulos, en particular los lingüísticos, de mucha mayor eficacia y que el abuso del consumo digital deja de lado. El análisis finaliza estudiando otra inexactitud muy extendida, la que atribuye diferentes modos de razonar y aprender a “nativos” e “inmigrantes” digitales, un desatino que Ruiz Martín refuta con contundencia. 

No hay tiempo para más, ni siquiera para mi habitual texto final. La mención a la música de Mozart en un pasaje del libro, en particular a alguno de los movimientos “Allegro con spirito” presentes en su obra, me lleva a dejaros, como complemento musical a mi reseña, con la Sonata para dos Pianos in Re Mayor, K. 448: I. Allegro con spirito, interpretada por Alicia de Larrocha y André Previn.

Videoconferencia
Héctor Ruiz Martín. Edumitos

miércoles, 18 de septiembre de 2024

MARIANO SIGMAN Y SANTIAGO BILINKIS. ARTIFICIAL
 
En estos primeros días de septiembre, coincidiendo con el comienzo del curso académico en sus diferentes niveles, desde Todos los libros un libro suelo ofreceros recomendaciones lectoras relacionadas, siquiera sea de manera indirecta o tangencial, con la educación y la enseñanza. Con ese referente último, hace siete días traje aquí el sugestivo ensayo de Michel Desmurget Más libros y menos pantallas en el que su autor defendía, a partir de una abundante y exhaustiva documentación, las bondades de los libros y de la lectura de obras de ficción -cuanto más temprana, más eficaz- de cara al logro del completo desarrollo académico, intelectual, social y emocional de niños, adolescentes, jóvenes y adultos en general. En paralelo, el neurocientífico francés volvía a denostar la invasiva -y destructiva- presencia de los dispositivos electrónicos en nuestras vidas, ya convincente y críticamente analizada en su anterior libro -también comentado con entusiasmo en nuestro espacio-, el excepcional La fábrica de cretinos digitales. El muy obvio vínculo entre la lectura y el ámbito escolar justificaba la presencia de Más libros y menos pantallas en esta breve serie asociada al inicio del curso. 

Una serie que esta tarde tiene su continuación en Artificial, el interesante título de Mariano Sigman y Santiago Bilinkis publicado por la editorial Debate hace ahora un año, en octubre de 2023. Artificial presenta un enfoque más vasto y menos combativo de la tecnología que el que está presente en las belicosas diatribas de Desmurget. Más amplio porque, aun refiriéndose -en un muy sugestivo capítulo- a las repercusiones que la Inteligencia Artificial puede llegar a tener -¿está teniendo ya?- en el terreno educativo, su planteamiento es más general, extendiéndose a muchas otras dimensiones de nuestra vida en las que los avances del por ahora último gran descubrimiento tecnológico pueden suponer un cambio revolucionario. Y más complaciente porque, sin soslayar los riesgos, las amenazas y los indudables peligros que entraña una posible desaforada evolución de los hallazgos en computación, robótica e inteligencia artificial, los autores, grandes expertos en la materia y excelentes conocedores de su dominio académico, tienen una visión más optimista del fenómeno y están persuadidos de que el futuro que nos espera será, gracias a la ciencia y en particular a la Inteligencia Artificial, fecundo y estimulante. 

Mariano Sigman, argentino, es doctor en neurociencia en Nueva York y se desempeñó como investigador en París. Divulgador científico en distintos medios en el mundo entero, es una autoridad en asuntos vinculados a la neurociencia aplicada a las decisiones, la educación y la comunicación humana. Es autor de un best-seller internacional, El poder de las palabras: como cambiar tu cerebro (y tu vida) conversando, que tengo, desde hace tiempo, en la lista de mis lecturas pendientes. Su “partenaire” en el libro que hoy nos ocupa, Santiago Bilinkis, también argentino, es economista de formación, aunque realizó estudios de posgrado sobre inteligencia artificial, robótica, biotecnología, neurociencia y nanotecnología en Silicon Valley. Es también colaborador en prensa y televisión, y creador de exitosos proyectos empresariales relacionados con el universo tecnológico. El, por ahora, último libro de ambos, este Artificial cuya lectura os recomiendo, se presenta, en una propuesta muy coherente con el contenido de la obra, con una llamativa portada, cuya autora, la ilustradora madrileña Valeria Palmeiro, de nombre artístico Coco Dávez, explica el uso de la Inteligencia Artificial en la confección de la cubierta, en una breve coda final al libro que sintetiza de un modo muy elocuente parte de las tesis que desarrollan en él sus autores. 

En un campo que vive transformaciones tan vertiginosas y aceleradas como es el de la ciencia actual y en particular el de los avances de la Inteligencia Artificial, resulta difícil encarar un ensayo -aunque, como el que tenemos entre manos, sea meramente divulgativo- que pueda resultar “cerrado”, categórico o definitivo sobre la materia. Mucho menos aún atreverse a presentar un planteamiento prospectivo o aventurar un horizonte definido, concreto y específico para el futuro, siquiera el más inmediato. Conscientes de la inutilidad de tal propósito, los autores dejan claro en un pasaje de su obra que nuestro objetivo no es hacer pronósticos precisos, sino explorar ideas provocadoras que puedan servirnos como referencia. Y eso es, precisamente, en una síntesis esclarecedora, Artificial, una exploración lúcida, estimulante intelectualmente, documentada y muy didáctica de los antecedentes, del estado actual y del probable futuro de la Inteligencia Artificial. Partiendo de un inevitable y forzosamente humilde escepticismo epistemológico (La inteligencia artificial (…) está compuesta de dos cosas, la inteligencia y lo artificial, de las que entendemos muy poco en general. Sabemos muy poco de la inteligencia y tampoco sabemos bien qué es un artificio, ha declarado Sigman en alguna entrevista), el estudio indaga en las repercusiones de esta disruptiva tecnología en ámbitos tan distintos como los de la educación, ya mencionado, el trabajo, la política, la psicología o la moral, en un análisis en el que no se ocultan las amenazas que conlleva; antes bien, se subrayan y confrontan para que el lector sea consciente de los obstáculos que deben superarse si se quiere acceder a las muchas y extraordinariamente benéficas posibilidades que los adelantos en computación permiten imaginar. Hay, además, impregnando la obra entera, una suerte de tenue hilo conductor ya adelantado: en estos momentos en los que las inconcebibles perspectivas a las que se abre el desmesurado progreso tecnológico son percibidas con un terror apocalíptico en el que se concentran todas las distópicas hipótesis sobre un universo posthumano, los autores, esperanzados e imbuidos de una ilusionada positividad, reivindican la profunda humanidad de los descubrimientos científicos (pese a que la previsible capacidad de la IA para “pensar por sí misma” amenace con desbordar los límites de la naturaleza humana). 

Los dos primeros capítulos -de los once, junto con un epílogo, de los que se compone el libro- describen la génesis de lo que hoy conocemos como Inteligencia Artificial. En ellos los autores transitan “territorios” ya recogidos en una novela que presenté aquí hace unos meses, la excepcional MANIAC, de Benjamín Labatut: el universo fascinante de los principales hallazgos en matemáticas, biología, neurociencia, computación y creación de modelos de inteligencia artificial que con velocidad galopante se han ido sucediendo en el mundo desde hace ochenta años, a partir de la Segunda Guerra Mundial. Asistimos, así, al momento inaugural en Bletchley Park (en mayo de 1938, el almirante Sir Hugh Sinclair del Servicio de Inteligencia Británico, el mítico MI6, compró una mansión construida en el siglo XIX conocida como Bletchley Park), el palacio victoriano cuyo esplendor arquitectónico (…) ayudaría a camuflar las actividades secretas del gobierno durante la Segunda Guerra Mundial, consistentes en el desciframiento de los códigos de comunicación alemanes durante la contienda. Los hechos son conocidos -y justamente mitificados, incluso, por el cine; recuérdese The imitation game (Descrifando Enigma), la película de 2014, dirigida por Morten Tyldum e interpretada en sus papeles principales por Benedict Cumberbatch y Keira Knightley- y su relato, que ocupa las páginas iniciales del libro, es apasionante: la concentración en el apartado lugar de un equipo de treinta y cinco físicos y matemáticos, que serían liderados por Alan Turing y Dillwyn Knox; la puesta en marcha de una sucursal secreta de la Escuela de Códigos y Cifrado del Gobierno del Reino Unido; la ambiciosa tarea a la que enfrentaba el grupo, salvar al mundo mediante el desvelamiento de los mensajes encriptados por la máquina Enigma, creada por Alemania para transmitir sus comunicaciones; la decisiva intervención en el proyecto de más de seis mil mujeres, reclutadas por el gobierno británico para trabajar en Bletchley Park por su conocimiento de idiomas y su destreza jugando al ajedrez y resolviendo crucigramas; la construcción de una incipiente máquina de cálculo, a la que llamarían Bombe, un enorme y aparatoso dispositivo electromecánico, creado en 1939, que permitiría descifrar los códigos nazis merced a las mentes privilegiadas de los científicos y al talento de las mujeres acostumbradas a los enigmas y los juegos de palabras cruzadas, así como -y la anécdota es conocida- a la insistencia vanidosa de los nazis en usar repetidamente la fórmula «Heil Hitler» (…), un error garrafal que simplificó la tarea, ya que es mucho más sencillo descifrar un código en el que hay mensajes previsibles que se repiten. Con Bombe empezó todo. Pese a tratarse de un dispositivo rudimentario que hoy no superaría, ni siquiera mínimamente, una prueba de competencias intelectuales, este esbozo de pensamiento humano depositado en un dispositivo eléctrico mostraba ya algunos rasgos de lo que identificamos como inteligencia. El programa que ideó Turing, apuntan Sigman y Bilinkis, fue una versión muy rudimentaria de una inteligencia artificial

A partir de ese descubrimiento germinal se suceden los hallazgos y las invenciones, a cuál más esencial y sorprendente y de los que el libro da cuenta a la vez que esboza -con un enfoque divulgativo muy sencillo y pedagógico- los fundamentos científicos en los que se basan. Por ejemplo, la aplicación al ajedrez de las ideas básicas que llevaron a la ideación de Bombe, con el diseño en 1948 de Turochamp, el primer programa de ajedrez, creado a partir de una investigación del propio Turing, en un intento muy elemental -y de mediocres resultados, visto con lógica actual (Sesenta y cuatro años después, en 2012, en el marco de la celebración del centenario del nacimiento de Turing, la Universidad de Mánchester rescató el algoritmo que él había creado y lo enfrentó a uno de los mejores jugadores de todos los tiempos: Garry Kaspárov. El gran maestro ruso aplastó al viejo programa en una partida de dieciséis movimientos)- de emular y replicar la inteligencia humana. En un ejercicio de metacognición, de indagación acerca de cómo piensa el pensamiento humano, Turing concibió una especie de “receta”, una serie de instrucciones secuenciadas que definían los pasos a seguir para realizar un movimiento del juego. Y el libro salta entonces al Proyecto Manhattan -núcleo central de MANIAC y de la película Oppenheimer-, que desplazaría circunstancialmente la atención de la ciencia de los curiosos e innovadores experimentos de la IA hacia el más tangible -y entonces urgente, a causa de la Guerra Fría- territorio de la investigación nuclear, a la que los autores del libro vinculan -estableciendo un nítido paralelismo entre ambos fenómenos- con el actual estado de cosas de la IA: La visión de este grupo de científicos [los involucrados en el laboratorio de Los Álamos], que entendieron que la distribución de tecnología nuclear iba a determinar el futuro del mundo, y que ellos tenían un rol decisivo e inevitable —por acción u omisión— en la configuración del mapa global, puede servir como guía para pensar acerca del avance de la investigación y el control sobre la IA en el futuro cercano

Entretanto, y sin aparente conexión con el nacimiento y desarrollo de la Inteligencia Artificial, destacados físicos, matemáticos y neurofisiólogos empiezan a trabajar en las redes neuronales, un concepto anticipatorio que estaría en la base de la IA, el entendimiento de cómo la inteligencia nace a partir de un sustrato no inteligente. Conectando estas investigaciones con las ideas del psicólogo Carl Rogers y los avances en psicoterapia, en 1966, Joseph Weizenbaum, un profesor de informática del Instituto Tecnológico de Massachusetts (MIT), crearía Eliza, el primer robot conversacional de la historia, claro antecedente, aunque aún muy elemental, del ChatGPT. Las redes neuronales cerebrales, que en la experiencia humana funcionan por capas, con neuronas interconectadas que se van agregando, creando nuevas conexiones y fortaleciendo las ya preexistentes para consolidar el recuerdo, la memoria, el aprendizaje, empezaron a ser replicadas artificialmente, y gracias al creciente incremento del poder computacional de los ordenadores, se fueron agregando un número cada vez mayor de capas intermedias, dando lugar a un nuevo tipo de red neuronal que hoy conocemos como deep learning, aprendizaje profundo. Las máquinas ya no necesitaban -como en el primitivo diseño de Turing- indicaciones precisas para llevar a cabo sus operaciones, sino que van a ser entrenadas para descubrir los patrones de conexiones neuronales que las vuelven efectivas

Aprovechando estos rupturistas conocimientos, la historia se acelera, y por las páginas del libro aparecen Deep Blue y su doble victoria en 1986 y 1987 contra Kasparov, el entonces campeón del mundo de ajedrez; Deep Mind, la compañía de Google empeñada en perfeccionar las cada vez más poderosas máquinas pensantes; las partidas de Lee Se-dol, la gran autoridad mundial en el inconmensurable juego del go, que permite más combinaciones de jugadas que átomos existen en el universo, contra AlphaGo, el deslumbrante programa, imaginativo y rebosante de creatividad, que acabaría por apabullar al coreano, dejando el gran hito de un deslumbrante movimiento de la segunda partida, una jugada revolucionaria, original, inesperada y sorprendente; el cambio cualitativo que supuso, en 2017, AlphaZero, sucesor de AlphaGo, al aprender a jugar al ajedrez y al go por su cuenta, sin instrucciones previas, procesando de manera prodigiosa la información recabada en sucesivas partidas jugadas contra sí mismo. 

Todos estos episodios -acontecimientos, en realidad, dada su trascendencia- forman parte del pasado más o menos reciente, ya referido -como he comentado- en la magistral MANIAC. Repasados sucintamente en su primer capítulo, Artificial se abre entonces a la descripción del desbordante presente de la IA, germen indudable de una nueva era. Una reveladora anécdota sobre André Agassi y Boris Becker (la intuición del norteamericano le había permitido descubrir en el alemán ciertos movimientos con la lengua, inconscientes y casi imperceptibles que anticipaban el tipo de saque que iba a realizar, información que Agassi, obviamente, utilizaba en su beneficio para preparar su respuesta y ganar los puntos) sirve de base a los ensayistas argentinos -en una significativa muestra, por lo demás, de los muy diversos ámbitos, culturales, deportivos, literarios, artísticos y, por supuesto, científicos, de los que beben para fundamentar su exposición- para describir algunos de los anticipadores conceptos que definen el actual estado de cosas de la ciencia computacional. 

De este modo, y siguiendo el referente de Agassi, conocemos el funcionamiento de las redes neuronales artificiales, que detectan pautas casi invisibles o, al menos, fuera del alcance de la percepción humana para identificar, de entre millones de datos, cuáles son los más relevantes para la resolución de un problema y cuáles pueden ser ignorados por intrascendentes. Estamos ya ante las redes generativas, capaces de crear algo nuevo, inexistente hasta entonces -una imagen de un gato, por poner el ejemplo que eligen en su libro- a partir de la superabundante cantidad de fotos de felinos que han logrado procesar en escasos segundos. Si, además, en un nuevo y luminoso paso, se pone a dos redes neuronales a competir entre sí para que aprendan de sus errores y vayan depurando la información que se proporcionan mutuamente, tenemos las llamadas Redes Generativas Adversariales -Generative Adversarial Networks (GAN)- o Redes Neuronales Recurrentes (RNN), y nos encontramos ya con que las inteligencias artificiales pueden aprender y alcanzar niveles superlativos, sin requerir de la intervención o la habilidad humana. Pero aún hay más -y la mera enumeración y la breve descripción de los inauditos avances producen vértigo-, porque en 2017, a partir de un artículo publicado por investigadores de la Universidad de Toronto, financiado por Google, y significativamente titulado Attention is all you need, con la referencia explícita a la canción de los Beatles, se introdujo una nueva arquitectura llamada transformer, que a partir de la información “de entrada” permite discriminar, con una precisión y una eficacia que dejan a Siri o Alexa en pañales, la que resulta más idónea para los fines pretendidos -fabricación de imágenes, respuesta a preguntas, elaboración de textos, traducción de idiomas-: la última pieza que faltaba para el boom actual de la IA

Entonces entra en juego Open AI. Su cerebro científico, Ilya Sutskever, idea un experimento: construir una red neuronal Generativa, Preentrenada y basada en Transformers. El afortunado resultado, como puede intuirse con solo detenerse en las iniciales, fue el GPT. No puedo resistirme a transcribir aquí el fragmento que da cuenta del calibre de esta innovación, pues resulta altamente esclarecedor (debo señalar, además -quizá hubiera debido hacerlo con antelación-, que el libro cuenta con un glosario final en el que, por su fuera insuficiente con la claridad expositiva de los autores, se definen una larga veintena de términos que recorren el libro, muchos de los cuales, forzosamente, he incorporado también a esta reseña): 

La meta de GPT era entrenar un transformer decodificador utilizando un corpus de texto descomunalmente grande, de producciones humanas agregadas durante miles de años. El método, como casi todo lo que hemos ido viendo, no fue muy sofisticado. Tomar una frase, quitar una palabra, y mejorar repetitivamente la capacidad de predecir qué palabra era la que faltaba. Así se volvió increíblemente efectiva para entender qué palabra va con cuál y, al captar de manera tan profunda la relación entre las palabras, adquirió un conocimiento equivalente a entender la gramática del lenguaje: tanto la morfología (qué clase de palabras hay) como la sintaxis (cómo se estructuran y se ordenan). Justamente, fue el algoritmo de atención de los transformers el que le permitió disponer del contexto necesario de cada palabra en la memoria para lograr este objetivo. Y esto se hizo no para uno, sino para al menos treinta idiomas diferentes. 
Entendiendo de esta manera la lógica profunda que subyace detrás de la lengua, GPT puede construir frases increíblemente humanas, prescindiendo de la semántica (saber qué significa cada palabra). Dicho de otra manera, ha aprendido a hablar con un estilo increíblemente humano y a decir cosas interesantes y de gran trascendencia, sin tener la menor idea de lo que está diciendo [la negrita es mía, Alberto San Segundo]. 

A las redes neuronales basadas en transformers, entrenadas con enormes volúmenes de texto para producir lenguaje, se las bautizó como LLM (Large Language Models), es decir, Grandes Modelos de Lenguaje. En este punto podríamos decir que acaba el pasado y empieza un futuro (que, en parte, y dada la celeridad de los cambios, es ya, en cierta medida, también presente). Hasta este momento, el ser humano había logrado crear máquinas capaces de abstraer, de calcular, de generar ideas propias y originales, de concebir objetos y, en última instancia, de conversar. Habilidades todas propias de la inteligencia. Como lo es también la indagación acerca de la naturaleza misma de esa inteligencia. Y en intentar desarrollar esta capacidad en las máquinas están ahora los científicos. 

El libro se abre entonces a infinidad de ideas altamente sugestivas y de imposible registro en esta reseña, dada su abundancia (son más de cien las notas que he tomado en mi lectura del texto). Destacaré aquí, de modo breve, las que me han resultado más estimulantes: las reflexiones sobre el concepto de inteligencia “humana” (algunas IA empiezan a estudiarse a sí mismas. Son neurocientíficas artificiales que indagan sobre sus propias representaciones para entender cómo funciona su «mente» y su «cerebro»); sobre los mecanismos del aprendizaje; sobre la vocación innata de nuestra especie por enseñar y compartir los logros de la cultura que hemos creado (la voracidad por compartir lo que hemos hecho o lo que conocemos es una pulsión tan innata como beber o buscar alimento); sobre la necesidad de la conversación y, en consecuencia, sobre la importancia de saber preguntar, pues nuestra presente relación con el ChatGPT se hace a través de prompts, las instrucciones, preguntas o frases con las que le pedimos una respuesta (aprender a dar buenas instrucciones se convertirá pronto en una habilidad fundamental. Curiosamente, aquí vuelve a aparecer una forma muy antigua de ejercitar nuestra inteligencia: saber preguntar); sobre el modo en que se entrena a una máquina, aplicando los conocimientos adquiridos en todos estos asuntos; sobre la función de valor, el eslabón fundamental del mecanismo de aprendizaje que está en el corazón de la IA, el evaluador que determinará los fines buscados durante el diseño y el entrenamiento de una inteligencia artificial y que, por lo tanto, favorecerá la optimización de la respuesta a un determinado problema, un parámetro objetivo que nos permitirá medir -ya lo está haciendo- de manera precisa si esa solución genera efectos positivos o negativos; sobre la dificultad que encierra establecer esa función de valor cuando nos hallamos ante decisiones que afectan a asuntos controvertidos desde el punto de vista moral o con implicaciones éticas; y, como corolario natural de esta idea, la complejidad que supone en estos casos proporcionar a la IA una función de valor nítida, bien definida y, a la vez, correcta, no equivocada, de programarla para que esté verdaderamente alineada con los objetivos, más grandes y trascendentes, de la especie humana y no provoque consecuencias no deseables para la humanidad (los ejemplos de los dilemas que se plantean en la programación de vehículos automáticos o las propuestas -meramente exploratorias y experimentales- que se hacen a la IA para que lleve a la prácticas actividades ilícitas, ilegales o abiertamente delictivas, son un caso paradigmático de las dificultades que aún hay que resolver en su desarrollo); sobre los argumentos -algunos racionales, otros morales (singularmente los riesgos de manipulación y de “pérdida de control” frente al poder casi omnímodo de la máquina), y también otros relacionados con la ancestral dificultad de modificar nuestros hábitos- con los que los seres humanos nos resistimos -al menos inicialmente- a las innovaciones y, en particular, a las indudables razones de eficiencia que supone la IA; sobre las casi ilimitadas potencialidades de la Inteligencia Artificial en el terreno de la creatividad, pues siendo una herramienta para crear contenido, su eficacia depende de las instrucciones que le demos, lo que lleva, en una derivada apasionante, a las consideraciones acerca de la reinvención del rol de autor, cada vez más cercano al de editor, que acabarán por superponerse. En este último aspecto, sostienen entusiasmados los autores que, al igual que la historia del arte está repleta de talleres en los que los maestros han delegado en sus aprendices la ejecución física de sus ideas artísticas [lo que] permitió que los artistas se centraran en la concepción mientras confiaban en otros la ejecución de la labor técnica y material, las más recientes invenciones tecnológicas “dirigidas” por la inteligencia humana, van a permitir incrementar de manera considerable las posibilidades creativas de este mundo híbrido [que] serán tan extraordinarias como desafiantes e impredecibles. Los conocidos casos del artista italiano Maurizio Cattelan, responsable de las ideas de sus esculturas, cuya materialización práctica encargaba al francés Daniel Druet; del creador alemán Boris Eldagsen, ganador de un prestigioso premio de fotografía con una imagen generada en su integridad con IA; o del conocido film de Orson Welles, F for Fake, que hace medio siglo ya exploraba estas muy lábiles fronteras entre creación y plagio, singularmente en una de sus secuencias en la que mostraba la catedral de Chartres mientras una voz en off aseguraba: «Ha estado en pie durante siglos. Tal vez la mayor obra del hombre en todo Occidente y no está firmada», sirven a Sigman y Bilinkis para apuntar a la dilución de los límites de la autoría y, con ello, señalar un camino para un uso creativo, eficiente, vigoroso y revolucionario de la IA: Vemos la enorme similitud entre este caso [el de Cattelan y Druet] y la composición con GPT. Lo que Cattelan le dio a Druet fue un prompt. Ni más ni menos. Lo que le devolvió Druet fue la ejecución del prompt (…). La esencia de la obra estaba en un prompt bien definido. 

A partir de aquí, el libro aborda, en capítulos sucesivos, el impacto actual y las posibilidades de futuro de la Inteligencia Artificial en diferentes ámbitos esenciales de la vida humana. Así, en El terremoto educativo, se centra en los cambios que se vislumbran en una de las instituciones, la escolar, tradicionalmente más rígida y más reacia a las novedades. La llegada de la tecnología, junto con la profunda revisión de la noción de autoridad que la sociedad lleva haciendo en las últimas décadas, unidas a la quiebra generalizada de la atención y la consiguiente dificultad de despertar y mantener la motivación, interpelan al modelo establecido de enseñanza y apuntan a nuevas vías de “pensar las aulas”. Porque, apuntan los autores, el sentido común sugiere que la educación debería seguir el ritmo de cambio del mundo. Pero, rigurosos intelectualmente como se manifiestan a lo largo del libro, se muestran también precavidos: sumarse imprudentemente a la ola del cambio y adoptar cada moda que emerge sin pensar los riesgos que esto puede implicar, lleva a una posición inestable e ineficiente tanto como quedarse en el otro extremo y permanecer completamente inmóviles. Por el contrario, en nuestros días, los claustros de profesores, las teorías pedagógicas, los departamentos de las Facultades de Educación, los valores dominantes en las instituciones escolares y gran parte de las prácticas “modernas” en este ámbito parecen desconocer -u obviar- las consecuencias a largo plazo que puede provocar en niños y adolescentes la aceptación acrítica y ciega de experimentos innovadores no contrastados por la investigación científica. El dilema subyacente -¿qué riesgo es menor: cambiar en exceso o demasiado poco?- se acrecienta con la llegada de la IA: ¿Cuál será su impacto en los objetivos, los métodos y los contenidos de las escuelas? ¿Qué transformaciones debería experimentar la educación y qué principios no deberían cambiar? El muy interesante capítulo constituye un intento de delimitar estas espinosas cuestiones. Con abundantes ejemplos de otros cambios “tecnológicos” -el abandono de la enseñanza de las técnicas de construcción de pirámides, en el Antiguo Egipto, cuando los monumentos dejaron de fabricarse; el paso de la pluma al bolígrafo; la invención de la calculadora- y a partir de las ideas de dificultad y utilidad como referentes primarios para decidir qué debe conservarse y qué debe ser abandonado en la educación, los autores van identificando las capacidades esenciales, los pilares básicos de la cognición, que hoy están en riesgo por la súbita e invasiva irrupción de la tecnología: la memoria (Sin memoria, no hay pensamiento ni inteligencia, ni artificial ni humana), la capacidad de concentrarnos, la competencia lectora, el buen uso del lenguaje, el pensamiento lógico y matemático, la capacidad de reflexión profunda, la lentitud y el sosiego, la paciencia, la fuerza de voluntad, la perseverancia y el esfuerzo que exigen el razonamiento, el trabajo intelectual y la consecución de logros relevantes en casi cualquier campo de la labor humana (para llegar a lugares bellos, es indefectible a veces pasar por lugares difíciles y oscuros y que para eso hace falta tenacidad y resiliencia). Algunas corrientes reformistas de la educación, con su enfoque divertido, lúdico, innovador, utilitarista, “tecnologista”, que propugnan una escuela «TikTokera», están poniendo en peligro seriamente estas habilidades en un fenómeno que presenta dos vertientes, el “sedentarismo cognitivo” y el “sedentarismo emocional”, en un claro paralelismo con la inactividad física. Del hecho de que utilizando Google, el ChatGPT, la calculadora u otro artefacto tecnológico que pueda inventarse, cualquier estudiante pueda hoy responder a cuestiones complejas sin necesidad de conocimiento previo alguno, no debe deducirse que las prácticas docentes puedan llevar consigo el abandono del cálculo numérico, del razonamiento, de la elaboración de ideas, del desarrollo del pensamiento. De hacerlo -y he ahí un riesgo del uso de la tecnología en la educación: ¿qué tenemos que enseñar?, ¿qué debemos evaluar?- incurriríamos en el “sedentarismo cognitivo”, con efectos tan perniciosos como la falta de ejercicio en nuestra salud física (Y aquí la paradoja: los que confían todos sus desplazamientos a un coche, son los mismos que luego pasan horas en un gimnasio corriendo en una cinta. ¿Realmente queremos pasar todos los exámenes sin esfuerzo?). Otro tanto ocurre con lo que Sigman y Bilinkis califican de “sedentarismo emocional”: la pérdida de los recursos de la motivación intrínseca, que exige un alto grado de curiosidad, planteamiento de retos, inquietud hacia -y valoración del- saber, esfuerzo, tolerancia a la frustración, resistencia a la fatiga, capacidades que se ven sustituidas hoy en día por un algoritmo externo capaz de ensimismar a los jóvenes con su imbatible oferta de estímulos fáciles, continuos y pasivos, generadores poderosísimos de dopamina en el cerebro. 

Delimitado así lo que de ninguna manera podemos permitirnos perder en el mundo educativo, el libro apunta en este momento ideas y propuestas acerca de algunas prácticas en las que la IA artificial puede optimizar los procesos de enseñanza y aprendizaje: los procedimientos de evaluación que no valoren la mera enumeración de fechas, datos, listados y sí reclamen, en cambio, habilidades de síntesis, relación, sistematización y expresión coherente y creativa de ideas, el aprendizaje profundo, en suma, para lo cual no sería óbice, antes al contrario, el hecho de que el alumno acceda al ChatGPT (Si la respuesta a una pregunta de examen está en Google, ¡el problema es la pregunta, no la respuesta!); la posibilidad de chatear con personajes históricos, usando la gran capacidad que tiene la IA de producir textos desde la perspectiva de alguien en particular (un buen prompt: ¿cómo explicaría Einstein su teoría de la relatividad a un niño de doce años?); la utilización de la IA para conectar los conocimientos a enseñar con el interés “natural” del estudiante (un ejemplo que se propone en el libro: Un adolescente muy interesado, por ejemplo, en los coches, podría pedirle a ChatGPT que le explicara el proceso histórico de la Segunda Guerra Mundial utilizando metáforas automovilísticas); el “rescate” de la perspectiva socrática del valor de la interrogación y la conversación, optimizando el valor de las preguntas (Como ChatGPT es un buen conversador, una vía sería tratar de explicarle cómo resolver un problema y ubicarlo en el lugar de un compañero parecido a nosotros que está tratando de aprender); la utilización de la Inteligencia Artificial para facilitar la autoevaluación, en tanto puede generar test que posibiliten el seguimiento personal del aprendizaje por parte del propio alumno; el uso de la IA como colaborador del enseñante, como profesor particular o tutor que, en cada momento, puede indicar al docente cuáles son los logros y las dificultades que presenta cada estudiante; entre otras interesantes sugerencias sobre las que, como mínimo, cabe reflexionar. 

Otro apartado sumamente revelador es El trabajo y la deriva del sentido, en el que se plantea al lector la hoy crucial -e inevitable- cuestión de la reconsideración del valor que el trabajo ha tenido tradicionalmente en nuestras vidas, a causa del desarrollo tecnológico y de su colosal crecimiento con la aparición de la IA. Mientras desde hace siglos nuestra posición en la sociedad, nuestras posibilidades de crecimiento, nuestras relaciones, nuestra economía, nuestros hábitos e incluso nuestra identidad como personas se vinculan casi por completo al trabajo (o aparecen condicionadas por él), la probable desaparición del trabajo -la mano de obra humana sustituida por máquinas o algoritmos- va a obligar a reformular no solo las relaciones de producción sino nuestro modo de estar en el mundo. Las preguntas que, a este respecto, plantean Sigman y Bilinkis son inquietantes y, a la vez, alentadoras: ¿Qué actividades actuales dejarán de estar en manos de seres humanos? ¿Qué nuevos empleos sustituirán las actividades que ya no se realicen? ¿Quién puede asegurar que la cantidad de puestos que se creen sean suficientes para compensar los que se destruyan? ¿Cómo afectará este proceso a los salarios? ¿Vamos hacia la utopía tan anhelada de los antiguos griegos de liberarnos finalmente de todos los menesteres elementales de la vida para dedicarnos plenamente al ejercicio de la virtud? ¿O, por el contrario, nos dirigimos irremediablemente hacia una distopía poscapitalista con desempleo estructural masivo e incremento de los niveles de pobreza y desigualdad? Para responderlas, los autores nos confrontan con algunas realidades muy interesantes: la generalizada eliminación de la mano de obra humana en actividades laborales repetitivas, poco exigentes intelectualmente y escasamente productivas, en las que, por tanto, el reemplazo del hombre por la máquina ya resultaba sencillo desde hace décadas; el cambio sustancial que introduce el desarrollo tecnológico actual, capaz de sustituirnos también en empleos que exigen altas habilidades cognitivas; el previsible escenario -cuya mera contemplación perturba y entusiasma a partes iguales- de una vida sin trabajo; la relevancia que para nosotros tiene el saber que nuestra actividad es reconocida y valorada, tiene un sentido, un propósito, un significado que van más allá de la propia tarea e impregnan nuestra existencia entera (en el libro se detallan experimentos, con piezas de Lego, con sopas de letras, con figuras de origami, muebles de IKEA, que prueban esa importancia), puesta en cuestión si el trabajo va a ser hecho por una Inteligencia Artificial; el replanteamiento de los conceptos de mérito, capacidad y excelencia, impugnados cuando todo -casi todo: la redacción de un informe, la creación de una obra de arte “original”, la invención de un prototipo novedoso de herramienta, el diseño de un automóvil, la recomendación de una determinada inversión financiera, la elaboración de un proyecto de decoración de un establecimiento, la confección de la oferta gastronómica de un restaurante- pueda ser realizado con extraordinaria competencia y gran calidad por una IA generativa; la previsible -y peligrosa- sustitución de la pasión por la pereza, del entusiasmo por la desidia, al saber que nuestro esfuerzo, nuestra dedicación y nuestro interés, también nuestra imaginación y nuestra creatividad no pueden alcanzar las cotas a las que llegan unos cada vez más poderosos y sofisticados algoritmos; los riesgos de igualación -los autores usan el neologismo “comoditización”- en los productos y en las personas, cuando la “perfección” de las máquinas los vuelva -a unos y otras- indiscernibles en su “excelencia”; los problemas derivados del incremento del desempleo, como, por ejemplo, la dificultad de establecer criterios para redistribuir el empleo existente o la repercusión de la falta de empleo -con las consiguientes merma o desaparición, incluso, de los salarios- en el acceso al consumo. 

Como en el caso del capítulo educativo, también en el apartado laboral Artificial se aleja del catastrofismo apocalíptico y plantea alternativas positivas y viables. La identificación de “zonas seguras” en las que las aportaciones de los seres humanos seguirán siendo valiosas e inmejorables por la intervención de las máquinas (que tal vez ya no sean la creatividad o el razonamiento, como, en un ejemplo citado en el libro, las tareas que requieran del cuerpo en movimiento, las que involucren empatía y conexión con otros -cuidado de niños, atención médica, educación, actividades artísticas que impliquen la presencia humana-, las que exijan “hablar” a la IA de manera eficiente, entre otras). También se nos exponen ideas algo más “etéreas”, como la necesidad de superar la aversión al riesgo a la hora de afrontar los cambios (con una significativa mención a Rafael Nadal) o la revisión radical de la noción de “éxito”. No podían faltar, claro está, unas líneas dedicadas a la propuesta ya consabida y muy debatida en los últimos años de creación de un ingreso básico universal, compatible con otras sugerencias laborales: horarios más cortos, reducción de jornada, adelanto de la edad de jubilación, extensión de la etapa de formación. Ideas todas, como se puede apreciar, muy polémicas y controvertidas que no parecen estar en la agenda de los dirigentes políticos en prácticamente ningún lugar del orbe desarrollado. 

Los capítulos restantes son también altamente atractivos, aunque, como carezco ya de tiempo para glosarlos con el grado de detenimiento que me gustaría, me limitaré a meros apuntes. Así, se analizan los posibles usos de la IA en psiquiatría y psicología, en el diagnóstico precoz y el tratamiento de patologías relacionadas con la salud mental, en la “cartografía” de los trastornos mentales (al modo en que hoy conocemos los parámetros objetivos que determinan los límites admisibles de peso, presión arterial o colesterol, las enormes magnitudes de datos que maneja la IA pueden permitir fijar con precisión los umbrales que definirían una patología psicológica. También se habla de la aplicación de la IA en los asuntos de la política, la administración y la gestión de las sociedades, lo que permitiría delegar algunas de las funciones de las instituciones en máquinas, sabiendo, no obstante, de la dificultad de definir la “función de valor”, de precisar las instrucciones que rijan sus decisiones, así como del riesgo de la proliferación de deepfakes, de cara a la toma de decisiones políticas. Los autores citan a este respecto al filósofo israelí Yuval Noah Harari: Esto es especialmente una amenaza para las democracias más que para los regímenes autoritarios porque las democracias dependen de la conversación pública. La democracia básicamente es conversación. Gente hablando entre sí. Si la IA se hace cargo de la conversación, la democracia ha terminado. Y hay un breve excurso para referirse a las posibles repercusiones militares y geoestratégicas, con un pronóstico espeluznante: Lo que las bombas atómicas hicieron en el siglo XX, seguramente lo haga la IA en el XXI. Las indudables aplicaciones militares de esta tecnología pueden, una vez más, resultar la clave para el balance geopolítico de las próximas décadas

Hay, igualmente, valiosas reflexiones de índole moral, sobre el libre albedrío, condicionada nuestra toma de decisiones, manipulada nuestra personalidad por el conocimiento que las grandes corporaciones tienen de nuestros datos más. En este momento la información que “libremente” depositamos en manos de las aplicaciones a las que tan alegremente nos entregamos es accesible para casi cualquiera, multiplicando las posibilidades de que se utilice contra nosotros. En este sentido, el aviso de Sigman y Bilinkis suena aterrador: estamos en los albores de un nuevo salto cualitativo que puede llevar la apropiación de nuestra voluntad a niveles que no imaginamos

Podemos leer, también, advertencias sobre las amenazas para nuestra especie que pueden llegar a suponer las máquinas y la IA. Aquí el libro se adentra en los territorios de la ciencia-ficción, con menciones a Metrópolis, Solaris, Terminator, Mad Max, Her, 2001: Odisea del espacio, Isaac Asimov); con las incertidumbres que suscita una tecnología sobre cuyo dominio se avanza, en cierto modo a ciegas; con, por el contrario, la certeza de que en la progresiva implementación de estas tecnologías es casi inevitable la comisión de errores; con la comparación de los peligros que encierra la IA con los que provoca el cambio climático; con el sombrío aviso sobre las dificultades que entrañaría la desconexión de una máquina inteligente y “díscola”. Y, en este mismo ámbito algo apocalíptico, hay espacio para las distopías: la facilidad de acceso casi universal a los “mimbres” técnicos que permiten la fabricación de estos programas, lo que permitiría que en algún futuro no muy lejano, una única persona con ánimo de hacer mucho daño podría construir una bomba atómica informática en su casa; la estremecedora evolución de estos mecanismos; la voluntad, abiertamente explicitada por parte de sus responsables, empresas como OpenAI, Google, Meta y muchas otras, de construir una IA General (IAG), es decir, una máquina con una superinteligencia que tenga todas las capacidades humanas. Y más

Las conclusiones de los autores espantan: esta puede ser la última tecnología que inventemos, escriben. Y también: nuestra era como la especie más inteligente de este planeta parece tener los días contados. Y alarma más aún el siniestro pronóstico sobre nuestro fin: En cualquier caso, podemos especular que si deciden someternos difícilmente será por la fuerza. La distopía, casi con certeza, no será como la hemos imaginado y recreado. No será Terminator. Si necesitaran recurrir a la violencia querría decir que no son tan inteligentes después de todo. Y, seguramente, no haga falta. Si nos guiamos por lo fácil que les resulta a los algoritmos de las redes sociales manipularnos, probablemente el sometimiento sobrevenga de manera mucho más sencilla: valerse de nuestros aspectos más vulnerables, la vanidad, el deseo, la avaricia, la lujuria. Conquistarnos con un caballo de Troya

A partir de la perturbadora declaración de mayo de 2023, firmada por gran parte de los referentes mundiales en estos asuntos, que incluye una única reflexión: “Mitigar el riesgo de extinción por causa de la IA debe ser una prioridad global, a la altura de otros riesgos como las pandemias y la guerra nuclear”, la obra se cierra con algunas sugerencias cercanas a la admonición: la necesidad de proporcionar un marco ético que limite y oriente las acciones de la tecnología, una tarea que se adivina casi imposible (Si no hemos conseguido ponernos de acuerdo entre personas, ¿cómo transmitir directrices claras a una máquina?); el desafío de lograr un consenso universal que establezca reglas morales -en síntesis, la diferencia entre el bien y el mal- que la IA debería aplicar; la creación de una agencia regulatoria internacional del estilo de la ya que existe para la energía atómica, para proteger a la humanidad del riesgo de crear accidentalmente algo con el poder de destruirnos

En fin, pongo fin aquí a mi larga reseña; con pesar, pues me entusiasmaría poder plantear a mi paciente audiencia la infinidad de temas de reflexión y debate que encierra este Artificial extraordinario. Os dejo con uno de los muchos sugerentes fragmentos que incluye el libro. Un texto de su Epílogo en el que confluyen el atisbo de una amenaza apocalíptica y la optimista ilusión de un futuro esperanzado. Tras él, una canción de Jorge Drexler citada en el ensayo. La edad del cielo, de Jorge Drexler, enlaza en algunas de sus frases con este planteamiento último de Sigman y Bilinkis: No somos más que una gota de luz, una estrella fugaz, una chispa, tan solo en la edad del cielo


Desde que hay vida en este planeta, se han extinguido el 99,9 por ciento de las especies que han existido. La deriva genética, la competencia y los cambios ambientales han hecho que las especies de la Tierra se renueven sin cesar. Y el mundo sigue girando. En ese camino de mutaciones y extinciones todo se va entrelazando. Los Homo sapiens y los neandertales convivieron durante un buen tiempo en el que cruzaron genomas y cultura. Homo sapiens, con su mejor manejo del fuego y de las herramientas, encontró su esplendor en su virtud más lograda, la inteligencia, y provocó la extinción de los neandertales. Tiempo después, parece probable que nosotros seamos los nuevos neandertales de otra especie. La historia se repite pero con un elemento inédito. (…) Quizá tengamos el raro «privilegio» de haber gestado nuestra propia némesis. 

La vida pasa muy deprisa. Y en ese tiempo limitado, algo en nuestro cerebro nos invita con empeño a dejar un legado. Tratamos de aprovechar ese suspiro cósmico antes de dejar paso a las siguientes generaciones. En ese sentimiento de algo mucho más grande que nosotros mismos la vida se vuelve calma y cobra sentido. De la misma manera también podemos reconciliarnos con la idea de que nuestra especie es pasajera. El proyecto de Turing, que empezó en la urgencia de un drama humano con el objetivo de salvar al mundo libre, puede tener un fin más amplio, más inesperado. Desde la plácida distancia sideral, podemos pensar que haber creado una inteligencia extraordinaria sea la forma más cabal de haber cumplido nuestro rol, como un eslabón más en la intrincada historia de la vida.

Videoconferencia
Mariano Sigman y Santiago Bilinkis. Artificial