Vivo entre muchos libros y extraigo una gran parte de mis ganas de vivir del hecho de que aún leeré la mayoría de ellos. (Elias Canetti)

miércoles, 18 de septiembre de 2024

MARIANO SIGMAN Y SANTIAGO BILINKIS. ARTIFICIAL
 
En estos primeros días de septiembre, coincidiendo con el comienzo del curso académico en sus diferentes niveles, desde Todos los libros un libro suelo ofreceros recomendaciones lectoras relacionadas, siquiera sea de manera indirecta o tangencial, con la educación y la enseñanza. Con ese referente último, hace siete días traje aquí el sugestivo ensayo de Michel Desmurget Más libros y menos pantallas en el que su autor defendía, a partir de una abundante y exhaustiva documentación, las bondades de los libros y de la lectura de obras de ficción -cuanto más temprana, más eficaz- de cara al logro del completo desarrollo académico, intelectual, social y emocional de niños, adolescentes, jóvenes y adultos en general. En paralelo, el neurocientífico francés volvía a denostar la invasiva -y destructiva- presencia de los dispositivos electrónicos en nuestras vidas, ya convincente y críticamente analizada en su anterior libro -también comentado con entusiasmo en nuestro espacio-, el excepcional La fábrica de cretinos digitales. El muy obvio vínculo entre la lectura y el ámbito escolar justificaba la presencia de Más libros y menos pantallas en esta breve serie asociada al inicio del curso. 

Una serie que esta tarde tiene su continuación en Artificial, el interesante título de Mariano Sigman y Santiago Bilinkis publicado por la editorial Debate hace ahora un año, en octubre de 2023. Artificial presenta un enfoque más vasto y menos combativo de la tecnología que el que está presente en las belicosas diatribas de Desmurget. Más amplio porque, aun refiriéndose -en un muy sugestivo capítulo- a las repercusiones que la Inteligencia Artificial puede llegar a tener -¿está teniendo ya?- en el terreno educativo, su planteamiento es más general, extendiéndose a muchas otras dimensiones de nuestra vida en las que los avances del por ahora último gran descubrimiento tecnológico pueden suponer un cambio revolucionario. Y más complaciente porque, sin soslayar los riesgos, las amenazas y los indudables peligros que entraña una posible desaforada evolución de los hallazgos en computación, robótica e inteligencia artificial, los autores, grandes expertos en la materia y excelentes conocedores de su dominio académico, tienen una visión más optimista del fenómeno y están persuadidos de que el futuro que nos espera será, gracias a la ciencia y en particular a la Inteligencia Artificial, fecundo y estimulante. 

Mariano Sigman, argentino, es doctor en neurociencia en Nueva York y se desempeñó como investigador en París. Divulgador científico en distintos medios en el mundo entero, es una autoridad en asuntos vinculados a la neurociencia aplicada a las decisiones, la educación y la comunicación humana. Es autor de un best-seller internacional, El poder de las palabras: como cambiar tu cerebro (y tu vida) conversando, que tengo, desde hace tiempo, en la lista de mis lecturas pendientes. Su “partenaire” en el libro que hoy nos ocupa, Santiago Bilinkis, también argentino, es economista de formación, aunque realizó estudios de posgrado sobre inteligencia artificial, robótica, biotecnología, neurociencia y nanotecnología en Silicon Valley. Es también colaborador en prensa y televisión, y creador de exitosos proyectos empresariales relacionados con el universo tecnológico. El, por ahora, último libro de ambos, este Artificial cuya lectura os recomiendo, se presenta, en una propuesta muy coherente con el contenido de la obra, con una llamativa portada, cuya autora, la ilustradora madrileña Valeria Palmeiro, de nombre artístico Coco Dávez, explica el uso de la Inteligencia Artificial en la confección de la cubierta, en una breve coda final al libro que sintetiza de un modo muy elocuente parte de las tesis que desarrollan en él sus autores. 

En un campo que vive transformaciones tan vertiginosas y aceleradas como es el de la ciencia actual y en particular el de los avances de la Inteligencia Artificial, resulta difícil encarar un ensayo -aunque, como el que tenemos entre manos, sea meramente divulgativo- que pueda resultar “cerrado”, categórico o definitivo sobre la materia. Mucho menos aún atreverse a presentar un planteamiento prospectivo o aventurar un horizonte definido, concreto y específico para el futuro, siquiera el más inmediato. Conscientes de la inutilidad de tal propósito, los autores dejan claro en un pasaje de su obra que nuestro objetivo no es hacer pronósticos precisos, sino explorar ideas provocadoras que puedan servirnos como referencia. Y eso es, precisamente, en una síntesis esclarecedora, Artificial, una exploración lúcida, estimulante intelectualmente, documentada y muy didáctica de los antecedentes, del estado actual y del probable futuro de la Inteligencia Artificial. Partiendo de un inevitable y forzosamente humilde escepticismo epistemológico (La inteligencia artificial (…) está compuesta de dos cosas, la inteligencia y lo artificial, de las que entendemos muy poco en general. Sabemos muy poco de la inteligencia y tampoco sabemos bien qué es un artificio, ha declarado Sigman en alguna entrevista), el estudio indaga en las repercusiones de esta disruptiva tecnología en ámbitos tan distintos como los de la educación, ya mencionado, el trabajo, la política, la psicología o la moral, en un análisis en el que no se ocultan las amenazas que conlleva; antes bien, se subrayan y confrontan para que el lector sea consciente de los obstáculos que deben superarse si se quiere acceder a las muchas y extraordinariamente benéficas posibilidades que los adelantos en computación permiten imaginar. Hay, además, impregnando la obra entera, una suerte de tenue hilo conductor ya adelantado: en estos momentos en los que las inconcebibles perspectivas a las que se abre el desmesurado progreso tecnológico son percibidas con un terror apocalíptico en el que se concentran todas las distópicas hipótesis sobre un universo posthumano, los autores, esperanzados e imbuidos de una ilusionada positividad, reivindican la profunda humanidad de los descubrimientos científicos (pese a que la previsible capacidad de la IA para “pensar por sí misma” amenace con desbordar los límites de la naturaleza humana). 

Los dos primeros capítulos -de los once, junto con un epílogo, de los que se compone el libro- describen la génesis de lo que hoy conocemos como Inteligencia Artificial. En ellos los autores transitan “territorios” ya recogidos en una novela que presenté aquí hace unos meses, la excepcional MANIAC, de Benjamín Labatut: el universo fascinante de los principales hallazgos en matemáticas, biología, neurociencia, computación y creación de modelos de inteligencia artificial que con velocidad galopante se han ido sucediendo en el mundo desde hace ochenta años, a partir de la Segunda Guerra Mundial. Asistimos, así, al momento inaugural en Bletchley Park (en mayo de 1938, el almirante Sir Hugh Sinclair del Servicio de Inteligencia Británico, el mítico MI6, compró una mansión construida en el siglo XIX conocida como Bletchley Park), el palacio victoriano cuyo esplendor arquitectónico (…) ayudaría a camuflar las actividades secretas del gobierno durante la Segunda Guerra Mundial, consistentes en el desciframiento de los códigos de comunicación alemanes durante la contienda. Los hechos son conocidos -y justamente mitificados, incluso, por el cine; recuérdese The imitation game (Descrifando Enigma), la película de 2014, dirigida por Morten Tyldum e interpretada en sus papeles principales por Benedict Cumberbatch y Keira Knightley- y su relato, que ocupa las páginas iniciales del libro, es apasionante: la concentración en el apartado lugar de un equipo de treinta y cinco físicos y matemáticos, que serían liderados por Alan Turing y Dillwyn Knox; la puesta en marcha de una sucursal secreta de la Escuela de Códigos y Cifrado del Gobierno del Reino Unido; la ambiciosa tarea a la que enfrentaba el grupo, salvar al mundo mediante el desvelamiento de los mensajes encriptados por la máquina Enigma, creada por Alemania para transmitir sus comunicaciones; la decisiva intervención en el proyecto de más de seis mil mujeres, reclutadas por el gobierno británico para trabajar en Bletchley Park por su conocimiento de idiomas y su destreza jugando al ajedrez y resolviendo crucigramas; la construcción de una incipiente máquina de cálculo, a la que llamarían Bombe, un enorme y aparatoso dispositivo electromecánico, creado en 1939, que permitiría descifrar los códigos nazis merced a las mentes privilegiadas de los científicos y al talento de las mujeres acostumbradas a los enigmas y los juegos de palabras cruzadas, así como -y la anécdota es conocida- a la insistencia vanidosa de los nazis en usar repetidamente la fórmula «Heil Hitler» (…), un error garrafal que simplificó la tarea, ya que es mucho más sencillo descifrar un código en el que hay mensajes previsibles que se repiten. Con Bombe empezó todo. Pese a tratarse de un dispositivo rudimentario que hoy no superaría, ni siquiera mínimamente, una prueba de competencias intelectuales, este esbozo de pensamiento humano depositado en un dispositivo eléctrico mostraba ya algunos rasgos de lo que identificamos como inteligencia. El programa que ideó Turing, apuntan Sigman y Bilinkis, fue una versión muy rudimentaria de una inteligencia artificial

A partir de ese descubrimiento germinal se suceden los hallazgos y las invenciones, a cuál más esencial y sorprendente y de los que el libro da cuenta a la vez que esboza -con un enfoque divulgativo muy sencillo y pedagógico- los fundamentos científicos en los que se basan. Por ejemplo, la aplicación al ajedrez de las ideas básicas que llevaron a la ideación de Bombe, con el diseño en 1948 de Turochamp, el primer programa de ajedrez, creado a partir de una investigación del propio Turing, en un intento muy elemental -y de mediocres resultados, visto con lógica actual (Sesenta y cuatro años después, en 2012, en el marco de la celebración del centenario del nacimiento de Turing, la Universidad de Mánchester rescató el algoritmo que él había creado y lo enfrentó a uno de los mejores jugadores de todos los tiempos: Garry Kaspárov. El gran maestro ruso aplastó al viejo programa en una partida de dieciséis movimientos)- de emular y replicar la inteligencia humana. En un ejercicio de metacognición, de indagación acerca de cómo piensa el pensamiento humano, Turing concibió una especie de “receta”, una serie de instrucciones secuenciadas que definían los pasos a seguir para realizar un movimiento del juego. Y el libro salta entonces al Proyecto Manhattan -núcleo central de MANIAC y de la película Oppenheimer-, que desplazaría circunstancialmente la atención de la ciencia de los curiosos e innovadores experimentos de la IA hacia el más tangible -y entonces urgente, a causa de la Guerra Fría- territorio de la investigación nuclear, a la que los autores del libro vinculan -estableciendo un nítido paralelismo entre ambos fenómenos- con el actual estado de cosas de la IA: La visión de este grupo de científicos [los involucrados en el laboratorio de Los Álamos], que entendieron que la distribución de tecnología nuclear iba a determinar el futuro del mundo, y que ellos tenían un rol decisivo e inevitable —por acción u omisión— en la configuración del mapa global, puede servir como guía para pensar acerca del avance de la investigación y el control sobre la IA en el futuro cercano

Entretanto, y sin aparente conexión con el nacimiento y desarrollo de la Inteligencia Artificial, destacados físicos, matemáticos y neurofisiólogos empiezan a trabajar en las redes neuronales, un concepto anticipatorio que estaría en la base de la IA, el entendimiento de cómo la inteligencia nace a partir de un sustrato no inteligente. Conectando estas investigaciones con las ideas del psicólogo Carl Rogers y los avances en psicoterapia, en 1966, Joseph Weizenbaum, un profesor de informática del Instituto Tecnológico de Massachusetts (MIT), crearía Eliza, el primer robot conversacional de la historia, claro antecedente, aunque aún muy elemental, del ChatGPT. Las redes neuronales cerebrales, que en la experiencia humana funcionan por capas, con neuronas interconectadas que se van agregando, creando nuevas conexiones y fortaleciendo las ya preexistentes para consolidar el recuerdo, la memoria, el aprendizaje, empezaron a ser replicadas artificialmente, y gracias al creciente incremento del poder computacional de los ordenadores, se fueron agregando un número cada vez mayor de capas intermedias, dando lugar a un nuevo tipo de red neuronal que hoy conocemos como deep learning, aprendizaje profundo. Las máquinas ya no necesitaban -como en el primitivo diseño de Turing- indicaciones precisas para llevar a cabo sus operaciones, sino que van a ser entrenadas para descubrir los patrones de conexiones neuronales que las vuelven efectivas

Aprovechando estos rupturistas conocimientos, la historia se acelera, y por las páginas del libro aparecen Deep Blue y su doble victoria en 1986 y 1987 contra Kasparov, el entonces campeón del mundo de ajedrez; Deep Mind, la compañía de Google empeñada en perfeccionar las cada vez más poderosas máquinas pensantes; las partidas de Lee Se-dol, la gran autoridad mundial en el inconmensurable juego del go, que permite más combinaciones de jugadas que átomos existen en el universo, contra AlphaGo, el deslumbrante programa, imaginativo y rebosante de creatividad, que acabaría por apabullar al coreano, dejando el gran hito de un deslumbrante movimiento de la segunda partida, una jugada revolucionaria, original, inesperada y sorprendente; el cambio cualitativo que supuso, en 2017, AlphaZero, sucesor de AlphaGo, al aprender a jugar al ajedrez y al go por su cuenta, sin instrucciones previas, procesando de manera prodigiosa la información recabada en sucesivas partidas jugadas contra sí mismo. 

Todos estos episodios -acontecimientos, en realidad, dada su trascendencia- forman parte del pasado más o menos reciente, ya referido -como he comentado- en la magistral MANIAC. Repasados sucintamente en su primer capítulo, Artificial se abre entonces a la descripción del desbordante presente de la IA, germen indudable de una nueva era. Una reveladora anécdota sobre André Agassi y Boris Becker (la intuición del norteamericano le había permitido descubrir en el alemán ciertos movimientos con la lengua, inconscientes y casi imperceptibles que anticipaban el tipo de saque que iba a realizar, información que Agassi, obviamente, utilizaba en su beneficio para preparar su respuesta y ganar los puntos) sirve de base a los ensayistas argentinos -en una significativa muestra, por lo demás, de los muy diversos ámbitos, culturales, deportivos, literarios, artísticos y, por supuesto, científicos, de los que beben para fundamentar su exposición- para describir algunos de los anticipadores conceptos que definen el actual estado de cosas de la ciencia computacional. 

De este modo, y siguiendo el referente de Agassi, conocemos el funcionamiento de las redes neuronales artificiales, que detectan pautas casi invisibles o, al menos, fuera del alcance de la percepción humana para identificar, de entre millones de datos, cuáles son los más relevantes para la resolución de un problema y cuáles pueden ser ignorados por intrascendentes. Estamos ya ante las redes generativas, capaces de crear algo nuevo, inexistente hasta entonces -una imagen de un gato, por poner el ejemplo que eligen en su libro- a partir de la superabundante cantidad de fotos de felinos que han logrado procesar en escasos segundos. Si, además, en un nuevo y luminoso paso, se pone a dos redes neuronales a competir entre sí para que aprendan de sus errores y vayan depurando la información que se proporcionan mutuamente, tenemos las llamadas Redes Generativas Adversariales -Generative Adversarial Networks (GAN)- o Redes Neuronales Recurrentes (RNN), y nos encontramos ya con que las inteligencias artificiales pueden aprender y alcanzar niveles superlativos, sin requerir de la intervención o la habilidad humana. Pero aún hay más -y la mera enumeración y la breve descripción de los inauditos avances producen vértigo-, porque en 2017, a partir de un artículo publicado por investigadores de la Universidad de Toronto, financiado por Google, y significativamente titulado Attention is all you need, con la referencia explícita a la canción de los Beatles, se introdujo una nueva arquitectura llamada transformer, que a partir de la información “de entrada” permite discriminar, con una precisión y una eficacia que dejan a Siri o Alexa en pañales, la que resulta más idónea para los fines pretendidos -fabricación de imágenes, respuesta a preguntas, elaboración de textos, traducción de idiomas-: la última pieza que faltaba para el boom actual de la IA

Entonces entra en juego Open AI. Su cerebro científico, Ilya Sutskever, idea un experimento: construir una red neuronal Generativa, Preentrenada y basada en Transformers. El afortunado resultado, como puede intuirse con solo detenerse en las iniciales, fue el GPT. No puedo resistirme a transcribir aquí el fragmento que da cuenta del calibre de esta innovación, pues resulta altamente esclarecedor (debo señalar, además -quizá hubiera debido hacerlo con antelación-, que el libro cuenta con un glosario final en el que, por su fuera insuficiente con la claridad expositiva de los autores, se definen una larga veintena de términos que recorren el libro, muchos de los cuales, forzosamente, he incorporado también a esta reseña): 

La meta de GPT era entrenar un transformer decodificador utilizando un corpus de texto descomunalmente grande, de producciones humanas agregadas durante miles de años. El método, como casi todo lo que hemos ido viendo, no fue muy sofisticado. Tomar una frase, quitar una palabra, y mejorar repetitivamente la capacidad de predecir qué palabra era la que faltaba. Así se volvió increíblemente efectiva para entender qué palabra va con cuál y, al captar de manera tan profunda la relación entre las palabras, adquirió un conocimiento equivalente a entender la gramática del lenguaje: tanto la morfología (qué clase de palabras hay) como la sintaxis (cómo se estructuran y se ordenan). Justamente, fue el algoritmo de atención de los transformers el que le permitió disponer del contexto necesario de cada palabra en la memoria para lograr este objetivo. Y esto se hizo no para uno, sino para al menos treinta idiomas diferentes. 
Entendiendo de esta manera la lógica profunda que subyace detrás de la lengua, GPT puede construir frases increíblemente humanas, prescindiendo de la semántica (saber qué significa cada palabra). Dicho de otra manera, ha aprendido a hablar con un estilo increíblemente humano y a decir cosas interesantes y de gran trascendencia, sin tener la menor idea de lo que está diciendo [la negrita es mía, Alberto San Segundo]. 

A las redes neuronales basadas en transformers, entrenadas con enormes volúmenes de texto para producir lenguaje, se las bautizó como LLM (Large Language Models), es decir, Grandes Modelos de Lenguaje. En este punto podríamos decir que acaba el pasado y empieza un futuro (que, en parte, y dada la celeridad de los cambios, es ya, en cierta medida, también presente). Hasta este momento, el ser humano había logrado crear máquinas capaces de abstraer, de calcular, de generar ideas propias y originales, de concebir objetos y, en última instancia, de conversar. Habilidades todas propias de la inteligencia. Como lo es también la indagación acerca de la naturaleza misma de esa inteligencia. Y en intentar desarrollar esta capacidad en las máquinas están ahora los científicos. 

El libro se abre entonces a infinidad de ideas altamente sugestivas y de imposible registro en esta reseña, dada su abundancia (son más de cien las notas que he tomado en mi lectura del texto). Destacaré aquí, de modo breve, las que me han resultado más estimulantes: las reflexiones sobre el concepto de inteligencia “humana” (algunas IA empiezan a estudiarse a sí mismas. Son neurocientíficas artificiales que indagan sobre sus propias representaciones para entender cómo funciona su «mente» y su «cerebro»); sobre los mecanismos del aprendizaje; sobre la vocación innata de nuestra especie por enseñar y compartir los logros de la cultura que hemos creado (la voracidad por compartir lo que hemos hecho o lo que conocemos es una pulsión tan innata como beber o buscar alimento); sobre la necesidad de la conversación y, en consecuencia, sobre la importancia de saber preguntar, pues nuestra presente relación con el ChatGPT se hace a través de prompts, las instrucciones, preguntas o frases con las que le pedimos una respuesta (aprender a dar buenas instrucciones se convertirá pronto en una habilidad fundamental. Curiosamente, aquí vuelve a aparecer una forma muy antigua de ejercitar nuestra inteligencia: saber preguntar); sobre el modo en que se entrena a una máquina, aplicando los conocimientos adquiridos en todos estos asuntos; sobre la función de valor, el eslabón fundamental del mecanismo de aprendizaje que está en el corazón de la IA, el evaluador que determinará los fines buscados durante el diseño y el entrenamiento de una inteligencia artificial y que, por lo tanto, favorecerá la optimización de la respuesta a un determinado problema, un parámetro objetivo que nos permitirá medir -ya lo está haciendo- de manera precisa si esa solución genera efectos positivos o negativos; sobre la dificultad que encierra establecer esa función de valor cuando nos hallamos ante decisiones que afectan a asuntos controvertidos desde el punto de vista moral o con implicaciones éticas; y, como corolario natural de esta idea, la complejidad que supone en estos casos proporcionar a la IA una función de valor nítida, bien definida y, a la vez, correcta, no equivocada, de programarla para que esté verdaderamente alineada con los objetivos, más grandes y trascendentes, de la especie humana y no provoque consecuencias no deseables para la humanidad (los ejemplos de los dilemas que se plantean en la programación de vehículos automáticos o las propuestas -meramente exploratorias y experimentales- que se hacen a la IA para que lleve a la prácticas actividades ilícitas, ilegales o abiertamente delictivas, son un caso paradigmático de las dificultades que aún hay que resolver en su desarrollo); sobre los argumentos -algunos racionales, otros morales (singularmente los riesgos de manipulación y de “pérdida de control” frente al poder casi omnímodo de la máquina), y también otros relacionados con la ancestral dificultad de modificar nuestros hábitos- con los que los seres humanos nos resistimos -al menos inicialmente- a las innovaciones y, en particular, a las indudables razones de eficiencia que supone la IA; sobre las casi ilimitadas potencialidades de la Inteligencia Artificial en el terreno de la creatividad, pues siendo una herramienta para crear contenido, su eficacia depende de las instrucciones que le demos, lo que lleva, en una derivada apasionante, a las consideraciones acerca de la reinvención del rol de autor, cada vez más cercano al de editor, que acabarán por superponerse. En este último aspecto, sostienen entusiasmados los autores que, al igual que la historia del arte está repleta de talleres en los que los maestros han delegado en sus aprendices la ejecución física de sus ideas artísticas [lo que] permitió que los artistas se centraran en la concepción mientras confiaban en otros la ejecución de la labor técnica y material, las más recientes invenciones tecnológicas “dirigidas” por la inteligencia humana, van a permitir incrementar de manera considerable las posibilidades creativas de este mundo híbrido [que] serán tan extraordinarias como desafiantes e impredecibles. Los conocidos casos del artista italiano Maurizio Cattelan, responsable de las ideas de sus esculturas, cuya materialización práctica encargaba al francés Daniel Druet; del creador alemán Boris Eldagsen, ganador de un prestigioso premio de fotografía con una imagen generada en su integridad con IA; o del conocido film de Orson Welles, F for Fake, que hace medio siglo ya exploraba estas muy lábiles fronteras entre creación y plagio, singularmente en una de sus secuencias en la que mostraba la catedral de Chartres mientras una voz en off aseguraba: «Ha estado en pie durante siglos. Tal vez la mayor obra del hombre en todo Occidente y no está firmada», sirven a Sigman y Bilinkis para apuntar a la dilución de los límites de la autoría y, con ello, señalar un camino para un uso creativo, eficiente, vigoroso y revolucionario de la IA: Vemos la enorme similitud entre este caso [el de Cattelan y Druet] y la composición con GPT. Lo que Cattelan le dio a Druet fue un prompt. Ni más ni menos. Lo que le devolvió Druet fue la ejecución del prompt (…). La esencia de la obra estaba en un prompt bien definido. 

A partir de aquí, el libro aborda, en capítulos sucesivos, el impacto actual y las posibilidades de futuro de la Inteligencia Artificial en diferentes ámbitos esenciales de la vida humana. Así, en El terremoto educativo, se centra en los cambios que se vislumbran en una de las instituciones, la escolar, tradicionalmente más rígida y más reacia a las novedades. La llegada de la tecnología, junto con la profunda revisión de la noción de autoridad que la sociedad lleva haciendo en las últimas décadas, unidas a la quiebra generalizada de la atención y la consiguiente dificultad de despertar y mantener la motivación, interpelan al modelo establecido de enseñanza y apuntan a nuevas vías de “pensar las aulas”. Porque, apuntan los autores, el sentido común sugiere que la educación debería seguir el ritmo de cambio del mundo. Pero, rigurosos intelectualmente como se manifiestan a lo largo del libro, se muestran también precavidos: sumarse imprudentemente a la ola del cambio y adoptar cada moda que emerge sin pensar los riesgos que esto puede implicar, lleva a una posición inestable e ineficiente tanto como quedarse en el otro extremo y permanecer completamente inmóviles. Por el contrario, en nuestros días, los claustros de profesores, las teorías pedagógicas, los departamentos de las Facultades de Educación, los valores dominantes en las instituciones escolares y gran parte de las prácticas “modernas” en este ámbito parecen desconocer -u obviar- las consecuencias a largo plazo que puede provocar en niños y adolescentes la aceptación acrítica y ciega de experimentos innovadores no contrastados por la investigación científica. El dilema subyacente -¿qué riesgo es menor: cambiar en exceso o demasiado poco?- se acrecienta con la llegada de la IA: ¿Cuál será su impacto en los objetivos, los métodos y los contenidos de las escuelas? ¿Qué transformaciones debería experimentar la educación y qué principios no deberían cambiar? El muy interesante capítulo constituye un intento de delimitar estas espinosas cuestiones. Con abundantes ejemplos de otros cambios “tecnológicos” -el abandono de la enseñanza de las técnicas de construcción de pirámides, en el Antiguo Egipto, cuando los monumentos dejaron de fabricarse; el paso de la pluma al bolígrafo; la invención de la calculadora- y a partir de las ideas de dificultad y utilidad como referentes primarios para decidir qué debe conservarse y qué debe ser abandonado en la educación, los autores van identificando las capacidades esenciales, los pilares básicos de la cognición, que hoy están en riesgo por la súbita e invasiva irrupción de la tecnología: la memoria (Sin memoria, no hay pensamiento ni inteligencia, ni artificial ni humana), la capacidad de concentrarnos, la competencia lectora, el buen uso del lenguaje, el pensamiento lógico y matemático, la capacidad de reflexión profunda, la lentitud y el sosiego, la paciencia, la fuerza de voluntad, la perseverancia y el esfuerzo que exigen el razonamiento, el trabajo intelectual y la consecución de logros relevantes en casi cualquier campo de la labor humana (para llegar a lugares bellos, es indefectible a veces pasar por lugares difíciles y oscuros y que para eso hace falta tenacidad y resiliencia). Algunas corrientes reformistas de la educación, con su enfoque divertido, lúdico, innovador, utilitarista, “tecnologista”, que propugnan una escuela «TikTokera», están poniendo en peligro seriamente estas habilidades en un fenómeno que presenta dos vertientes, el “sedentarismo cognitivo” y el “sedentarismo emocional”, en un claro paralelismo con la inactividad física. Del hecho de que utilizando Google, el ChatGPT, la calculadora u otro artefacto tecnológico que pueda inventarse, cualquier estudiante pueda hoy responder a cuestiones complejas sin necesidad de conocimiento previo alguno, no debe deducirse que las prácticas docentes puedan llevar consigo el abandono del cálculo numérico, del razonamiento, de la elaboración de ideas, del desarrollo del pensamiento. De hacerlo -y he ahí un riesgo del uso de la tecnología en la educación: ¿qué tenemos que enseñar?, ¿qué debemos evaluar?- incurriríamos en el “sedentarismo cognitivo”, con efectos tan perniciosos como la falta de ejercicio en nuestra salud física (Y aquí la paradoja: los que confían todos sus desplazamientos a un coche, son los mismos que luego pasan horas en un gimnasio corriendo en una cinta. ¿Realmente queremos pasar todos los exámenes sin esfuerzo?). Otro tanto ocurre con lo que Sigman y Bilinkis califican de “sedentarismo emocional”: la pérdida de los recursos de la motivación intrínseca, que exige un alto grado de curiosidad, planteamiento de retos, inquietud hacia -y valoración del- saber, esfuerzo, tolerancia a la frustración, resistencia a la fatiga, capacidades que se ven sustituidas hoy en día por un algoritmo externo capaz de ensimismar a los jóvenes con su imbatible oferta de estímulos fáciles, continuos y pasivos, generadores poderosísimos de dopamina en el cerebro. 

Delimitado así lo que de ninguna manera podemos permitirnos perder en el mundo educativo, el libro apunta en este momento ideas y propuestas acerca de algunas prácticas en las que la IA artificial puede optimizar los procesos de enseñanza y aprendizaje: los procedimientos de evaluación que no valoren la mera enumeración de fechas, datos, listados y sí reclamen, en cambio, habilidades de síntesis, relación, sistematización y expresión coherente y creativa de ideas, el aprendizaje profundo, en suma, para lo cual no sería óbice, antes al contrario, el hecho de que el alumno acceda al ChatGPT (Si la respuesta a una pregunta de examen está en Google, ¡el problema es la pregunta, no la respuesta!); la posibilidad de chatear con personajes históricos, usando la gran capacidad que tiene la IA de producir textos desde la perspectiva de alguien en particular (un buen prompt: ¿cómo explicaría Einstein su teoría de la relatividad a un niño de doce años?); la utilización de la IA para conectar los conocimientos a enseñar con el interés “natural” del estudiante (un ejemplo que se propone en el libro: Un adolescente muy interesado, por ejemplo, en los coches, podría pedirle a ChatGPT que le explicara el proceso histórico de la Segunda Guerra Mundial utilizando metáforas automovilísticas); el “rescate” de la perspectiva socrática del valor de la interrogación y la conversación, optimizando el valor de las preguntas (Como ChatGPT es un buen conversador, una vía sería tratar de explicarle cómo resolver un problema y ubicarlo en el lugar de un compañero parecido a nosotros que está tratando de aprender); la utilización de la Inteligencia Artificial para facilitar la autoevaluación, en tanto puede generar test que posibiliten el seguimiento personal del aprendizaje por parte del propio alumno; el uso de la IA como colaborador del enseñante, como profesor particular o tutor que, en cada momento, puede indicar al docente cuáles son los logros y las dificultades que presenta cada estudiante; entre otras interesantes sugerencias sobre las que, como mínimo, cabe reflexionar. 

Otro apartado sumamente revelador es El trabajo y la deriva del sentido, en el que se plantea al lector la hoy crucial -e inevitable- cuestión de la reconsideración del valor que el trabajo ha tenido tradicionalmente en nuestras vidas, a causa del desarrollo tecnológico y de su colosal crecimiento con la aparición de la IA. Mientras desde hace siglos nuestra posición en la sociedad, nuestras posibilidades de crecimiento, nuestras relaciones, nuestra economía, nuestros hábitos e incluso nuestra identidad como personas se vinculan casi por completo al trabajo (o aparecen condicionadas por él), la probable desaparición del trabajo -la mano de obra humana sustituida por máquinas o algoritmos- va a obligar a reformular no solo las relaciones de producción sino nuestro modo de estar en el mundo. Las preguntas que, a este respecto, plantean Sigman y Bilinkis son inquietantes y, a la vez, alentadoras: ¿Qué actividades actuales dejarán de estar en manos de seres humanos? ¿Qué nuevos empleos sustituirán las actividades que ya no se realicen? ¿Quién puede asegurar que la cantidad de puestos que se creen sean suficientes para compensar los que se destruyan? ¿Cómo afectará este proceso a los salarios? ¿Vamos hacia la utopía tan anhelada de los antiguos griegos de liberarnos finalmente de todos los menesteres elementales de la vida para dedicarnos plenamente al ejercicio de la virtud? ¿O, por el contrario, nos dirigimos irremediablemente hacia una distopía poscapitalista con desempleo estructural masivo e incremento de los niveles de pobreza y desigualdad? Para responderlas, los autores nos confrontan con algunas realidades muy interesantes: la generalizada eliminación de la mano de obra humana en actividades laborales repetitivas, poco exigentes intelectualmente y escasamente productivas, en las que, por tanto, el reemplazo del hombre por la máquina ya resultaba sencillo desde hace décadas; el cambio sustancial que introduce el desarrollo tecnológico actual, capaz de sustituirnos también en empleos que exigen altas habilidades cognitivas; el previsible escenario -cuya mera contemplación perturba y entusiasma a partes iguales- de una vida sin trabajo; la relevancia que para nosotros tiene el saber que nuestra actividad es reconocida y valorada, tiene un sentido, un propósito, un significado que van más allá de la propia tarea e impregnan nuestra existencia entera (en el libro se detallan experimentos, con piezas de Lego, con sopas de letras, con figuras de origami, muebles de IKEA, que prueban esa importancia), puesta en cuestión si el trabajo va a ser hecho por una Inteligencia Artificial; el replanteamiento de los conceptos de mérito, capacidad y excelencia, impugnados cuando todo -casi todo: la redacción de un informe, la creación de una obra de arte “original”, la invención de un prototipo novedoso de herramienta, el diseño de un automóvil, la recomendación de una determinada inversión financiera, la elaboración de un proyecto de decoración de un establecimiento, la confección de la oferta gastronómica de un restaurante- pueda ser realizado con extraordinaria competencia y gran calidad por una IA generativa; la previsible -y peligrosa- sustitución de la pasión por la pereza, del entusiasmo por la desidia, al saber que nuestro esfuerzo, nuestra dedicación y nuestro interés, también nuestra imaginación y nuestra creatividad no pueden alcanzar las cotas a las que llegan unos cada vez más poderosos y sofisticados algoritmos; los riesgos de igualación -los autores usan el neologismo “comoditización”- en los productos y en las personas, cuando la “perfección” de las máquinas los vuelva -a unos y otras- indiscernibles en su “excelencia”; los problemas derivados del incremento del desempleo, como, por ejemplo, la dificultad de establecer criterios para redistribuir el empleo existente o la repercusión de la falta de empleo -con las consiguientes merma o desaparición, incluso, de los salarios- en el acceso al consumo. 

Como en el caso del capítulo educativo, también en el apartado laboral Artificial se aleja del catastrofismo apocalíptico y plantea alternativas positivas y viables. La identificación de “zonas seguras” en las que las aportaciones de los seres humanos seguirán siendo valiosas e inmejorables por la intervención de las máquinas (que tal vez ya no sean la creatividad o el razonamiento, como, en un ejemplo citado en el libro, las tareas que requieran del cuerpo en movimiento, las que involucren empatía y conexión con otros -cuidado de niños, atención médica, educación, actividades artísticas que impliquen la presencia humana-, las que exijan “hablar” a la IA de manera eficiente, entre otras). También se nos exponen ideas algo más “etéreas”, como la necesidad de superar la aversión al riesgo a la hora de afrontar los cambios (con una significativa mención a Rafael Nadal) o la revisión radical de la noción de “éxito”. No podían faltar, claro está, unas líneas dedicadas a la propuesta ya consabida y muy debatida en los últimos años de creación de un ingreso básico universal, compatible con otras sugerencias laborales: horarios más cortos, reducción de jornada, adelanto de la edad de jubilación, extensión de la etapa de formación. Ideas todas, como se puede apreciar, muy polémicas y controvertidas que no parecen estar en la agenda de los dirigentes políticos en prácticamente ningún lugar del orbe desarrollado. 

Los capítulos restantes son también altamente atractivos, aunque, como carezco ya de tiempo para glosarlos con el grado de detenimiento que me gustaría, me limitaré a meros apuntes. Así, se analizan los posibles usos de la IA en psiquiatría y psicología, en el diagnóstico precoz y el tratamiento de patologías relacionadas con la salud mental, en la “cartografía” de los trastornos mentales (al modo en que hoy conocemos los parámetros objetivos que determinan los límites admisibles de peso, presión arterial o colesterol, las enormes magnitudes de datos que maneja la IA pueden permitir fijar con precisión los umbrales que definirían una patología psicológica. También se habla de la aplicación de la IA en los asuntos de la política, la administración y la gestión de las sociedades, lo que permitiría delegar algunas de las funciones de las instituciones en máquinas, sabiendo, no obstante, de la dificultad de definir la “función de valor”, de precisar las instrucciones que rijan sus decisiones, así como del riesgo de la proliferación de deepfakes, de cara a la toma de decisiones políticas. Los autores citan a este respecto al filósofo israelí Yuval Noah Harari: Esto es especialmente una amenaza para las democracias más que para los regímenes autoritarios porque las democracias dependen de la conversación pública. La democracia básicamente es conversación. Gente hablando entre sí. Si la IA se hace cargo de la conversación, la democracia ha terminado. Y hay un breve excurso para referirse a las posibles repercusiones militares y geoestratégicas, con un pronóstico espeluznante: Lo que las bombas atómicas hicieron en el siglo XX, seguramente lo haga la IA en el XXI. Las indudables aplicaciones militares de esta tecnología pueden, una vez más, resultar la clave para el balance geopolítico de las próximas décadas

Hay, igualmente, valiosas reflexiones de índole moral, sobre el libre albedrío, condicionada nuestra toma de decisiones, manipulada nuestra personalidad por el conocimiento que las grandes corporaciones tienen de nuestros datos más. En este momento la información que “libremente” depositamos en manos de las aplicaciones a las que tan alegremente nos entregamos es accesible para casi cualquiera, multiplicando las posibilidades de que se utilice contra nosotros. En este sentido, el aviso de Sigman y Bilinkis suena aterrador: estamos en los albores de un nuevo salto cualitativo que puede llevar la apropiación de nuestra voluntad a niveles que no imaginamos

Podemos leer, también, advertencias sobre las amenazas para nuestra especie que pueden llegar a suponer las máquinas y la IA. Aquí el libro se adentra en los territorios de la ciencia-ficción, con menciones a Metrópolis, Solaris, Terminator, Mad Max, Her, 2001: Odisea del espacio, Isaac Asimov); con las incertidumbres que suscita una tecnología sobre cuyo dominio se avanza, en cierto modo a ciegas; con, por el contrario, la certeza de que en la progresiva implementación de estas tecnologías es casi inevitable la comisión de errores; con la comparación de los peligros que encierra la IA con los que provoca el cambio climático; con el sombrío aviso sobre las dificultades que entrañaría la desconexión de una máquina inteligente y “díscola”. Y, en este mismo ámbito algo apocalíptico, hay espacio para las distopías: la facilidad de acceso casi universal a los “mimbres” técnicos que permiten la fabricación de estos programas, lo que permitiría que en algún futuro no muy lejano, una única persona con ánimo de hacer mucho daño podría construir una bomba atómica informática en su casa; la estremecedora evolución de estos mecanismos; la voluntad, abiertamente explicitada por parte de sus responsables, empresas como OpenAI, Google, Meta y muchas otras, de construir una IA General (IAG), es decir, una máquina con una superinteligencia que tenga todas las capacidades humanas. Y más

Las conclusiones de los autores espantan: esta puede ser la última tecnología que inventemos, escriben. Y también: nuestra era como la especie más inteligente de este planeta parece tener los días contados. Y alarma más aún el siniestro pronóstico sobre nuestro fin: En cualquier caso, podemos especular que si deciden someternos difícilmente será por la fuerza. La distopía, casi con certeza, no será como la hemos imaginado y recreado. No será Terminator. Si necesitaran recurrir a la violencia querría decir que no son tan inteligentes después de todo. Y, seguramente, no haga falta. Si nos guiamos por lo fácil que les resulta a los algoritmos de las redes sociales manipularnos, probablemente el sometimiento sobrevenga de manera mucho más sencilla: valerse de nuestros aspectos más vulnerables, la vanidad, el deseo, la avaricia, la lujuria. Conquistarnos con un caballo de Troya

A partir de la perturbadora declaración de mayo de 2023, firmada por gran parte de los referentes mundiales en estos asuntos, que incluye una única reflexión: “Mitigar el riesgo de extinción por causa de la IA debe ser una prioridad global, a la altura de otros riesgos como las pandemias y la guerra nuclear”, la obra se cierra con algunas sugerencias cercanas a la admonición: la necesidad de proporcionar un marco ético que limite y oriente las acciones de la tecnología, una tarea que se adivina casi imposible (Si no hemos conseguido ponernos de acuerdo entre personas, ¿cómo transmitir directrices claras a una máquina?); el desafío de lograr un consenso universal que establezca reglas morales -en síntesis, la diferencia entre el bien y el mal- que la IA debería aplicar; la creación de una agencia regulatoria internacional del estilo de la ya que existe para la energía atómica, para proteger a la humanidad del riesgo de crear accidentalmente algo con el poder de destruirnos

En fin, pongo fin aquí a mi larga reseña; con pesar, pues me entusiasmaría poder plantear a mi paciente audiencia la infinidad de temas de reflexión y debate que encierra este Artificial extraordinario. Os dejo con uno de los muchos sugerentes fragmentos que incluye el libro. Un texto de su Epílogo en el que confluyen el atisbo de una amenaza apocalíptica y la optimista ilusión de un futuro esperanzado. Tras él, una canción de Jorge Drexler citada en el ensayo. La edad del cielo, de Jorge Drexler, enlaza en algunas de sus frases con este planteamiento último de Sigman y Bilinkis: No somos más que una gota de luz, una estrella fugaz, una chispa, tan solo en la edad del cielo


Desde que hay vida en este planeta, se han extinguido el 99,9 por ciento de las especies que han existido. La deriva genética, la competencia y los cambios ambientales han hecho que las especies de la Tierra se renueven sin cesar. Y el mundo sigue girando. En ese camino de mutaciones y extinciones todo se va entrelazando. Los Homo sapiens y los neandertales convivieron durante un buen tiempo en el que cruzaron genomas y cultura. Homo sapiens, con su mejor manejo del fuego y de las herramientas, encontró su esplendor en su virtud más lograda, la inteligencia, y provocó la extinción de los neandertales. Tiempo después, parece probable que nosotros seamos los nuevos neandertales de otra especie. La historia se repite pero con un elemento inédito. (…) Quizá tengamos el raro «privilegio» de haber gestado nuestra propia némesis. 

La vida pasa muy deprisa. Y en ese tiempo limitado, algo en nuestro cerebro nos invita con empeño a dejar un legado. Tratamos de aprovechar ese suspiro cósmico antes de dejar paso a las siguientes generaciones. En ese sentimiento de algo mucho más grande que nosotros mismos la vida se vuelve calma y cobra sentido. De la misma manera también podemos reconciliarnos con la idea de que nuestra especie es pasajera. El proyecto de Turing, que empezó en la urgencia de un drama humano con el objetivo de salvar al mundo libre, puede tener un fin más amplio, más inesperado. Desde la plácida distancia sideral, podemos pensar que haber creado una inteligencia extraordinaria sea la forma más cabal de haber cumplido nuestro rol, como un eslabón más en la intrincada historia de la vida.

Videoconferencia
Mariano Sigman y Santiago Bilinkis. Artificial

No hay comentarios: