Cómo la IA está ayudando a los historiadores a comprender mejor nuestro pasado
Los historiadores del mañana están utilizando la informática para analizar cómo vivía la gente hace siglos.
Es una tarde de 1531, en la ciudad de Venecia. En el taller de una imprenta, un aprendiz trabaja en el diseño de una página destinada a un libro de texto de astronomía: una línea de letra densa y una ilustración en madera de una cabeza de querubín observando formas que se mueven a través del cosmos, lo que representa un eclipse lunar.
Como todos los aspectos de la producción de libros en el siglo XVI, es un proceso que requiere mucho tiempo, pero que permite que el conocimiento se propague a una velocidad sin precedentes.
Quinientos años después, la producción de información es una bestia completamente diferente: terabytes de imágenes, video y texto en torrentes de datos digitales que circulan casi instantáneamente y deben analizarse casi con la misma rapidez, lo que permite y requiere el entrenamiento de máquinas. -Modelos de aprendizaje para ordenar a través del flujo. Este cambio en la producción de información tiene implicaciones para el futuro de todo, desde la creación de arte hasta el desarrollo de fármacos.
Pero esos avances también están haciendo posible mirar de manera diferente los datos del pasado. Los historiadores han comenzado a utilizar el aprendizaje automático, en particular las redes neuronales profundas, para examinar documentos históricos, incluidas tablas astronómicas como las producidas en Venecia y otras ciudades modernas tempranas, manchadas por siglos pasados en archivos mohosos o distorsionadas por el desliz de una imprenta.
Los historiadores dicen que la aplicación de la informática moderna al pasado distante ayuda a establecer conexiones a través de una franja más amplia del registro histórico de lo que sería posible de otro modo, corrigiendo las distorsiones que surgen al analizar la historia un documento a la vez. Pero introduce sus propias distorsiones, incluido el riesgo de que el aprendizaje automático deslice sesgos o falsificaciones absolutas en el registro histórico. Todo esto se suma a una pregunta para los historiadores y otros que, a menudo se argumenta, entienden el presente al examinar la historia: con las máquinas configuradas para desempeñar un papel más importante en el futuro, ¿cuánto debemos cederles del pasado?
Big data ha llegado a las humanidades a través de iniciativas para digitalizar un número cada vez mayor de documentos históricos, como la colección de millones de páginas de periódicos de la Biblioteca del Congreso y los registros judiciales de los archivos finlandeses que datan del siglo XIX. Para los investigadores, esto es a la vez un problema y una oportunidad: hay mucha más información y, a menudo, no ha habido forma de filtrarla.
La automatización de la IA en toda la línea de desarrollo de fármacos está abriendo la posibilidad de productos farmacéuticos más rápidos y económicos.
Ese desafío se ha enfrentado con el desarrollo de herramientas computacionales que ayudan a los académicos a analizar la complejidad. En 2009, Johannes Preiser-Kapeller, profesor de la Academia de Ciencias de Austria, estaba examinando un registro de decisiones de la Iglesia bizantina del siglo XIV. Al darse cuenta de que dar sentido a cientos de documentos requeriría una encuesta digital sistemática de las relaciones de los obispos, Preiser-Kapeller creó una base de datos de personas y utilizó un software de análisis de red para reconstruir sus conexiones.
Esta reconstrucción reveló patrones ocultos de influencia, lo que llevó a Preiser-Kapeller a argumentar que los obispos que más hablaban en las reuniones no eran los más influyentes; Desde entonces ha aplicado la técnica a otras redes, incluida la élite bizantina del siglo XIV, descubriendo formas en las que su tejido social se sustentaba a través de las contribuciones ocultas de las mujeres. "Pudimos identificar, hasta cierto punto, lo que estaba pasando fuera de la narrativa oficial", dice.
El trabajo de Preiser-Kapeller es solo un ejemplo de esta tendencia en la erudición. Pero hasta hace poco, el aprendizaje automático a menudo no ha podido sacar conclusiones de colecciones de texto cada vez más grandes, sobre todo porque ciertos aspectos de los documentos históricos (en el caso de Preiser-Kapeller, el griego mal escrito a mano) los hacía indescifrables para las máquinas. Ahora, los avances en el aprendizaje profundo han comenzado a abordar estas limitaciones mediante el uso de redes que imitan el cerebro humano para seleccionar patrones en conjuntos de datos grandes y complicados.
Hace casi 800 años, el astrónomo del siglo XIII Johannes de Sacrobosco publicó el Tractatus de sphaera, un tratado introductorio sobre el cosmos geocéntrico. Ese tratado se convirtió en lectura obligatoria para los primeros estudiantes universitarios modernos. Fue el libro de texto sobre cosmología geocéntrica de mayor distribución, perdurando incluso después de que la revolución copernicana cambiara radicalmente la visión geocéntrica del cosmos en el siglo XVI.
El tratado también es el protagonista principal de una colección digitalizada de 359 libros de texto de astronomía publicados entre 1472 y 1650: 76 000 páginas, incluidas decenas de miles de ilustraciones científicas y tablas astronómicas. En ese completo conjunto de datos, Matteo Valleriani, profesor del Instituto Max Planck para la Historia de la Ciencia, vio la oportunidad de rastrear la evolución del conocimiento europeo hacia una cosmovisión científica compartida. Pero se dio cuenta de que discernir el patrón requería más que capacidades humanas. Así que Valleriani y un equipo de investigadores del Instituto de Berlín para los Fundamentos del Aprendizaje y los Datos (BIFOLD) recurrieron al aprendizaje automático.
Esto requirió dividir la colección en tres categorías: partes de texto (secciones de escritos sobre un tema específico, con un comienzo y un final claros); ilustraciones científicas, que ayudaron a iluminar conceptos como un eclipse lunar; y tablas numéricas, que se usaban para enseñar aspectos matemáticos de la astronomía.
Todo esto se suma a una pregunta para los historiadores: con las máquinas preparadas para desempeñar un papel más importante en el futuro, ¿cuánto debemos cederles del pasado?
Al principio, dice Valleriani, el texto desafió la interpretación algorítmica. Por un lado, los tipos de letra variaban mucho; Las primeras imprentas modernas desarrollaron impresoras únicas para sus libros y, a menudo, tenían sus propios talleres metalúrgicos para moldear sus letras. Esto significaba que un modelo que usaba el procesamiento del lenguaje natural (NLP) para leer el texto tendría que volver a entrenarse para cada libro.
El idioma también planteó un problema. Muchos textos fueron escritos en dialectos latinos específicos de la región, a menudo irreconocibles para máquinas que no han sido entrenadas en lenguajes históricos. "Esta es una gran limitación en general para el procesamiento del lenguaje natural, cuando no tienes el vocabulario para entrenar en segundo plano", dice Valleriani. Esta es parte de la razón por la que la PNL funciona bien para los idiomas dominantes como el inglés, pero es menos eficaz en, por ejemplo, el hebreo antiguo.
En cambio, los investigadores extrajeron manualmente el texto de los materiales de origen e identificaron enlaces únicos entre conjuntos de documentos, por ejemplo, cuando un texto fue imitado o traducido en otro libro. Estos datos se colocaron en un gráfico, que incrustó automáticamente esos enlaces únicos en una red que contenía todos los registros (luego, los investigadores usaron un gráfico para entrenar un método de aprendizaje automático que puede sugerir conexiones entre textos). Eso dejó los elementos visuales de los textos: 20.000 ilustraciones y 10.000 tablas, que los investigadores utilizaron redes neuronales para estudiar.
La visión por computadora para imágenes históricas enfrenta desafíos similares a los de la PNL; tiene lo que Lauren Tilton, profesora asociada de humanidades digitales en la Universidad de Richmond, llama un sesgo "presentista". Muchos modelos de IA se entrenan con conjuntos de datos de los últimos 15 años, dice Tilton, y los objetos que han aprendido a enumerar e identificar tienden a ser características de la vida contemporánea, como teléfonos celulares o automóviles. Las computadoras a menudo reconocen solo iteraciones contemporáneas de objetos que tienen una historia más larga; piense en iPhones y Teslas, en lugar de tableros de distribución y Model T. Para colmo, los modelos generalmente se entrenan con imágenes en color de alta resolución en lugar de fotografías granuladas en blanco y negro del pasado (o representaciones modernas tempranas del cosmos, de apariencia inconsistente y degradadas por el paso del tiempo). Todo esto hace que la visión artificial sea menos precisa cuando se aplica a imágenes históricas.
"Hablamos con la gente de informática y dirán: 'Bueno, solucionamos la detección de objetos'", dice. "Y diremos, en realidad, si tomas un conjunto de fotos de la década de 1930, verás que no se ha resuelto tan bien como pensamos". Los modelos de aprendizaje profundo, que pueden identificar patrones en grandes cantidades de datos, pueden ayudar porque son capaces de una mayor abstracción.
En el caso del proyecto Sphaera, los investigadores de BIFOLD entrenaron una red neuronal para detectar, clasificar y agrupar (según la similitud) ilustraciones de textos modernos tempranos; ese modelo ahora es accesible para otros historiadores a través de un servicio web público llamado CorDeep. También adoptaron un enfoque novedoso para analizar otros datos. Por ejemplo, varias tablas que se encuentran en los cientos de libros de la colección no se podían comparar visualmente porque "la misma tabla se puede imprimir de 1000 formas diferentes", explica Valleriani. Entonces, los investigadores desarrollaron una arquitectura de red neuronal que detecta y agrupa tablas similares en función de los números que contienen, ignorando su diseño.
Hasta ahora, el proyecto ha arrojado algunos resultados sorprendentes. Un patrón encontrado en los datos permitió a los investigadores ver que mientras Europa se estaba fracturando en líneas religiosas después de la Reforma protestante, el conocimiento científico se estaba fusionando. Los textos científicos que se imprimían en lugares como la ciudad protestante de Wittenberg, que se había convertido en un centro de innovación académica gracias al trabajo de los eruditos reformados, estaban siendo imitados en centros como París y Venecia antes de extenderse por todo el continente. La Reforma protestante no es exactamente un tema poco estudiado, dice Valleriani, pero una perspectiva mediada por máquinas permitió a los investigadores ver algo nuevo: "Esto no estaba del todo claro antes". Los modelos aplicados a las tablas y las imágenes han comenzado a mostrar patrones similares.
Las computadoras a menudo reconocen solo iteraciones contemporáneas de objetos que tienen una historia más larga; piense en iPhones y Teslas, en lugar de tableros de distribución y Model T.
Estas herramientas ofrecen posibilidades más importantes que el simple seguimiento de 10.000 mesas, dice Valleriani. En cambio, permiten a los investigadores sacar inferencias sobre la evolución del conocimiento a partir de patrones en grupos de registros, incluso si en realidad solo han examinado un puñado de documentos. "Mirando dos tablas, ya puedo llegar a una gran conclusión sobre 200 años", dice.
Las redes neuronales profundas también están desempeñando un papel en el examen de una historia aún más antigua. Descifrar inscripciones (conocido como epigrafía) y restaurar ejemplos dañados son tareas arduas, especialmente cuando los objetos inscritos se han movido o les faltan claves contextuales. Los historiadores especializados necesitan hacer conjeturas informadas. Para ayudar, Yannis Assael, científico investigador de DeepMind, y Thea Sommerschield, becaria postdoctoral en la Universidad Ca' Foscari de Venecia, desarrollaron una red neuronal llamada Ithaca, que puede reconstruir partes faltantes de inscripciones y atribuir fechas y ubicaciones a los textos. Los investigadores dicen que el enfoque de aprendizaje profundo, que involucró la capacitación en un conjunto de datos de más de 78,000 inscripciones, es el primero en abordar la restauración y la atribución de manera conjunta, a través del aprendizaje de grandes cantidades de datos.
Hasta ahora, dicen Assael y Sommerschield, el enfoque está arrojando luz sobre las inscripciones de los decretos de un período importante en la Atenas clásica, que durante mucho tiempo se han atribuido al 446 y 445 a. C., una fecha que algunos historiadores han cuestionado. Como prueba, los investigadores entrenaron el modelo en un conjunto de datos que no contenía la inscripción en cuestión y luego le pidieron que analizara el texto de los decretos. Esto produjo una fecha diferente. "La fecha promedio prevista de Ithaca para los decretos es 421 a. C., lo que se alinea con los avances de datación más recientes y muestra cómo el aprendizaje automático puede contribuir a los debates sobre uno de los momentos más importantes de la historia griega", dijeron por correo electrónico.
Otros proyectos proponen utilizar el aprendizaje automático para extraer inferencias aún más amplias sobre el pasado. Esta fue la motivación detrás de Venice Time Machine, una de varias "máquinas del tiempo" locales en toda Europa que ahora se han establecido para reconstruir la historia local a partir de registros digitalizados. Los archivos estatales venecianos cubren 1.000 años de historia repartidos en 80 kilómetros de estanterías; El objetivo de los investigadores era digitalizar estos registros, muchos de los cuales nunca habían sido examinados por los historiadores modernos. Usarían redes de aprendizaje profundo para extraer información y, al rastrear los nombres que aparecen en el mismo documento en otros documentos, reconstruir los lazos que una vez unieron a los venecianos.
Frédéric Kaplan, presidente de Time Machine Organization, dice que el proyecto ahora ha digitalizado suficientes documentos administrativos de la ciudad para capturar la textura de la ciudad en los siglos pasados, haciendo posible ir edificio por edificio e identificar a las familias que vivieron allí en diferentes puntos en el tiempo. "Estos son cientos de miles de documentos que deben digitalizarse para alcanzar esta forma de flexibilidad", dice Kaplan. "Esto nunca se ha hecho antes."
Aún así, cuando se trata de la promesa final del proyecto, nada menos que una simulación digital de la Venecia medieval hasta el nivel del vecindario, a través de redes reconstruidas por inteligencia artificial, historiadores como Johannes Preiser-Kapeller, el profesor de la Academia de Ciencias de Austria que dirigió el estudio de obispos bizantinos, dicen que el proyecto no ha podido cumplir porque el modelo no puede entender qué conexiones son significativas.
OMS: Instituto Max Planck para la Historia de la Ciencia
QUÉ: Una aplicación basada en la web para clasificar contenido de documentos históricos que incluyen tablas numéricas y alfanuméricas. El software puede ubicar, extraer y clasificar elementos visuales denominados "ilustraciones de contenido", "iniciales", "decoraciones" y "marcas de imprenta".
Quién: DeepMind
Qué: una red neuronal profunda entrenada para realizar simultáneamente las tareas de restauración textual, atribución geográfica y atribución cronológica, que anteriormente realizaban los epigrafistas.
Quién: Ecole Polytechnique Fédérale de Lausanne, Ca' Foscari y los Archivos del Estado de Venecia
Qué: una colección digitalizada de los archivos estatales de Venecia, que abarcan 1000 años de historia. Una vez que se complete, los investigadores utilizarán el aprendizaje profundo para reconstruir las redes sociales históricas.
Preiser-Kapeller ha realizado su propio experimento utilizando la detección automática para desarrollar redes a partir de documentos, extrayendo información de la red con un algoritmo, en lugar de que un experto extraiga información para alimentar la red como en su trabajo sobre los obispos, y dice que produce mucho de "complejidad artificial" pero nada que sirva en la interpretación histórica. El algoritmo no pudo distinguir los casos en los que los nombres de dos personas aparecían en la misma lista de contribuyentes de los casos en los que aparecían en un certificado de matrimonio, por lo que, como dice Preiser-Kapeller, "Lo que realmente obtienes no tiene valor explicativo". Es una limitación que los historiadores han destacado con el aprendizaje automático, similar al punto que la gente ha señalado sobre los grandes modelos de lenguaje como ChatGPT: debido a que los modelos finalmente no entienden lo que están leyendo, pueden llegar a conclusiones absurdas.
Es cierto que con las fuentes que están disponibles actualmente, se necesita la interpretación humana para proporcionar contexto, dice Kaplan, aunque cree que esto podría cambiar una vez que una cantidad suficiente de documentos históricos sean legibles por máquina.
Pero él imagina una aplicación de aprendizaje automático que es más transformadora y potencialmente más problemática. La IA generativa podría usarse para hacer predicciones que completen los espacios en blanco en el registro histórico, por ejemplo, sobre la cantidad de aprendices en el taller de un artesano veneciano, basándose no en registros individuales, que podrían ser inexactos o incompletos, sino en datos agregados. Esto puede traer más perspectivas que no pertenecen a la élite, pero va en contra de la práctica histórica estándar, en la que las conclusiones se basan en la evidencia disponible.
Aún así, las redes neuronales que crean registros falsos plantean una preocupación más inmediata.
En YouTube, los espectadores ahora pueden ver a Richard Nixon dar un discurso que había sido escrito en caso de que el alunizaje de 1969 terminara en un desastre, pero que afortunadamente nunca fue necesario pronunciarlo. Los investigadores crearon el deepfake para mostrar cómo la IA podría afectar nuestro sentido compartido de la historia. En segundos, uno puede generar imágenes falsas de eventos históricos importantes como los aterrizajes del Día D, como el profesor de historia del noreste Dan Cohen discutió recientemente con estudiantes en una clase dedicada a explorar la forma en que los medios digitales y la tecnología están dando forma al estudio histórico. "[Las fotos son] completamente convincentes", dice. "Puedes meter a un montón de gente en una playa y con un tanque y una ametralladora, y se ve perfecto".
La nueva versión del modelo de lenguaje grande de la compañía inventa cosas, pero también puede admitir cuando está mal.
La historia falsa no es nada nuevo: Cohen señala la forma en que Joseph Stalin ordenó que se borraran los enemigos de los libros de historia, como ejemplo, pero la escala y la velocidad con la que se pueden crear falsificaciones es impresionante, y el problema va más allá de las imágenes. La IA generativa puede crear textos que parezcan verosímiles un discurso parlamentario de la era victoriana, como lo ha hecho Cohen con sus alumnos. Al generar escritura a mano o tipos de letra históricos, también podría crear lo que parece convincentemente un registro histórico escrito.
Mientras tanto, los chatbots de IA como Character.ai y Historical Figures Chat permiten a los usuarios simular interacciones con personajes históricos. Los historiadores han expresado su preocupación por estos chatbots que, por ejemplo, pueden hacer que algunas personas parezcan menos racistas y más arrepentidas de lo que realmente eran.
En otras palabras, existe el riesgo de que la inteligencia artificial, desde los chatbots históricos hasta los modelos que hacen predicciones basadas en registros históricos, se equivoque mucho. Algunos de estos errores son anacronismos benignos: una consulta a Aristóteles en el chatbot Character.ai sobre sus puntos de vista sobre las mujeres (a quienes consideraba inferiores) arrojó como respuesta que "no deberían tener redes sociales". Pero otros podrían tener más consecuencias, especialmente cuando se mezclan en una colección de documentos demasiado grande para que un historiador los revise individualmente, o si los distribuye alguien interesado en una interpretación particular de la historia.
Incluso si no hay un engaño deliberado, a algunos académicos les preocupa que los historiadores puedan usar herramientas que no están capacitados para comprender. "Creo que hay un gran riesgo en ello, porque nosotros, como humanistas o historiadores, estamos subcontratando el análisis a otro campo, o quizás a una máquina", dice Abraham Gibson, profesor de historia en la Universidad de Texas en San Antonio. Gibson dice que hasta hace muy poco tiempo, los compañeros historiadores con los que habló no veían la relevancia de la inteligencia artificial para su trabajo, pero cada vez se dan más cuenta de la posibilidad de que eventualmente puedan ceder parte de la interpretación de la historia a una caja negra.
Este problema de "caja negra" no es exclusivo de la historia: incluso los desarrolladores de sistemas de aprendizaje automático a veces tienen dificultades para comprender cómo funcionan. Afortunadamente, algunos métodos diseñados pensando en los historiadores están estructurados para proporcionar una mayor transparencia. Ithaca produce una variedad de hipótesis clasificadas por probabilidad, y los investigadores de BIFOLD están trabajando en la interpretación de sus modelos con IA explicable, que tiene como objetivo revelar qué entradas contribuyen más a las predicciones. Los historiadores dicen que ellos mismos promueven la transparencia al alentar a las personas a ver el aprendizaje automático con objetividad crítica: como una herramienta útil, pero falible, al igual que las personas.
Si bien persiste el escepticismo hacia esta nueva tecnología, el campo la está adoptando gradualmente, y Valleriani cree que, con el tiempo, la cantidad de historiadores que rechazan los métodos computacionales disminuirá. Las preocupaciones de los académicos sobre la ética de la IA son menos una razón para no usar el aprendizaje automático, dice, que una oportunidad para que las humanidades contribuyan a su desarrollo.
Como escribió el historiador francés Emmanuel Le Roy Ladurie en 1968, en respuesta al trabajo de los historiadores que habían comenzado a experimentar con la historia computacional para investigar cuestiones como los patrones de votación del parlamento británico en la década de 1840, "el historiador del mañana será un programador , o no existirá".
Moira Donovan es una periodista científica independiente con sede en Halifax, Nueva Escocia.
Esta historia fue parte de nuestra edición de mayo/junio de 2023.
"De repente cambié mi punto de vista sobre si estas cosas van a ser más inteligentes que nosotros".
La narrativa sobre los estudiantes que hacen trampa no cuenta toda la historia. Conozca a los profesores que creen que la IA generativa podría mejorar el aprendizaje.
Hinton hablará en EmTech Digital el miércoles.
ChatGPT ha provocado especulaciones sobre la inteligencia artificial general. Pero la próxima fase real de la IA será en dominios y contextos específicos.
Descubra ofertas especiales, noticias destacadas, próximos eventos y más.
¡Gracias por enviar su correo electrónico!
Parece que algo salió mal.
Estamos teniendo problemas para guardar sus preferencias. Intente actualizar esta página y actualícelas una vez más. Si continúa recibiendo este mensaje, comuníquese con nosotros en [email protected] con una lista de boletines que le gustaría recibir.
Todo esto se suma a una pregunta para los historiadores: con las máquinas preparadas para desempeñar un papel más importante en el futuro, ¿cuánto debemos cederles del pasado? Las computadoras a menudo reconocen solo iteraciones contemporáneas de objetos que tienen una historia más larga; piense en iPhones y Teslas, en lugar de tableros de distribución y Model T.