INTRODUCCIÓN: MONITOREO REMOTO HACIA UN OCÉANO EN CAMBIO GLOBAL
⌅En 1992, en el 500 aniversario del viaje de Colón, el buque oceanográfico español Hespérides reprodujo la ruta del viaje colombino tomando observaciones oceanográficas a su paso. Comparándolas con las mediciones recogidas en el Año Geofísico Internacional (1957-1958) y en una expedición realizada en 1981 por la misma sección del Atlántico, los oceanógrafos demostraron que las temperaturas profundas aumentaban a mayor velocidad de lo previsto por los modelizadores climáticos, que habían tendido a centrarse en las temperaturas superficiales (Parrilla et al.,1994Parrilla, Gregorio; Lavín, Alicia; Bryden, Harry (1994), “Rising Temperatures in the Subtropical North Atlantic Ocean over the past 35 Years”, Nature, 369 (5 May), pp. 48-51. DOI: 10.1038/369048a0). Estos estudios del cambio a escala regional y global caracterizan gran parte de la oceanografía contemporánea. Por ejemplo, a principios de la década de 1990 se demostró que el papel relativo del Adriático y el Mar Egeo en la formación de las aguas profundas del Mar Mediterráneo se había invertido de forma bastante repentina, para luego volver a su estadio inicial igual de repentinamente. Mientras que el mar Egeo contribuía normalmente solo a las masas de agua poco profundas, sus aguas más saladas (y, por tanto, más densas de lo habitual) inducidas por el clima se hicieron cargo de las contribuciones del Adriático. Inmediatamente, los científicos entendieron que estos procesos podrían estar ocurriendo en otros mares y océanos del mundo (Robinson et al.,2001Robinson, Allan; Wayne, G. Leslie; Theocharis, Alexander; Lascaratos, Alex (2001), “Mediterraean Sea Circulation”, Review Ocean Science, 0376. DOI: 10.1006/rwos.2001.0376).
El paso de un océano en equilibrio dinámico a otro gobernado por el cambio puede entenderse como un cambio de escalas de investigación. En ciencias geofísicas, las escalas temporales y espaciales pequeñas y grandes no son mutuamente excluyentes, pero las transiciones entre ellas requieren arduas elaboraciones y rara vez son políticamente inocentes (Coen, 2016Coen, Deborah (2016), “Big is a thing of the Past: Climate change and methodology in the history of ideas”, Journal of the History of Ideas, 77(2), pp. 305-321. DOI: 10.1353/jhi.2016.0019). En nuestro caso: la investigación oceanográfica financiada con fondos militares durante la Guerra Fría se esforzó por integrar diversas escalas en su descripción de la circulación oceánica. El imperativo de describir cómo se comportan las corrientes en enclaves estratégicamente situados invitó a los oceanógrafos a aumentar la resolución de sus estudios desde la década hasta el año, la temporada, el ciclo diurno, las mareas, e incluso el minuto. De este modo se elaboraron nuevos conceptos que introducían variables caóticas en las fluctuaciones del agua, como las turbulencias, las ondas internas y los remolinos (anonimizado). Se abría el reto de integrar estos comportamientos en los modelos de gran resolución de la circulación oceánica que se estaban elaborando en aquellos mismos años.
Según sus promotores, Argo ofrecía la infraestructura y la metodología para responder a ese reto. Argo, acrónimo de Array Real-time Geostrophic Oceanography, es un sistema de sensores hidrográficos instalados en boyas que controlan su propia flotabilidad1
En sus primeros veinticinco años de funcionamiento, Argo cuenta con casi 4.000 boyas operativas en mares y océanos de todo el mundo. Las boyas, lanzadas al mar desde buques oceanográficos, están programadas para ciclos de deriva en inmersión, muestreo y envío de datos que pueden variar en función de los objetivos de la investigación, las características de los sensores y del océano de interés. Por lo general, los flotadores Argo derivan libremente durante cinco o diez días hasta donde les lleva la corriente. Después descienden hasta alcanzar una profundidad de 2.000 metros (los de última generación pueden bajar a profundidades de hasta 5.000 metros) y toman perfiles CTD (Conductividad, Temperatura y Densidad; aunque los últimos modelos incorporan sensores biogeoquímicos) a profundidades programadas que varían de cinco a cincuenta metros a medida que ascienden hacia la superficie (Roemmich et al., 2019DeanRoemmich; T. ShermanJeffrey; DavisRuss E.; GrindleyKyle; McCluneMichael; ParkerCharles J; BlackDavid N.; ZilbermanNathalie; PurkeySarah G.; SuttonPhilip J. H. and GilsonJohn. (2019), “Deep SOLO: A Full-Depth Profiling Float for the Argo Program”, American Meteorological Society, 36, pp. 1967-1981. DOI: 10.1175/JTECH-D-19-0066.1). Una vez emergida la boya, el aparato envía los datos recopilados por los sensores a satélites orbitales cercanos que, a su vez, la envían a centros de procesamiento encargados de poner los datos directos en menos de veinticuatro horas a libre disposición de los usuarios potenciales, a menudo denominados argonautas (Belbeoch, 2010Belbeoch, Mathieu (2010), “Argo Information Centre, TC Report – AST11” JCOMMOPS, Feb. 2010. [en línea], disponible en: http://www.argo.ucsd.edu/AIC_AST11.pdf [consultado el 15/10/2024].). Después, estos datos deben ser validados por los expertos del equipo científico Argo en un proceso que se prolonga durante un año. En condiciones extremas de presión y temperatura, el reto de tomar muestras de calidad con una precisión de partes por millón depende tanto de la calibración previa de sensores y boyas y de la calibración remota de los datos.
La tesis de este artículo es que, en el proceso de validación de aparatos y datos, la capacidad de juicio de los expertos de Argo es clave, y se basa en el conocimiento tanto de las boyas como del medio ambiente en el que estas operan, permitiéndoles identificar anomalías en la interacción entre ambos.
Dean Roemmich, oceanógrafo físico del Instituto Oceanográfico Scripps de San Diego, fue diseñador jefe de Argo y quien nombró el sistema en los últimos años del siglo XX. Según él, “el Programa Argo se denominó así para subrayar la estrecha relación con la altimetría por satélite (la serie Jason de altímetros por satélite, el primero de los cuales había sido lanzado en 1992)”3
La literatura secundaria que ha analizado Argo es un poco más prudente sobre algunas de estas proclamas de disrupción total. La geógrafa política Jessica Lehmann (2016Lehmann, Jessica (2016), “A sea of potential: The politics of global ocean observations”, Political Geography, 55, pp. 113-123.DOI: https:/doi.org/10.1016/j.polgeo.2016.09.006), por ejemplo, ha descrito la estructura de seguimiento multinacional de Argo como parte de un esfuerzo más amplio de reconceptualización de los océanos como espacios de potencialidad y riesgo. En concreto, afirma que el seguimiento del cambio medioambiental a varias escalas temporales es clave para los esfuerzos de los Estados y el capital mundial por hacer gobernables los océanos del mundo. Por su parte, el filósofo Gregor Halfmann (2018Halfmann, Gregor (2018), Seafarers, Silk, and Science: Oceanographic Data in the Making, Doctoral Dissertation, Exeter,University of Exeter., p. 12) ha analizado Argo en el contexto de su valoración de las tensiones que plantea el seguimiento del cambio mediante medidas continuas en los datos para la investigación oceánica. Sostiene que la continuidad (de materiales, magnitudes de medición, medios para acceder a los datos y procesarlos, y conocimientos científicos para interpretarlos) solo se hace posible introduciendo pequeños cambios en las prácticas de la oceanografía. Finalmente, desde el punto de vista de los media studies y CTS, se ha presentado a Argo no tanto como una revolución sino como un momento más de una ciencia (la oceanografía) en la que los mediadores tecnológicos siempre han sido imprescindibles y en las que las mediciones “remotas” han sido la norma más que la excepción (Lidström, Wickberg y Gärdebo, 2023Wickberg, Adam; Lidström, Susanna; Gärdebo, Johan (2023), Ocean Environing Media: Datafication of the deep sea“. En: Wickberg, Aadam. and Gärdebo, Johan. (eds.), Environing Media, New York, Routledge, pp. 114-133. DOI: 10.4324/9781003282891-10). Al fin y al cabo, se dice que Isaac Newton no pisó una playa en su vida y esto no le impidió desarrollar una teoría de las mareas con datos globales obtenidos a través de una red de informantes imperiales (Schaffer, 2009Schaffer, Simon (2009), “Newton on the Beach: The Information Order of Principia Mathematica”, History of Science, 47(3), pp. 243-276. DOI: 10.1177/007327530904700301)5
Basándose tanto en la historiografía existente como en el análisis de fuentes primarias publicadas por parte de algunos actores clave en el diseño y mantenimiento de Argo (y, en ocasiones, en sus testimonios personales), el presente artículo se centra en el papel del conocimiento experiencial, especialmente en oceanografía, para el funcionamiento de las infraestructuras específicas de durabilidad, usabilidad y fiabilidad que permiten a los instrumentos y datos de Argo encarnar la continuidad temporal y la escala global requeridas para la vigilancia de un océano cambiante. Aunque la formulación de estos tres requisitos no es sistemática por parte de la literatura Argo, con ella pretendo sintetizar los razonamientos y prácticas de los diseñadores de Argo que se refieren a estos tres conceptos o algunas otras versiones suyas de modo reiterado a lo largo de los años.
Los historiadores y sociólogos de las ciencias de la Tierra han señalado como rasgo propio de la era digital de la oceanografía la aparición de instituciones específicamente dedicadas a la colección y almacenamiento de datos, con la consiguiente separación entre productores de datos (a menudo físicos e ingenieros) y los usuarios de datos, instituciones científicas sobre las que recaerían las responsabilidades de análisis y procesamiento (Conway, 2006Conway, Erik M. (2006), “Drowning in data: Satellite oceanography and information overload in the Earth sciences”, Historical Studies in the Natural Sciences, 37 (1), pp. 127–151. DOI: 10.1525/hsps.2006.37.1.127; Cirac-Claveras, 2015Cirac-Claveras, Gemma (2015), “Factories of Satellite Data. Remote Sensing and Physical Earth Sciences in France”, ICON, 21, pp. 24-50.; Lamy, 2019Lamy, Jerôme (2019), “The Birth of Space Oceanography: Technological Questions and Climatological Opportunity, United Sates, France, 1950-1980)“, Earth Sciences History, 38(1), pp. 124-136. DOI: 10.17704/1944-6178-38.1.1). Este no es el caso de Argo. Los encargados de procesar los datos, es decir, de mantener el sistema, son los miembros del equipo científico Argo, formado por oceanógrafos y científicos del clima, algunos de los cuales diseñaron el sistema y lo han estado siguiendo y perfeccionando desde sus inicios. Los usuarios, en cambio, no son necesariamente instituciones, sino científicos interesados en los datos para sus estudios climáticos, oceanográficos o meteorológicos. El presente artículo presta más atención a los científicos que diseñaron y mantienen Argo que a los usuarios finales. Siguiendo las propias explicaciones del funcionamiento de las boyas y del tratamiento de los datos recogidos por estas en centros de procesamiento, el artículo rastrea el lugar irremplazable del juicio informado en un entorno aparentemente automatizado (Erikson et al.,2013Erikson, Paul; Klein, Judy L.; Daston, Lorraine; Lemoy, Rebecca; Sturm, Thomas; Gordin, Michael D. (2013), How Reason Almost Lost its Mind. The Strange Career of Cold War Rationality, Chicago, Chicago University Press.). La literatura sobre las ciencias de la Tierra ha insistido en la importancia de infraestructuras globales de recogida y calibración de datos (Edwards, 2010Edwards, Paul (2010), A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming, Cambridge, Mass., The MIT Press.). Escudriñar el papel del juicio experiencial, no automatizado, y tácito (en el sentido de no transferible más que a través de la práctica operatoria) en la producción y mantenimiento de las estructuras específicas de Argo es, por tanto, una contribución extensible a otros ámbitos de las ciencias medioambientales y de la Tierra.
En el contexto del presente número especial sobre el conocimiento artesanal y la cultura marítima, uno de los objetivos de este artículo es cuestionar la dicotomía entre, por un lado, conocimiento experiencial, artesanal y tácito (propio de la época moderna) y, por otro, conocimiento científico, industrializado, y estandarizado (que sería propio de la época contemporánea). Aunque existen importantes diferencias entre ambos períodos y sus respectivas metodologías, sería un error separarlas excesivamente, puesto que llevaría a una visión de las ciencias actuales como más protocolarias y estandarizadas de lo que los propios científicos y sus prácticas nos indican. Dado que en la introducción a este dossier y en otros artículos de este se desgrana la bibliografía sobre el conocimiento tácito, aquí me limitaré a señalar el énfasis en la utilidad y fiabilidad por parte de los historiadores del conocimiento experiencial (Schaffer y Valeriani, 2021Schäfer, Dagmar y Valeriani, Simona (2021), “Technology is Global: The Useful and Reliable Knowledge Debate”, Technology and Culture, 62(1), pp. 327-347. DOI: 10.1353/tech.2021.0061). En este artículo veremos que, con base en la exigencia de durabilidad, la usabilidad y la fiabilidad son también conceptos clave en la generación y gestión de datos oceanográficos. Y, lo que es más importante, también en las ciencias de escala global del presente la usabilidad y fiabilidad dependen en gran medida de operaciones expertas irreductibles a protocolos mecánicos.
La reivindicación del papel de la experiencia (personal, corpórea, operatoria) en las ciencias de escala global y en sistemas de monitoreo remoto satelital no es totalmente nueva. A pesar de las dicotomías habituales entre escalas humanas / escalas globales y conocimiento experiencial / conocimiento por evidencias, es común en las ciencias de la Tierra (geofísicas, sísmicas, oceanográficas, hidrográficas, etc.) movilizar estrategias y tecnologías que sirvan de puente entre el individuo, el campo, el laboratorio, y el medio ambiente global (anonimizado; Wise, 2018Wise, Matthew Norton (2018), “Afterward: Humboldt was Right”, Studies in the History and Philosophy of Science, 77, pp. 82-86. DOI: 10.1016/j.shpsa.2018.05.011). En lo que respecta a los sensores remotos, Janet Vertesi (2015Vertesi, Janet (2015), Seeing like a Rover. How Robots, Teams, and Images Craft Knowledge of Mars, Chicago, The University of Chicago Press., p. 57) ha indicado que en las expediciones Rover a Marte el conocimiento tácito, por ejemplo, en la lectura correcta de las imágenes, cobra un significado especial. La especificidad del caso de Argo la otorgan sus objetivos y las condiciones del mar. Mantener un sistema de monitoreo remoto en circulación continua por los mares y océanos del planeta Tierra se hace posible a través de prácticas expertas de producción, de control y de mantenimiento tanto en el nivel de los aparatos como en el nivel de los datos.
La primera sección del artículo da cuenta de la exigencia de durabilidad trazando la trayectoria de los primeros estudios de interacción entre escalas locales y globales en la década de 1970 al surgimiento de Argo en 1999. Esto sirve tanto como introducción histórica a Argo en el contexto de las técnicas de monitoreo marítimo continuo y remoto como para entender el papel singular que toma el mantenimiento temporal de las infraestructuras en el contexto más general de las ciencias de la Tierra. Es justamente la necesidad percibida por los diseñadores de Argo de que las boyas y sus sensores perduren en el tiempo la que explica el papel del conocimiento tácito y en ocasiones cuasi-artesanal en la producción y calibración de las tecnologías de sensor remoto de Argo que analiza este artículo. Los historiadores de la tecnología que han llamado la atención sobre la importancia del mantenimiento y las reparaciones, frente al predominio ideológico e historiográfico del diseño y la innovación, han demostrado que, incluso en contextos industriales, este suele ser más artesanal y sujeto a improvisaciones que la producción (Werrett, 2019Werrett, Simon (2019), Thrifty Science: Making the Most of Materials in the History of Experiment, Chicago, The University of Chicago Press.; Vinsel y Russell, 2020Vinsel, Lee y Russell, Andrew L. (2020), The Innovation Delusion: How Our Obsession with the New Has Disrupted the Work That Matters Most, New York, Penguin Books.; Bernasconi et al., 2024Bernasconi, Gianenrico, Carnino, Guillaume, Hilaire-Pérez, Liliane y Raveux, Olivier (2024), “(Re)thinking Repairs in the Longue Durée”, Technology and Culture, 65(3), pp. 761-789. DOI: 10.1353/tech.2024.a933094).
Una vez establecida la exigencia de durabilidad, la segunda sección se adentra en las prácticas que los equipos de control de Argo ponen en marcha para realizar la doble aspiración de usabilidad y fiabilidad. Para que Argo pueda contribuir a modelar los cambios de un sistema dinámico a lo largo del tiempo, sus datos tienen que ser utilizables por los científicos de modelos, así como suficientemente fiables, lo cual se consigue con la participación del equipo científico Argo tanto en la producción de las boyas como en la calibración de los datos.
INFRAESTRUCTURAS DE DURABILIDAD: EL CAMINO HACIA ARGO
⌅El papel del tiempo y las escalas temporales ha suscitado el interés tanto de los científicos dedicados a los cambios ambientales como de sociólogos, historiadores y filósofos de las ciencias del cambio ambiental. Desde sus inicios, las ciencias de la Tierra y del medio ambiente se han preocupado por el cambio a través de grandes escalas temporales. Como tal, el descubrimiento de la geología y de la naturaleza evolutiva de la historia natural suele equipararse al del tiempo profundo (Rudwick, 2005Rudwick, Martin J. S. (2005), Bursting the Limits of Time: The Reconstruction of Geohistory in the Age of Revolution, Chicago, University of Chicago Press.). Sin embargo, durante la mayor parte del siglo XX, disciplinas como las ciencias atmosféricas y oceánicas pasaron de ser descriptivas a ser explicativas, lo que significaba encontrar la formulación matemática de leyes físicas que reflejaran relaciones que se creían estables (Fleming, 2016Fleming, James Rodger (2016), Inventing Atmospheric Science: Bjerknes, Rossby, Wexler, and the Foundations of Modern Meteorology, Cambridge, Mass, The MIT Press. DOI: 10.7551/mitpress/10250.001.0001). En oceanografía, el ideal era identificar masas de agua reconocibles por sus propiedades de temperatura y salinidad y hallar las leyes que regulan su circulación (Hamblin, 2014Hamblin, Jakob Darwin (2014), “Seeing the oceans in the shadow of Bergen values”, Isis, 105(2), pp. 352-363. DOI: 10.1086/676573). Este ideal guio incluso la famosa imagen de la cinta transportadora (conveyor belt), publicada por primera vez por Wallace Broecker en 1987 y que capta bien la visión de un océano mundial regulado por un movimiento cíclico, lento pero inexorable (Mills, 2009Mills, Eric (2009), The Fluid Envelop of Our Planet. How the Study of Ocean Currents Became a Science, Toronto, The University of Toronto Press.; Broecker, 2010Broecker, Wally (2010), The Great Ocean Conveyor. Discovering the Trigger for Abrupt Climate Change, Princeton, Princeton University Press.).
Sin embargo, junto con esas visiones del equilibrio dinámico, a lo largo de la segunda mitad del siglo XX cobraron fuerza los relatos más históricos del cambio ambiental. Como han argumentado Norton Wise (2011Wise, Matthew Norton (2011), “Science as (Historical) Narrative”, Erkenntnis, 75, 3: 349-376DOI: 10.1007/S10670-011-9339) y otros, coincidiendo con el giro computacional y el auge de la modelización y la simulación, la última parte del siglo XX fue testigo de una tendencia general en las ciencias –desde la biología hasta la física y la economía– hacia la sustitución, o al menos la complementación, de las explicaciones mediante leyes universales por explicaciones mediante relatos o narraciones de crecimiento y el desarrollo. En las ciencias relacionadas con el medio ambiente terrestre, este giro hacia la historia coincidió con la Gran Aceleración y la crisis energética, cuando las narrativas del crecimiento infinito y la visión cornucópica de la naturaleza se vieron cuestionadas por las advertencias de un crecimiento limitado, el deterioro del medio ambiente y el desastre global. La Guerra Fría fue decisiva en el auge del ecologismo catastrofista global (Hamblin, 2014Hamblin, Jakob Darwin (2014), “Seeing the oceans in the shadow of Bergen values”, Isis, 105(2), pp. 352-363. DOI: 10.1086/676573). Los militares de ambos lados del telón de acero se apresuraron a calibrar los efectos de la guerra biológica y nuclear para perfeccionar sus estrategias de ataque y defensa, poniendo en el punto de mira recursos, centros de producción clave y poblaciones. Las ciencias de la Tierra y del medio ambiente pasaron a integrar estrategias de vigilancia a escala mundial (Turchetti, 2019Turchetti, Simone (2019), Greening the Alliance. The Diplomacy of NATO’s Science and Environmental Initiatives, Chicago, Chicago University Press.). La detección de pequeños cambios en la composición del aire o en la firma acústica de la Tierra podía revelar el uso de armamento nuevo por parte del enemigo, y la vigilancia geofísica era capaz de señalar fuentes de minerales nucleares, biodiversidad o petróleo (Cantoni, 2018Cantoni, Roberto (2018), Oil Exploration, Diplomacy, and Security in the Early Cold War, Routledge.). El auge de las Ciencias del Sistema Tierra fue consecuencia de la fusión de la nueva noción de medio ambiente global con las aspiraciones a comprender (y gestionar) cibernéticamente su frágil equilibrio (Camprubí, Roqué y Sáez, 2018Camprubí, Lino; Roqué, Xavier y Sáez, Kiko (2018), De la Guerra Fría al calentamiento global. Estados Unidos, España y el orden científico mundial, Madrid, Libros de la Catarata.; Benson, 2020Benson, Etienne (2020), Surroundings: A History of Environments and Environmentalisms, Chicago, University of Chicago Press.). En este contexto, la preocupación creciente por el cambio climático global favoreció la superposición de escalas temporales humanas y naturales, y la necesidad creciente de monitoreo y modelización ambiental capaz de vincular el tiempo profundo con el futuro inmediato (Sörlin y Lane, 2018Sörlin, Sverker y Lane, Melissa (2018), “Historicizing climate change-engaging new approaches to climate and history”, Climatic Change. DOI: 10.1007/s10584-018-2285-0; Iseberg, 2023Iseberg, Erik (2023), Planetary Timemaking. Paleoclimatology and the Temporalities of Environmental Knowledge, 1945-199, cap. 4, Stockholm, Royal Institute of Technology.).
La oceanografía también se convirtió en un arma para combatir en la Guerra Fría y en un componente medio ambiente global, y al hacerlo pasó de buscar ciclos de circulación a buscar la compleja variedad de escalas que rigen el cambio histórico (Oreskes, 2021Oreskes, Naomi (2021), Science on a Mission. How Military Funding Shaped What We Do and Don’t Know about the Ocean, Chicago, Chicago University Press.). En el contexto de la guerra antisubmarina y los sistemas de detección acústica, comprender la forma en que los movimientos locales diarios, estacionales y anuales interactuaban con los patrones globales más largos exigía nuevos instrumentos de medición y teóricos.
En 1973, el Mid-Ocean Dynamics Experiment (MODE), diseñado entre otros por Henry Stommel, intentó localizar remolinos profundos (eddies) y determinar su papel en la circulación mundial (Dry, 2019Dry, Sarah (2019), Waters of the World. The Story of the Scientists who Unraveled the Mysteries of our Oceans, Atmosphere, and Ice Sheets and Made the Planet Whole, Chicago, Chicago University Press., pp. 214-221). En parte debido a esta investigación localizada y en parte al modelo ofrecido por las ciencias meteorológicas, se propuso un estudio global: el World Ocean Circulation Experiment (WOCE). Ante la evidencia de un océano en constante cambio que arrojaban los estudios a pequeña y media escala, el oceanógrafo Carl Wunsch (1992Wunsch, Carl (1992), Decade-to-Century Changes in the Ocean Circulation“, Oceanography, 5(2), pp. 99-106. DOI: 10.5670/oceanog.1992.16, p. 100) propuso abordar la circulación oceánica mundial de una forma metodológicamente novedosa: “¿Por qué la literatura oceanográfica tiene tantos artículos que expresan sorpresa cuando algún elemento de la circulación parece estar cambiando [...] las expresiones de sorpresa deberían reservarse para la determinación de que algo no ha cambiado durante un intervalo de tiempo significativo”. El artículo de Wunsch, “Decade-to-Century Changes in the Ocean Circulation”, apareció en Oceanography como un manifiesto a favor de aumentar la escala temporal y geográfica de la oceanografía física. Wunsch sostenía que, si se pasaba de prestar atención solamente a las fluctuaciones locales a una perspectiva global y a largo plazo, se descubriría que las corrientes y la circulación oceánicas cambiaban constantemente en respuesta a los cambios climáticos y a otros factores, a menudo de menor escala. El reto era a la vez epistemológico y ontológico. Debido a las dificultades para observar los océanos y a la escasez de datos, los oceanógrafos físicos, según Wunsch (1992Wunsch, Carl (1992), Decade-to-Century Changes in the Ocean Circulation“, Oceanography, 5(2), pp. 99-106. DOI: 10.5670/oceanog.1992.16, p. 100), “habían recurrido a tratar los datos tomados a lo largo de muchos años y décadas como si fueran simultáneos”, perdiendo “de vista el hecho de que se había supuesto un océano en estado estacionario, pero no se había demostrado”. Su solución fue producir una “instantánea” del océano global durante cinco años enteros (finalmente, WOCE duró siete) que, y esto era clave para el proyecto, debía compararse con una imagen mundial similar prevista para cinco décadas más tarde: 2041.
Postponer la segunda parte de WOCE cincuenta años era consecuencia de consideraciones políticas, económicas y científicas. WOCE supuso un enorme esfuerzo transnacional que desplegó una gran cantidad de instrumentos (de termómetros a satélites) para medir variables oceanográficas en todo el mundo. Dadas las inversiones y acuerdos diplomáticos necesarios, era impensable mantener ese tipo de investigación de forma continua. La mejor solución era prever un esfuerzo futuro similar que permitiese una comparación diacrónica para ganar el punto de vista histórico. Esta comparación solo sería posible mediante lo que Wunsch denominó una “estrategia de observación” destinada a producir datos archivables y utilizables por los futuros oceanógrafos.
La toma de datos orientada a la investigación de generaciones futuras es típica de lo que la historiadora de la ciencia Lorraine Daston (2012Daston, Lorraine (2012), “The Sciences of the Archive”, Osiris, 27, pp. 156-187. DOI: 10.1086/667826) ha denominado “ciencias del archivo”. El problema, por supuesto, es diseñar archivos que sean útiles para investigadores futuros, conservando los registros y disponiendo de los instrumentos y códigos necesarios para interpretar la información. Pero los futuros usuarios son difícilmente predecibles (Cirac-Claveras, 2018Cirac-Claveras, Gemma (2018), “Satellites for What? Creating User Communities for Space-based Data in France: The Case from LERTS to CESBIO”, Technology and Culture, 59(2), pp. 203-225, DOI: 10.1353/tech.2018.0027). El Año Geofísico Internacional (IGY) de 1957-1958 puede considerarse un precedente del esfuerzo del WOCE, así como un proyecto de Big Data pre-electrónico. Sin embargo, como muestra la historiadora Elena Aronova (2017Aronova, Elena (2017), “Geophysical Datascapes of the Cold War: Politics and Practices of the World Data Centers in the 1950s and 1960s”, Osiris, 32, pp. 307-327. DOI: 10.1086/694094.), se vio obstaculizado por discontinuidades en el hardware que podían hacer que los datos fueran prácticamente inutilizables. Por mucho que los diseñadores del WOCE fueran conscientes de ese problema, no pudieron escapar a los imprevistos futuros de la investigación. Esto se ha hecho evidente en lo que respecta a la valoración actual que el sistema Argo hace de los datos provenientes de las más de 1.000 boyas de perfilado auto-soportadas del WOCE. Hoy en día, los datos de estos sensores se consideran poco fiables, ya que “ninguno ha pasado por los procedimientos normalizados”, y se aconseja a los usuarios que consideren la colección como un archivo histórico más que como uno científico que ofrezca una fuente fiable6
Pero el legado de WOCE fue más allá de los datos concretos: lo constituían los métodos, los instrumentos, las prácticas y las redes de científicos. Un ejemplo de este legado son las boyas auto-flotantes. Un breve análisis de la evolución de este legado puede ayudar a entender las novedades introducidas por Argo. Russ Davis, de Woods Hole Oceanographic Institution (WHOI), y Doug C. Webb, fundador de la Webb Research Corporation, diseñaron boyas submarinas para WOCE con el objetivo de medir continuamente las corrientes a 1.000 metros de profundidad7
Los flotadores de WOCE funcionaban de forma muy parecida a como lo harían los de Argo diez años más tarde. Tras hundirse hasta su flotabilidad neutra, estaban programados para subir a la superficie, lo que hacían bombeando aceite en una vejiga externa, disminuyendo así su densidad. En la superficie, informaban al sistema Argos (ver nota 1 para evitar confusiones entre sistemas sensores con nombres mitológicos). Las boyas de WOCE tenían una duración de unos 100 ciclos de este tipo y, aunque la mayoría de ellas solo medían la temperatura, a partir de 1994 se añadieron gradualmente perfiles de conductividad (salinidad) y densidad. Pero los problemas mecánicos, sobre todo relacionados con la autoalimentación y el funcionamiento de la vejiga de aceite en las altas presiones propias de las profundidades marinas, dificultaban la operatividad. “A pesar de las numerosas mejoras introducidas en su fabricación y preparación”, confesó Davis (2021), “el ALACE original seguía siendo poco fiable”.
Aunque el propio Davis sugirió sustituir el aceite por una bomba hidráulica, otros científicos implicados en el WOCE prefirieron ceñirse a los modelos perfeccionados de flotadores bombeadores de aceite, que son los que finalmente adoptó el programa Argo. Cuando el WOCE tocaba a su fin, Dean Roemmich y Ray Schmitt propusieron dos iniciativas independientes para utilizar un sistema permanente de flotadores para medir la variabilidad oceánica y climática. Las asociaciones internacionales de datos sobre el océano y el clima pronto aprobaron el nombre y el sistema propuesto por Roemmich: ARGO8
Cuando el equipo científico se reunió para elaborar el diseño preliminar, su objetivo principal era mejorar respecto a WOCE en durabilidad. Este concepto clave se refería tanto a la tecnología de cada sensor flotante como a la propia investigación. A juicio de los científicos, el esfuerzo de WOCE había sido una “observación puntual” (¡de siete años de duración!), con boyas demasiado escasas y distantes entre sí como para lograr los resultados a gran escala sobre la variabilidad oceánica que se había propuesto.
En efecto, el plan de Argo dependía en gran medida de la duración de la vida útil de las boyas y los sensores, ya que pequeñas desviaciones en las mediciones darían lugar a modelos completamente erróneos. El equipo científico de Argo, compuesto principalmente por oceanógrafos y climatólogos, quería botar y mantener un conjunto de boyas flotando a distancias de 3º x 3º (que los flotadores no estuvieran separados más de tres grados de longitud y latitud), lo que aseguraría una densidad mayor que en otros proyectos y considerada para medir fenómenos climáticos globales, como la acumulación de calor en superficie (Roemmich et al., 2001Roemmich, Dean; BoebelOlaf; FreelandHoward; KingBrian; LeTraonPierre-Yves; MolinariRobert; OwensW. Brechner; RiserStephen; SendUwe; TakeuchiKensuke y WijffelsSusan. (2001), “Argo: The Global Array of Profiling Floats”, in Observing the Oceans in the 21st Century, C. J. Koblinsky and N.R. Smith (eds), Melbourne, GODAE Project Office and Bureau of Meteorology, pp. 248-258., p. 250). Además, se alcanzarían profundidades superiores al máximo de WOCE (1000 metros), llegando a los 2000 metros, donde el aumento de las presiones exigía mejorar la resistencia del flotador.
En 2007, seis años después de su puesta en marcha, el Equipo Directivo de Argo consideró que el programa piloto había terminado y estaba listo para ampliarse de forma sostenible9
Se trata de una infraestructura cara de implementar y mantener. Incluso con los precios actuales, cada boya cuesta entre 10.000 y 30.000 mil dólares y requiere una botadura controlada, normalmente desde un barco. Con baterías que duran entre cinco y seis años, y debido a la necesidad de comparar resultados entre flotadores viejos y nuevos en cualquier región, cada año hay que sustituir unos 800 flotadores, lo que supone un esfuerzo anual de más de veinticinco millones de dólares. El mantenimiento de una infraestructura de monitorieo continuo en el mar plantea problemas específicos relacionados con la materialidad y espacialidad del agua oceánica y la capacidad de los seres humanos para interactuar con ella (El-Hawari, 2001El-Hawari (2001), The Ocean Engineering Handbook, Florida, CRC Press.).
“Situar y mantener los instrumentos en el mar”, dice un científico de Argo, ha sido y sigue siendo “el principal reto de Argo”10
USABILIDAD Y FIABILIDAD DE LOS DATOS: DEL TALLER AL MANTENIMIENTO REMOTO
⌅En septiembre de 2018, los responsables del proyecto Argo alertaron a los usuarios de Argo de errores en las medidas de salinidad de los datos ofrecidos en tiempo real. Se había detectado un error de fabricación por el que algunos de los flotadores mostraban una salinidad superior a la que deberían tras dos años operativas. Alrededor del 25 % de los perfiles en tiempo real podrían estar sujetos a este sesgo. Argo prometió incluir los instrumentos CTD (medición de conductividad-salinidad, temperatura y densidad-presión) afectados en una lista negra (“gray list”) y recomendó a los posibles usuarios (científicos interesados en el análisis climático) que limitaran su uso a los datos en modo diferido, que los expertos habían inspeccionado para eliminar los datos erróneos y determinar la incertidumbre estadística de cada sensor11
La oceanógrafa de WHOI Susan Wijffels, miembro del equipo científico de Argo desde los primeros proyectos en 1998, identificó el sesgo en febrero de 2018. Wijffels había ganado fama internacional por primera vez a mediados de la década de 2000, cuando ella y sus colegas descubrieron sesgos en nada menos que el 70 % de las mediciones recogidas por el Sistema Global de Observación de los Océanos (un programa de la Comisión Intergubernamental de Oceanografía, perteneciente a la United Nations Educational, Scientific and Cultural Organization, UNESCO). Una vez más, el mantenimiento y la reparación de los sensores remotos e irrecuperables, así como de sus observaciones pasadas, se hacían a nivel de análisis de datos. La capacidad de Wijffells para calibrar y corregir los “datos erróneos” demostró una elevación de las temperaturas y del nivel de los océanos mayor de lo que se pensaba hasta entonces. Así pues, en 2018 era consciente de lo que se jugaba al señalar el fallo de los sensores y siguió el procedimiento de Argo: 1. Pedir al fabricante (Sea-Bird) localizar las posibles fuentes del problema; 2. Pedir a los equipos nacionales DMQC que realizar calibraciones a distancia de los datos en tiempo real; y 3. Alertar a los usuarios y aconsejarles que manejen con precaución los datos afectados12
Los gestores de Sea-Bird tampoco eran nuevos en esto de lidiar con fallos. En 2009 se suspendieron todos los lanzamientos de sus boyas Argo tras detectar errores en las mediciones de presión de Sea-Bird.13
La comunidad en torno a Argo incluye formalmente a los científicos que usan datos generados por el sistema. Sin embargo, aunque puntualmente los usuarios finales puedan ayudar en el proceso de validación, el peso del mismo recae en los científicos e ingenieros de Argo especializados en el control de calidad de los aparatos y datos. En la era del monitoreo global y automatizado, de la continuidad temporal y las escalas globales, tendemos a imaginar que tanto la fabricación de los sensores como los procesos de control de calidad están totalmente industrializados, normalizados, estandarizados, computerizados y mecanizados. Los equipos de control de calidad de Argo muestran que esto no es del todo así. En condiciones extremas de maniobrabilidad y en las que el testeo in situ es inviable, cada boya requiere de supervisión individual y cada serie de datos debe ser validada por un ojo experto. Los expertos de Argo están presentes en toda la cadena de producción (desde la fabricación de boyas y sensores a la validación de los datos) para asegurar la fiabilidad de los datos finales.
Comencemos por la fabricación de boyas: mientras que los sensores Argo están estandarizados (y en su gran mayoría producidos por la misma compañía: Sea-Bird Scientific) hay distintos tipos de boyas auto-flotantes y de baterías: varios de los países participantes tienen la suya, compiten por clientes y renuevan los modelos. Los fabricantes suelen ser empresas pequeñas que montan manualmente varias docenas al año (el total de boyas listas anualmente es entre 800 y 900). Aunque no se trata propiamente de producción artesanal, los espacios de producción son más parecidos a talleres que a cadenas de montaje. Además, los productores dependen directamente de los proveedores de los componentes, desde los microchips hasta el acero inoxidable. Cualquier cambio de proveedores, materiales, piezas o diseños supone una improvisación y un riesgo, y la calibración debe hacerse antes de lanzar las boyas al mar. Los sistemas que tienen los fabricantes para comprobar la durabilidad de las boyas son relativamente modestos, tales como tanques de agua a presión. En ocasiones llegan a acuerdos con universidades asociadas a los expertos de Argo para beneficiarse de equipos de calibración y validación más punteros. Además, cuando los flotadores están disponibles, los científicos de Argo los desmontan y vuelven a comprobar el casco, las juntas, el motor, etc. Según Susan Wijfell, en épocas malas (como la pandemia por Covid, con su escasez de suministros clave; o la simple contingencia de que coincidan varias jubilaciones de trabajadores veteranos y los novatos todavía estén aprendiendo), devuelven más del 50 % de las boyas por defectuosas. Esto es un porcentaje muy alto para unos aparatos caros y que llevan más de veinte años de experiencia acumulada en su fabricación, pero la dificultad del ambiente en el que tienen que operar, el poco margen de error, y la constante mejora de los modelos, requieren altos niveles de exigencia dirigidos a minimizar riesgos. Los científicos expertos de Argo se reúnen con los fabricantes una vez por semana para identificar posibles errores y diseñar nuevas pruebas que permitan predecir en las boyas en proceso de construcción algunos de los fallos constatados en las boyas ya en funcionamiento15
Además de los aparatos, los datos finales diferidos (“delayed mode”) deben ser también calibrados, validados y modificados para ser utilizables. Esto requiere detectar y corregir errores sistemáticos que afectan a determinadas mediciones por parte de algunas boyas o modelos de boyas. Por ejemplo, la experiencia con los flotadores automáticos demostró que, a medida que envejecían, los registradores de perfiles tienden a presentar desviaciones en las medidas de sal, un sesgo que podría obstaculizar todo el programa si no se controlaba adecuadamente16
Dado que la recuperación y evaluación física individual es inviable, el mantenimiento se realiza a nivel de datos, donde los equipos de Argo determinan la "usabilidad" de los mismos. Esto separa parcialmente a los científicos interesados en modelizar el estado del océano a escala local, regional o mundial de los expertos en los procesos de recogida y tratamiento de datos. Como ocurre cada vez más en las ciencias autoproclamadas "basadas en datos" (que a menudo, es decir, basadas en modelos), Argo ha institucionalizado la brecha entre productores y usuarios de datos (Rood y Edwards, 2014Rood, Richard B. y Edwards, Paul Norris. (2014), “Climate Informatics: Human Experts and the End-to- End System,” Earthzine, (22 mayo).). Los científicos usuarios de datos pueden alertar, y a veces lo hacen, sobre anomalías en los datos que utilizan; pero son los equipos internos de calibración de datos los que realizan la mayor parte de las pruebas. Como se dice en el sitio web del Grupo de Flotadores de la WHOI liderado por Wijffels: “Se requiere una experiencia significativa para distinguir hábilmente los datos erróneos de los fenómenos inesperados, pero reales”18
Los conceptos clave por tanto son “usabilidad” y “fiabilidad” de los datos generados. Pero ambos conceptos dependen de los fines que tengan los usuarios finales, que requerirán distintos grados de calidad y precisión. Por tanto, Argo acompaña los datos que ofrece de una evaluación de su fiabilidad según diferentes estadios de la cadena de medición, procesamiento y comprobación. En primer lugar, los CTD y otros sensores realizan un procesamiento mínimo a medida que recogen los datos en el “campo” (mares y océanos). Un segundo paso en el procesamiento lo realizan los satélites, por ejemplo, ajustando los datos a las coordenadas geográficas. Los datos procedentes del aproximado 20 % de flotadores que utilizan el sistema de comunicación Argos se envían primero al Centro de Información Argo (AIC) en Brest (Francia). A continuación, el AIC los envía a los veintiséis centros nacionales de datos (DAC). Los flotadores que utilizan sistemas GPS (Global Positioning Systems) como Iridium envían los datos directamente a los DAC. Los DAC someten los datos a un control de calidad automático mediante la localización de errores imposibles (como que un sensor se geolocalice en tierra o envíe resultados de salinidad extremadamente altos) y la comparación con modelos climatológicos y con otros registros del mismo sensor y de sensores vecinos, algunos de los cuales están amarrados para permitir esta comprobación. Estos datos se envían a los dos Centros Mundiales de Ensamblaje de Datos de Argo, uno en Brest y otro en Monterrey (California)20
Una vez que los datos están publicados (y disponibles en acceso abierto), llegan los controles de calidad en modo diferido (DMQC), que funcionan en los veintiséis países participantes. A diferencia de los llamados “datos en tiempo real”, los “datos en modo diferido” se publican tras una cuidadosa inspección, tanto subjetiva como basada en modelos. Esta revisión se prolonga durante un año. Una vez publicados los datos revisados, se borran los datos en tiempo real, que pasan a ser considerados “datos malos”. Se ofrecen estimaciones estadísticas de certidumbre a los usuarios para que tomen sus propias decisiones según sus criterios de lo que cuenta como utilizable (Roemmich et al., 2020).
Este proceso de validación sí requiere del juicio experto de los científicos e ingenieros de Argo, que combina un conocimiento íntimo de los aparatos con el de las condiciones de los océanos a los que estos se enfrentan y miden. Las directoras del “steering committee” de Argo, incluida Susan Wijffels, prepararon un manual dirigido a los centros DMQC nacionales. Pero, de acuerdo con Wijffels, “no todo está documentado” en el manual, que solo puede incluir los fallos más obvios o los errores sistemáticos más comunes. Para desarrollar la “sensibilidad” necesaria para distinguir fallos puntuales de fenómenos naturales anómalos pero reales hacen falta unos dos años de entrenamiento21
CONCLUSIÓN
⌅La familiaridad simultánea con el taller de producción y con la oceanografía de las profundidades es lo que permite a los expertos de Argo identificar patologías en la interacción entre los sensores y el ambiente que están destinados a monitorear. Y esto es lo que distingue a los expertos de Argo de los usuarios finales. Ignorar la importancia de la validación experta, es decir, tener una confianza excesiva en la autonomía de las boyas automáticas y los sensores inteligentes, lleva a errores que una vez introducidos crecen exponencialmente. Como advierte Argo en todos sus manuales y páginas webs, los datos “real time” no deben utilizarse para estimaciones científicas. A pesar de las advertencias, docenas de artículos alertaron sobre un supuesto aumento de la salinidad de los océanos globales basados en el error sistemático de las boyas incluso después de su detección en el 2018 (Wong et al., 2023Wong, Annie P. S., Gilson, John y Cabanes, Cécile (2023), “Argo Salinity: Bias and Uncertainty Evaluation”, Earth System Science Data. DOI: 10.5194/essd-2022-323.)22
Para los responsables de Argo, el peligro reside en que los usuarios utilicen los datos acríticamente y sin atender a las condiciones extremas de su obtención y a los procedimientos y advertencias de su validación. Los datos oceaonográficos no son meras descripciones de una realidad difícil de acceder: son el producto de una serie de transformaciones y operaciones que hay que controlar si queremos establecer relaciones certeras entre temperaturas, salinidad y cambios atmosféricos y climáticos (anonimizado). La “usabilidad” y “fiabilidad” del conocimiento global generado por los sensores remotos de Argo depende del factor humano y el conocimiento experiencial. Por tanto, las infraestructuras que permiten a los científicos monitorear los cambios oceánicos a escalas locales y globales, aunque desbordan la escala corpórea humana, la requieren para ser funcionales.
Aunque el presente estudio debiera completarse prestando más atención a las diferencias nacionales en la manufactura de boyas y a los distintos papeles que asument los científicos como usuarios finales de los datos Argo, esta primera aproximación muestra la importancia del factor humano en las ciencias oceanográficas basadas en sensores remotos. Cuando las máquinas que realizan la detección no son recuperables, el mantenimiento es una reformulación activa, creativa y continua de los datos que estas máquinas generan. La necesidad de monitoreo contínuo, que distingue a Argo de sus predecesores, requiere un chequeo constante tanto de los aparatos como de sus resultados. Paul Edwards (2010Edwards, Paul (2010), A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming, Cambridge, Mass., The MIT Press.) describió la miríada de sensores, ordenadores y centros de datos dedicados a vigilar el cambio planetario como “una inmensa máquina”. Demostró que el conocimiento del clima (la modelización de los cambios pasados, presentes e incluso futuros) depende de un conjunto de infraestructuras agregadas repartidas por todo el mundo. Y, para que las tecnologías transformen, controlen y construyan el “medio ambiente global”, es decir, para que den forma a las ideas y prácticas humanas en el mundo, tienen que perdurar en un medio hostil en el que el deterioro y la corrosión son la norma (Sörlin y Wormbs, 2018Sörlin, Sverker y Wormbs, Nina (2018), “Environing Technologies: a Theory of Making Environment” History and Technology, 34(2), pp. 101-125. DOI: 10.1080/07341512.2018.1548066.).
En el año 2018, Argo celebró su perfil dos millones acreditándolo simbólicamente al flotador 6903242, que había derivado por el mar Egeo en una trayectoria aproximadamente similar a la mítica de Jasón y los argonautas en su búsqueda del Vellocino de Oro23