Poderosas supercomputadoras están interviniendo en el esfuerzo científico de analizar, mapear y rastrear el brote global de COVID-19. Y muchos aseguran que pronto ayudarán a combatir esta enfermedad infecciosa.
Según estadísticas de la Universidad Johns Hopkins, una colección de computadoras capaces de asimilar y procesar grandes cantidades de datos brutos se ha sumado a la labor de esclarecer cómo es que el nuevo coronavirus ha infectado a casi dos millones de personas en todo el planeta; entre ellas, por lo menos a 582,000 estadounidenses (hasta ahora).
El pasado mes de marzo, la Casa Blanca convocó a la formación del COVID-19 High Performance Computing Consortium [COVID-19 HPC; Consorcio Computacional de Alto Rendimiento para COVID-19]: un cóctel de gigantes tecnológicos, dependencias federales y organizaciones académicas cuyos nombres incluyen IBM, Amazon Web Services, Microsoft, el Instituto Tecnológico de Massachusetts, la NASA, Google, HP y otros más.
Apoyado en los sistemas de supercomputadoras de cinco laboratorios nacionales del Departamento de Energía de Estados Unidos, el colectivo ya está trabajando en 17 proyectos en los que utiliza esas máquinas para reducir, drásticamente, el tiempo que requieren los científicos e investigadores de especialidades como epidemiología y modelado molecular.
En un blog publicado este mes, Darío Gil, director de la división de investigaciones de IBM, detalla la forma como su equipo contribuye al proyecto: “Si se hicieran a mano, estos experimentos demorarían años en concluir; e incluso varios meses si trabajáramos con plataformas de cómputo tradicionales y más lentas”.
A decir del directivo, el trabajo empezó a arrojar resultados prometedores a partir de que los investigadores del Laboratorio Nacional de Oak Ridge y la Universidad de Tennessee utilizaron la supercomputadora Summit.
“[Los investigadores analizaron] 8,000 compuestos para identificar los que tienen mayor probabilidad de ligarse a los ‘picos’ de proteína del coronavirus, lo cual le volvería incapaz de infectar células huésped”, informó.
“Este análisis permitió recomendar 77 compuestos farmacológicos de moléculas pequeñas cuyas pruebas experimentales podrían comenzar de inmediato. Tal es el poder de la computación para acelerar los descubrimientos”.
Lee más: “Única preocupación” de OMS es salvar vidas y “no hay tiempo que perder”
El pasado 6 de abril, Nvidia también confirmó que un equipo de sus científicos informáticos se había sumado al nuevo esfuerzo de investigación bajo la dirección de Ian Buck, vicepresidente de la división de computación acelerada en dicha compañía, cuyas unidades para procesamiento de gráficos (NVIDA GPU) se utilizan en muchas de las supercomputadoras más importantes.
“El Consorcio COVID-19 HPC es el programa Apollo de nuestra era”, aseguró Buck en un comunicado que publicó en el sitio Web de Nvidia. “No es una competencia por la luna, es una carrera por la humanidad. Los cohetes son las supercomputadoras GPU y el combustible es el conocimiento científico”.
“Si bien NVIDIA ayudará a que esos cohetes vuelen tan rápido como puedan, a fin de cuentas, el progreso requeriría de la combinación de tres ingredientes fundamentales: científicos de dominio, científicos informáticos y computadoras de alto rendimiento. Nos sentimos honrados de desempeñar una función en este esfuerzo”, concluyó Buck.
El lanzamiento del consorcio ha desatado una nueva oleada de actividad en el sector de la supercomputación, toda enfocada en resolver los misterios más importantes de la enfermedad que ha causado más de 120,000 muertes en todo el mundo.
Entérate: México rebasa las 400 decesos por COVID-19; suman 74 muertes en las últimas 24 horas
También el 6 de abril, el Centro Nacional de Investigación Atmosférica de Estados Unidos anunció que su supercomputadora -una máquina de 5.43 petaflops, conocida como “Cheyenne”- empezará a apoyar investigaciones sobre la pandemia, incluidos aspectos como los patrones de transmisión potenciales y la posibilidad de que el coronavirus se vea afectado por los cambios estacionales.
Al día siguiente, expertos de University College London (UCL) afirmaron que los grandes datos y la supercomputación serían de mucha utilidad para escudriñar las bibliotecas de medicamentos potenciales a fin de identificar nuevos antivirales; para estudiar la propagación del coronavirus dentro de las comunidades; y para analizar la estructura del agente causal de la COVID-19.
Ese mismo 7 de abril, en entrevista con el programa “Bloomberg Technology”, Dan Stanzione, director ejecutivo y vicepresidente asociado de investigaciones en el Centro de Computación Avanzada de la Universidad de Texas, explicó que el uso de supercomputadoras podría conducir a adelantos drásticos en el esfuerzo médico.
“En esencia, es cuestión de tamaño y velocidad”, puntualizó, señalando que esos sistemas pueden correr decenas de miles de modelos epidemiológicos simultáneos: un volumen que ninguna computadora convencional puede gestionar. Con vistas a futuro, Stanzione añadió que las supercomputadoras también podrían desempeñar un papel en el proceso de eliminación para producir una vacuna.
“En última instancia, me parece que la computación no será nuestro cuello de botella”, prosiguió. “Estas cosas pueden correr muy rápido. En cambio, hay muchos, muchísimos compuestos químicos que quizá queramos probar”.
El profesor Peter Coveney, director del Centro de Ciencias Computacionales de UCL, estuvo de acuerdo en que el proyecto supercomputacional del consorcio podría acelerar la búsqueda de tratamientos para la COVID-19; o al menos, identificar algunas sustancias prometedoras.
En su comunicado, el profesor Coveney comentó: “Es un método mucho más rápido para encontrar tratamientos viables que el proceso convencional para desarrollo farmacológico. Lo habitual es que las farmacéuticas demoren hasta 12 años y tengan que desembolsar dos mil millones de dólares para que un nuevo medicamento llegue al mercado. El uso de computadoras poderosas está reescribiendo las reglas, de modo que encontrar ‘la aguja en el pajar’ podría representar apenas una fracción de ese tiempo y ese costo”.
Stanzione insistió en que, aun cuando es improbable que el poder de cómputo se convierta en un problema, reconoció que el esfuerzo conlleva algunas limitaciones. Durante la entrevista con Bloomberg, precisó: “Lo que hacen las computadoras es reducir la cantidad de cosas que necesitamos probar en el laboratorios. Sin embargo, en el caso de las vacunas, [nadamos] contracorriente con los procesos de los químicos”.
“De los diez a la sexagésima potencia de compuestos químicos que existen en el universo, lo único que podemos decir es que hay un conjunto muy grande que no dará resultados, así que tal vez terminaremos con unas cuantas decenas que podríamos probar. Pese a ello, todas habrán de pasar por los ensayos clínicos”, enfatizó. “Y es en eso en lo que vamos a perder mucho tiempo”.
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek