Ricardo Israel Sánchez Becerra
Agencia Reforma

Cd. de México, México.-A más de 60 días del primer contagio local de Covid-19 en México, y con más de 90 mil casos contabilizados acumulados en el País, una pregunta asedia insistentemente en la psique colectiva: ¿Cuándo se acabará la pandemia? O, por lo menos, ¿en qué momento comenzará a ceder?

La herramienta con la que los especialistas han intentado obtener lo más cercano a una respuesta es mediante los modelos matemáticos en los que, a partir de una serie de datos, realizan los cálculos correspondientes para estimar cuándo tendrá lugar y qué tan alto será el pico de la infección, así como el probable trayecto cuesta abajo hacia el eventual término de la epidemia.

Pero ante el impetuoso ánimo por vislumbrar más allá de la ascendente curva de contagios, científicos nacionales y extranjeros, ya sea convocados por el Gobierno, por sus universidades o simplemente de manera independiente, han desarrollado un amplio abanico de posibilidades, con modelos que llegan a discrepar sobre los días en que habrá el mayor número de contagios y hasta cuándo se extenderá la presencia del virus.

¿A quién creerle? ¿En cuál modelo basar las decisiones y estrategias de mitigación y reactivación? Lo primero, consideran los expertos, es comprender a fondo cómo funcionan estos ejercicios.

“Hay que entender que un modelo es una simplificación de la realidad, y hay diferentes niveles de simplificaciones. Cada vez que uno hace una simplificación de la realidad lo que se tiene que hacer son supuestos; de toda esta cosa que es compleja y no la puedo considerar y tomar en cuenta, ¿qué supuestos hago para simplificarla?”, explica en entrevista Fernando Alarid, ingeniero biomédico, economista y doctor en políticas de salud.

El investigador del Centro de Investigación y Docencia Económicas (CIDE) trae a cuenta la conocida, y muy repetida estos días, frase del estadístico británico George E. P. Box: “Todos los modelos están mal, pero algunos son útiles”, a la que añade como corolario: “pero unos son peores que otros”.

“Y esto tiene que ver con los supuestos que se hacen en los modelos”, sostiene Alarid, quien encabeza en México el Stanford-CIDE Coronavirus Simulation Model (SC-Cosmo), cuyas proyecciones apuntaron el pico máximo de la epidemia de SARS-Cov-2 en la Ciudad de México el 21 junio –si la intervención de distanciamiento social concluía el 31 de mayo–, y no en los primeros días de mayo, como había previsto el modelo utilizado por las autoridades sanitarias.

“Cuando vimos las proyecciones que se estaban haciendo, queríamos poner en el medio o mostrarle al público otra perspectiva no tan benevolente o tan optimista como la que los colegas de la Secretaría de Salud (Ssa) estaban anunciando”, comparte.

De acuerdo con el físico de sistemas complejos Octavio Miramontes, autor también de un modelo predictivo, la base de la mayoría de los modelos epidemiológicos es el denominado SIR, siglas que hacen referencia a los individuos Susceptibles, a los Infectados y los Recuperados. Tres tipos de poblaciones que están coexistiendo.

“Este modelo plantea que, para hacer el modelaje de una epidemia, se requieren tres ecuaciones diferenciales, una para cada subtipo de población”, detalla el investigador del Instituto de Física de la UNAM, quien a lo largo de su carrera ha trabajado en modelos matemáticos de dinámicas en sistemas biológicos.

Para el caso del coronavirus actual, el SIR resulta demasiado simple, por lo que se ha hecho uso de una extensión conocida como SEIR, donde el agregado da cuenta de los individuos Expuestos. Lo cual implica una ecuación más y nuevos parámetros que considerar.

Un modelo matemático también conocido como compartimental o multicaja, cuyos cálculos parten de colocar de forma abstracta a cada población en una caja.

“Toda esa evolución dinámica de cuántos individuos hay en cada caja es lo que modelan las ecuaciones”, indica Miramontes.

Los de mayor efectividad, apunta Alarid, son los modelos mecanísticos, aquellos donde se modelan mecanismos como la transmisión del virus, la progresión de la enfermedad en los individuos y, sobre todo, la detección de los casos positivos.

Así como parámetros sobre la dinámica de la enfermedad: la latencia –el tiempo que toma a un individuo contagiado comenzar a contagiar– e incubación –el tiempo en que uno se infecta y comienza a desarrollar síntomas–, además de cuánto tarda un paciente en dejar de ser infeccioso.
Los pronósticos para México
Diferentes modelos locales y extranjeros han pintado escenarios distintos acerca de la evolución del coronavirus en México.

A finales de abril, un análisis de la Universidad de Tecnología y Diseño de Singapur (SUTD) arrojó que la ola pandémica del virus se prolongaría hasta los primeros días de septiembre, teniendo como punto más álgido el 4 de mayo.

La plataforma covid19-projections.com, creada por el científico de datos Youyang Gu, egresado del Instituto de Tecnología de Massachusetts (MIT), hasta el pasado 28 de mayo proponía que el máximo de contagios se dará alrededor del 17 de julio, cuando se alcancen casi 250 mil infectados, y cerca de 132 mil muertos hacia septiembre.

Este resultado fue obtenido con un simulador basado en el modelo SEIR, aplicando técnicas de machine learning o aprendizaje automático –una rama de la inteligencia artificial– para minimizar el error entre lo proyectado y los resultados reales.

Y, por otra parte, el modelo que el físico Octavio Miramontes presentó el pasado 23 de mayo en el estudio “Entendamos el Covid-19 en México” estima que el pico nacional será alrededor del 27 de junio, y que hacia el mes de agosto habrá 126 mil casos totales medidos.

Pronósticos, todos, muy distintos al que el modelo predictivo utilizado por la Ssa presentó en la conferencia matutina del Presidente Andrés Manuel López Obrador el pasado 16 de abril, con una proyección a nivel nacional que apuntaba a que el pico de nuevos casos confirmados se alcanzaría aproximadamente el 23 de mayo, aunque fue el día 27 cuando se registró el mayor número de contagios por día, con 3 mil 463.

¿Hablaría esto de un modelo fallido? No, responde a este diario el actuario y doctor en ciencias matemáticas Arturo Erdely.

“Se trata de modelos predictivos que se tienen que estar recalibrando con la nueva información que va llegando”, indica el profesor de la Facultad de Estudios Superiores Acatlán, quien destaca que incluso esos 3 mil 463 nuevos casos confirmados del 27 de mayo se ubicaban por debajo de los casi 5 mil que pronosticaba el modelo oficial.

“Así, en la proyección a nivel nacional todavía nos encontramos dentro de un escenario mejor al de la curva (pronosticada)”.

“Entre un modelo le pegue más a lo observado conforme pase el tiempo, da un sentimiento de assurance –le llaman en inglés–, de confianza, de que el modelo está actuando bien, al menos en ese contexto”, expresa, por su parte, Alarid, cuestionado sobre cómo confiar en estos instrumentos.

“(Pero) tampoco porque un modelo haga una buena proyección quiere decir que sea un buen modelo”.

Existen muchos puntos a considerar y evaluar sobre la efectividad de un modelo, algo que ha sido particularmente difícil respecto al utilizado por las autoridades sanitarias de México, considerado por algunos epidemiólogos matemáticos como “una caja negra”.

Hasta hace poco, lo más que se sabía, gracias a algunos datos en las diapositivas de las conferencias o a una entrevista difundida por el Centro de Investigación en Matemáticas (CIMAT), es que se trataba de un modelo prospectivo multicaja que procesa datos provistos por el criticado sistema de monitoreo centinela, y que fue elaborado por los reconocidos matemáticos Antonio Capella, del Instituto de Matemáticas de la UNAM, y Andrés Christen y Marcos Capistrán, ambos del CIMAT.

Sin embargo, la metodología precisa o alguna nota técnica que detallara los mecanismos utilizados para modelar las dinámicas de la evolución de Covid-19 han sido inaccesibles. Desde el pasado 6 de mayo, REFORMA ha buscado a los matemáticos responsables del modelo para conocer esta información, sin hasta el momento haber obtenido respuesta.

Cuestionado por el diario El País sobre las características de este modelo oficial, José Luis Alomía, director de Epidemiología de la Ssa, respondió que “es propiedad intelectual del Conacyt” y, por el momento, no era público.

“Lo que él (Alomía) dijo es escandaloso, y también es escandaloso que el Conacyt no haya salido a desmentirlo”, opina en entrevista el biólogo Antonio Lazcano, quien junto al ex Ministro de la Suprema Corte José Ramón Cossío criticó en un artículo publicado en The New York Times la falta de transparencia del modelo.

“Yo creo que lo que es indispensable es que el modelo se discuta abiertamente; que se tome en cuenta el subregistro y se discuta abiertamente con la comunidad científica. Si no, estamos repitiendo exactamente la misma actitud de secrecía que hubo al principio, por ejemplo, en Inglaterra, y que tuvo resultados trágicos”, sostiene Lazcano.

–¿A qué atribuye que no se quieran hacer públicos los detalles?

Si no quiere uno pensar mal, yo creo que ahí lo que hay es la convicción de tener la certeza de la autoridad absoluta, y eso nunca funciona en ciencia. La única manera en como puede avanzar la ciencia, sobre todo cuando se están tocando aspectos tan importantes como el futuro de la nación, es cuando hay una discusión abierta.

Yo creo que lo que hay aquí en el fondo es, por parte de la Secretaría de Salud y por parte del Conacyt, una actitud autoritaria en donde no están permitiendo el acceso, creyendo que son los poseedores de la verdad absoluta.

El jueves pasado, cuando la ecóloga María Elena Álvarez-Buylla, titular de Conacyt, presentó en la conferencia vespertina el Ecosistema Nacional Informático Covid-19 –plataforma que concentra un repositorio de datos e investigaciones sobre la pandemia, tableros de información y herramientas, así como el propio modelo matemático– parecía que finalmente se estaban hacían públicos la parametrización, los supuestos y los cambios, entre otras medidas, que aplica el modelo.

No obstante, lo relativo al modelo AMA (por las iniciales de los tres matemáticos) se limita a mencionar que: “Es un modelo compartimental SEIR basado en inferencia bayesiana. Permite estimar la evolución del número de casos de la enfermedad, a nivel de zonas metropolitanas. A partir de los registros de los casos confirmados diarios, las defunciones acumuladas y la demanda hospitalaria diaria, dividida en camas normales y de unidades de cuidados intensivos, publicados diariamente por la Secretaría de Salud”.

Y en los siete reportes disponibles en el sitio –el primero con fecha del 26 de abril y el último del 21 de mayo–, una escueta nota metodológica señala la inclusión de un cálculo para la tasa de número de replazo Rt como indicador de la tasa de transmisión comunitaria, y que el cálculo de Rt se hizo usando una metodología que investigadores publicaran en el American Journal of Epidemiology en 2013.

Aunado a esto, un par de puntos reiteran el funcionamiento a partir de un sistema de vigilancia cuyo sesgo ha sido ampliamente criticado: “Los pronósticos dependen de la calidad y consistencia de los datos de los reportes diarios”, se lee.

Así, la demanda constante de diferentes sectores sobre la necesidad de realizar más pruebas de detección adquiere particular pertinencia.

“Por supuesto que entre más pruebas, más datos, y esto se traduciría en menos variabilidad de las estimaciones”, subraya Erdely.

“Pero no nada más hacer pruebas por hacer, sino tener un esquema bien diseñado y bien planeado para levantar información y que esa información que levantemos sí nos brinde mayor certeza o nos disminuya la incertidumbre sobre cuántas personas creemos que en la población están infectadas, pero aún más importante: cuántas personas se pueden llegar a infectar todavía”, precisa Fernando Alarid.

“Mientras no sabemos qué tanta población aún no se infecta, pues no sabemos cuál es la magnitud del elefante blanco. La magnitud del problema potencial, no de la infección actual, sino de cuántas personas se van a poder infectar una vez que vuelvan a sus actividades. Y sin pruebas no se puede saber”.
El final
Ante este amplio y complejísimo panorama, qué respuesta puede haber a la incógnita que ronda la cabeza de todos, acaso más en los interesados en reanudar las giras políticas: ¿cuándo disfrutaremos de un país libre de Covid-19?

“Si tú me preguntas cuándo se va a terminar la epidemia, con un alto nivel de confianza te diría que no en los siguientes años”, sentencia Alarid, no sin antes reiterar la falibilidad de las predicciones.

“Ningún modelo es una bola de cristal, ningún modelo te va a dar una proyección perfecta de cómo es que va a ocurrir el futuro. Siempre hay mucho nivel de incertidumbre porque hay cosas que los modelos no están contemplando. Siempre hay un rango de error tanto por lo que conocemos y que no se considera en el modelo, pero sobre todo por lo que ignoramos y por aquello que ignoramos que ignoramos. Y eso jamás va a poder ser considerado en un modelo”.

Los modelos matemáticos usuales tipo SEIR, menciona Erdely, sirven para ir midiendo y proyectando el curso de la epidemia, pero es necesario recalibrarlos constantemente con los datos diarios que van llegando, lo cual va modificando las proyecciones también.

“Son una guía, pero con un margen de error. Debemos actuar con cautela ante dichas proyecciones, especialmente si la curva epidémica todavía se encuentra en ascenso”.

Así, habiendo terminado la Jornada Nacional de Sana Distancia e iniciado la reactivación por estados de la mano del semáforo de alerta Covid-19, aún con una curva epidemiológica que permanece muy alta y con pronósticos de no cejar en varias semanas, replantear la estrategia nacional se advierte urgente y necesario.

“El problema es que todos entendemos la prisa por acabar la cuarentena, eso es algo que todo mundo comprende”, señala Lazcano.

“Pero acabar la cuarentena cuando vamos ascendiendo en el número de personas infectadas, yo creo que es extraordinariamente peligroso. Requiere de una serie de medidas que simplemente uno no ve que estén tomando: requiere de pruebas, requiere del seguimiento de contagios, requiere de una estrategia en donde tengamos una apertura regionalizada, gradual y probablemente intermitente”, concluye el biólogo.