La imagen por resonancia magnética funcional (fMRI, por sus siglas en inglés) es el método más extendido para estudiar el esfuerzo que realiza una región determinada del cerebro cuando se le asigna una tarea. La fMRI detecta qué zonas están reclamando más energía del flujo sanguíneo gracias al oxígeno que transporta. El resultado son esos mapas en 3D de la materia gris con unas zonas iluminadas.
Ahora, un equipo de científicos liderados por Anders Eklund ha destapado que muchas de esas zonas se pudieron iluminar por error, por un fallo del software y el escaso rigor de algunos colegas. En su estudio, publicado en PNAS y recogido por El País, cogieron 500 imágenes del cerebro en reposo, las que se usan como punto de partida para ver si a partir de ahí el cerebro hace algo. Usaron los programas más comunes para realizar tres millones de lecturas de esos cerebros en reposo. Esperaban un 5% de falsos positivos y en algunos casos dieron hasta con un 70% de situaciones en las que el programa iluminaba una región en la que no pasaba nada, dependiendo de los parámetros.
Estos programas dividen el cerebro humano en 100.000 voxels, que son como los píxeles de una foto en versión tridimensional. El software interpreta las indicaciones de la resonancia magnética e indica en cuáles habría actividad, a partir de un umbral que en muchos casos ha sido más laxo de lo que debiera, propiciando falsos positivos. Además, los autores de la revisión analizaron 241 estudios y descubrieron que en el 40% no se habían aplicado las correcciones de software necesarias para asegurarse, agravando el problema de los falsos positivos.
El revuelo ha sido sobresaliente en el campo de la neuroimagen, aunque se está matizando la dimensión del problema. Inicialmente, Eklund y su equipo cuestionaban la validez de unos 40.000 estudios. Ahora han anunciado una corrección: Thomas Nichols, otro de los autores del estudio, calcula que son solo unos 3.500 los trabajos que serían papel mojado. Pero es imposible saber cuáles son o cuántos exactamente. Hay tres lustros de ciencia con una sombra de duda sobre ellos.
En numerosas ocasiones se había denunciado que algunas de estas resonancias carecen de fortaleza estadística y que se estaban sobrevalorando. "Esto ya se sabía. Hace 20 años que se había alertado de este problema. Y encima se ha ido haciendo más y más laxo el trabajo en este campo, con los resultados que ahora vemos", lamenta Bryan Strange, director del departamento de neuroimagen de la Fundación CIEN (Centro de Investigación de Enfermedades Neurológicas). Strange considera que "tiene todo el sentido" lo que denuncia el estudio y es "muy bueno que se advierta de este peligro".
Santiago Canals, del Instituto de Neurociencias, sí considera "sorprendente" que un paquete de software tan consagrado y popular tuviera un error sin detectar durante 15 años, como puso de manifiesto el estudio. No obstante, su grupo utiliza un programa propio. Y advierte de que muchos científicos se han acercado al mundo de la neuroimagen desde otros campos sin conocer bien el proceso que estaban realizando.