Un criterio central de la solidez de una revista científica es la calidad empírica de sus artículos. Aunque esto parece innecesario decirlo, por resultar obvio, le verdad es que en el día a día del quehacer editorial este criterio puede desdibujarse con facilidad debido a condiciones mayoritariamente prácticas. Decimos que prácticas, pues, aunque el equipo editorial está siempre consciente de que el trabajo empírico representa la esencia de un artículo científico, los editores no somos y no podemos ser especialistas en cada uno de los modelos de tratamiento metodológico. Esta situación lleva implícita, entonces, que errores metodológicos de origen puedan ser pasados por alto en el proceso de edición; baste decir que en aparatos metodológicos basados en diseños cuantitativos complejos es fácil que los editores con conocimientos estadísticos no especializados podamos perder de vista errores que se diluyen entre tablas de frecuencia y gráficos coloreados.

            Por su parte, damos por sentado que tanto autores como árbitros están conscientes de todos los detalles metodológicos, pero, posteriormente y cuando ya es tarde, puede llegar ese terrible momento en que los editores nos demos cuenta que hubo un elefante en el ascensor que nunca vimos. Una anécdota: en una ocasión teníamos un artículo de base extremadamente cuantitativa que estaba listo para su publicación pero, conversando entre nosotros sobre algunos términos que no nos quedaban claros, aprovechamos que una colega, especialista en análisis estadístico, estaba cerca; tras darle una lectura rápida y de una mirada de ojos muy abiertos, no solo solucionó nuestras dudas sino que, además, nos mostró que existían errores nada menores en el diseño y el reporte de resultados, y ahí aprendimos una valiosa lección.

            La moraleja de este tipo de situaciones lleva a señalar otro proceso, que es el de reclutamiento de dictaminadores: tener en cuenta que quienes revisan los artículos deben ser expertos no solo en los temas u objetos (tal como tradicionalmente sucede) sino también y, sobre todo, en los tratamientos metodológicos de esos temas y objetos. Esto garantiza de alguna manera que se detecten debilidades metodológicas que se puedan mejorar o bien se rechace un artículo. Aunque es un trabajo difícil y a veces ingrato (los revisores no abundan y generalmente no se les reconoce esa labor en las evaluaciones académicas), representa un esfuerzo muy valioso por mantener a raya problemas que, a la larga, puedan afectar la reputación de una revista científica y que la divulgación de los resultados de una investigación no sean válidos.

Algunas estrategias: Pedir a autores declarar los programas de análisis de datos (SPSS, Atlas.ti, Nvivo, etcétera) y sus versiones usadas, así como la composición de los paquetes estadísticos. Considerar una ruta, vitrina y plataforma metodológica como entidades metodológicas de calidad en tanto permitan identificar sus herramientas empíricas y su replicación. Por su parte, exigir a autores la descripción y explicación exhaustiva de las unidades de análisis, métodos de muestreo y criterios de segmentación del estudio, así como claridad en la explicación de los constitutivos de gráficos, tablas y anexos empíricos antes de pasar a revisión de expertos.