La Revista Médica del IMSS reconoce que las herramientas de inteligencia artificial (IA), en particular la IA generativa y los modelos multimodales, pueden emplearse como apoyo auxiliar en tareas de redacción, traducción, edición lingüística, organización de información y otras actividades técnicas vinculadas con la comunicación científica. Sin embargo, su uso en manuscritos, procesos editoriales y revisión por pares debe regirse por los principios de transparencia, supervisión humana, responsabilidad, protección de datos, confidencialidad, integridad científica y respeto a los derechos humanos.

En consonancia con las Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals del ICMJE, la declaración Authorship and AI tools de COPE, la Recommendation on the Ethics of Artificial Intelligence de UNESCO, la guía Ethics and governance of artificial intelligence for health de la OMS, así como con la Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados y el Manual de búsqueda sistematizada de evidencia médica, asistida por Inteligencia Artificial (IA) de la Secretaría de Salud de México, esta revista establece los siguientes criterios editoriales para el uso responsable de IA en el ámbito biomédico.

 

Criterios fundamentales

  1. Transparencia y declaración obligatoria.
    Todo uso de herramientas de IA en la elaboración, revisión, edición o procesamiento de un manuscrito deberá declararse de manera expresa. La declaración deberá indicar la herramienta utilizada, su finalidad y, cuando corresponda, la sección del manuscrito en la que intervino. En el caso de los autores, esta información deberá consignarse desde el envío del manuscrito y reflejarse en la parte pertinente del documento.
  2. Autoría y responsabilidad humana.
    Las herramientas de IA no pueden figurar como autoras ni coautoras de un manuscrito. La autoría científica exige responsabilidad sobre la exactitud, integridad, originalidad y trazabilidad del trabajo, condiciones que solo pueden recaer en personas. En consecuencia, los autores asumen plena responsabilidad por todo contenido generado o asistido por IA.
  3. Uso permitido y verificación obligatoria.
    La IA podrá utilizarse únicamente como herramienta auxiliar y nunca como sustituto del juicio académico, clínico, metodológico o editorial. Toda salida generada por IA deberá ser revisada, corregida y validada por personas autoras, revisoras o editoras, según corresponda. No se aceptará la utilización de contenido generado por IA como fuente primaria de evidencia, ni la incorporación de textos, imágenes, referencias o datos sin verificación suficiente de su exactitud, pertinencia y adecuada atribución.
  4. Confidencialidad, protección de datos y material sensible.
    Queda prohibido introducir en sistemas de IA manuscritos inéditos, dictámenes de revisión, datos clínicos identificables, imágenes de pacientes, bases de datos sensibles o cualquier otro material confidencial cuando no pueda garantizarse su resguardo. En el tratamiento de datos personales deberán observarse los principios de licitud, finalidad, lealtad, consentimiento, calidad, proporcionalidad, información y responsabilidad, así como las medidas de seguridad técnicas, físicas y administrativas previstas en la legislación mexicana. Tratándose de datos personales sensibles, en particular información sobre salud, deberá extremarse la protección y recabarse el consentimiento expreso cuando sea legalmente exigible.
  5. Revisión por pares y decisiones editoriales.
    Las personas revisoras y editoras no deberán cargar manuscritos sometidos a evaluación en plataformas de IA cuando la confidencialidad no esté plenamente asegurada o cuando la revista no lo autorice expresamente. El uso de IA en la revisión deberá, en su caso, declararse a la revista. Ninguna decisión editorial podrá delegarse de manera exclusiva a sistemas automatizados; la valoración científica, ética y editorial final corresponderá siempre a personas.
  6. Integridad científica y acciones editoriales.
    La omisión en la declaración del uso de IA, la generación o alteración indebida de datos, imágenes, referencias, dictámenes o resultados, así como cualquier uso de IA que comprometa la integridad científica, podrá dar lugar a solicitud de aclaraciones, correcciones, rechazo editorial o aplicación de las medidas previstas en las políticas de ética de la revista.

 

Alcance ético y sanitario

Dado el carácter biomédico de la revista, el uso de IA deberá evaluarse con especial cautela cuando involucre investigación en salud, información clínica, datos personales sensibles o contenidos que puedan incidir en decisiones diagnósticas, terapéuticas, docentes o de salud pública. La revista asume que la IA puede aportar apoyo técnico relevante, pero sostiene que su utilización debe subordinarse siempre a la responsabilidad humana, al escrutinio metodológico y a la protección ética y jurídica de las personas.


Documentos de referencia:

International Committee of Medical Journal Editors. Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals, sección “Use of Artificial Intelligence in Publishing”.

Committee on Publication Ethics. Authorship and AI tools.

UNESCO. Recommendation on the Ethics of Artificial Intelligence (2021).

World Health Organization. Ethics and governance of artificial intelligence for health (2021) y Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models (2025).

Cámara de Diputados del H. Congreso de la Unión. Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados, texto vigente con última reforma DOF 14-11-2025.

Secretaría de Salud, Dirección General de Modernización del Sector Salud. Manual de búsqueda sistematizada de evidencia médica, asistida por Inteligencia Artificial (IA) (2025).