Política de Inteligencia Artificial

Uso de Inteligencia Artificial

Sapiens in Medicine (SMed) reconoce el papel emergente de la Inteligencia Artificial (IA), incluyendo modelos generativos y arquitecturas de lenguaje extenso (LLM), como herramientas de apoyo en la investigación y la comunicación científica. No obstante, para salvaguardar la integridad clínica, la transparencia y la fiabilidad del registro médico, todos los participantes del flujo editorial deben adherirse a las normas de aprovechamiento ético y responsable de estos sistemas.

La implementación de instrumentos de IA no reemplaza, bajo ningún concepto, el juicio humano. Autores, evaluadores y editores mantienen la responsabilidad absoluta sobre el contenido, la veracidad de la evidencia y las resoluciones tomadas en cada fase del proceso de publicación.

Para autores

Los investigadores podrán emplear herramientas de IA exclusivamente para objetivos de soporte editorial limitado, tales como la mejora de la redacción, corrección gramatical o normalización de formatos. Cualquier aplicación que trascienda este soporte básico debe ser declarada explícitamente en el manuscrito (sección de Agradecimientos o declaración específica).

  • Responsabilidad Intelectual: Los autores son responsables únicos de corroborar la precisión, lógica y veracidad de cualquier material generado o asistido por IA. El uso de estas tecnologías no exime de responsabilidad ante imprecisiones, datos falaces, alucinaciones de la IA o métodos deficientes de referenciación.

  • Restricción de Autoría: Los sistemas de IA generativa no poseen personería jurídica ni capacidad para asumir compromisos éticos; por lo tanto, no pueden figurar como autores o coautores.

  • Rigor en la Evidencia: El material asistido por IA no debe incorporar citas inexistentes, registros clínicos falsos o gráficas alteradas. Los autores deben asegurar que todas las fuentes citadas sean reales y comprobables. La IA no debe ser referenciada como una fuente de información científica primaria.

  • Transparencia Metodológica: Si la IA se utilizó para el procesamiento de datos biomédicos, creación de visualizaciones, modelados moleculares o flujos esenciales de la investigación, dicho uso debe detallarse con precisión en la sección de Metodología, garantizando la replicabilidad del estudio.

  • Consecuencias Éticas: La falta de notificación sobre el uso de recursos de IA, o su aprovechamiento indebido que comprometa la rectitud científica, será considerada una infracción grave a la ética editorial, resultando en el rechazo del manuscrito o la retractación del artículo.

Para revisores y editores

Los evaluadores externos y el cuerpo editorial tienen estrictamente prohibido el uso de IA generativa para confeccionar, estructurar o producir informes de arbitraje o dictámenes de publicación. Esta limitación protege la confidencialidad de los manuscritos, evita el manejo indebido de datos sensibles de pacientes y previene sesgos automatizados en la evaluación académica.

  • Confidencialidad: Cargar manuscritos no publicados en plataformas de IA externas constituye una violación de los derechos de autor y de la política de confidencialidad de la revista.

  • Criterio Humano: Los veredictos editoriales deben basarse en el juicio crítico del experto, apoyado en su trayectoria y ética profesional. Las herramientas de IA no sustituyen la toma de decisiones del equipo editorial.

Uso de herramientas automatizadas por parte de la revista

Sapiens in Medicine (SMed) podrá emplear instrumentos automatizados para la gestión y protección de la honestidad académica (detección de similitud, validación de referencias o escrutinio de integridad de imágenes). Todas estas herramientas operan bajo supervisión humana y sus reportes son interpretados por especialistas cualificados. El rol de estos sistemas es auxiliar y nunca desplaza el criterio editorial soberano.

Alineación con las políticas de Elsevier y COPE

Esta normativa se halla en total consonancia con las pautas de Elsevier y el Committee on Publication Ethics (COPE) respecto al uso de IA generativa, asumiendo los principios de transparencia, supervisión humana y responsabilidad en la autoría.

Para consultas adicionales, se remite a la normativa oficial de Elsevier: https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals