Política de Inteligencia Artificial
Uso de Inteligencia Artificial
Sapiens in Artificial Intelligence admite el empleo progresivo de recursos fundamentados en inteligencia artificial (IA), incluyendo modelos generativos y arquitecturas de lenguaje extenso, dentro del quehacer investigativo y la comunicación técnica. Con el fin de salvaguardar la rectitud científica, la claridad en la gestión y la fiabilidad del registro documental, los participantes del flujo editorial deben acatar las normas que rigen el aprovechamiento consciente, ético y abierto de la IA y los sistemas automatizados.
La implementación de instrumentos de IA no reemplaza, bajo ningún concepto, el compromiso humano. Autores, evaluadores y responsables editoriales mantienen la total obligación sobre los materiales exhibidos, los juicios emitidos y las resoluciones editoriales tomadas en cada fase del itinerario de publicación.
Para autores
Los investigadores podrán emplear utilidades apoyadas en inteligencia artificial meramente para objetivos restringidos y válidos, tales como el perfeccionamiento de la redacción, la subsanación gramatical, la normalización de formatos o el incremento de la fluidez del texto. Cualquier aplicación de IA que sobrepase el soporte editorial elemental debe ser reportada de forma patente en el documento, ya sea mediante la sección de Agradecimientos o en una declaración específica para tal propósito.
Los autores poseen la responsabilidad total de corroborar la veracidad, novedad, lógica y certidumbre de cualquier material elaborado o apoyado por utilidades de IA. El aprovechamiento de tales tecnologías no libera de la obligación ante imprecisiones, faltas, datos falaces, materiales inventados o métodos deficientes de referenciación.
Los sistemas de IA generativa no poseen las facultades para la autoría científica y, por consiguiente, no deben figurar como autores o coautores. Los mecanismos de IA carecen de capacidad para asumir compromisos intelectuales o éticos respecto a un producto científico.
El material apoyado o producido por IA no debe incorporar citas inexistentes, registros falsos, gráficas alteradas o conclusiones inventadas. Los autores deben asegurar que todas las bases citadas sean reales, comprobables y debidamente acreditadas. Los recursos de IA no deben ser referenciados como fuentes de información científica primaria.
Cuando se use la IA para el procesamiento de datos, creación de visualizaciones, modelados, diseño de gráficos u otros flujos esenciales, tal uso debe detallarse con precisión en la sección de Metodología, aportando los datos necesarios para garantizar la transparencia y replicabilidad del hallazgo. Cualquier consecuencia ética, jurídica o de propiedad intelectual derivada de esta práctica será obligación exclusiva de los autores.
La falta de notificación sobre el uso de recursos de IA, o su aprovechamiento indebido que dañe la rectitud científica, podrá considerarse una infracción crítica a la ética editorial, provocando el rechazo del texto, la solicitud de enmiendas o la desestimación del artículo.
Para revisores y editores
Los evaluadores externos y el cuerpo editorial no deben usar utilidades de IA generativa para confeccionar, estructurar o producir de manera integral reportes de arbitraje, juicios de valor o dictámenes de publicación. Esta limitación busca proteger el carácter privado de los textos, evitar el manejo indebido de datos restringidos y prevenir juicios vagos, parcializados o faltos de profundidad académica.
De forma excepcional, quienes evalúan o editan podrán usar la IA únicamente para soporte editorial limitado, como la revisión de estilo de sus propias notas, siempre que esto no conlleve subir datos privados a plataformas externas y se notifique a la revista si se considera pertinente.
Los veredictos editoriales deben basarse en el criterio académico humano, apoyado en la trayectoria profesional, el compromiso ético y la mirada crítica. Las utilidades de IA no deben usarse para reemplazar ni mecanizar la toma de decisiones del equipo editorial.
Uso de herramientas automatizadas por parte de la revista
La revista podrá emplear instrumentos automatizados con propósitos de gestión y protección de la honestidad académica, tales como el rastreo de plagio, el escrutinio de paridad textual, la validación de bibliografía o el examen de gráficas. Todas estas utilidades funcionan bajo supervisión humana, y sus reportes son valorados e interpretados por especialistas editoriales cualificados.
El aprovechamiento de recursos automatizados posee un rol auxiliar y no desplaza el criterio editorial. Cualquier detección proveniente de estos filtros será examinada de forma situada y particular, brindando a los autores la opción de presentar pruebas o descargos cuando sea necesario.
Alineación con las políticas de Elsevier
Esta normativa se halla totalmente coordinada con las pautas de Elsevier respecto al uso de inteligencia artificial e IA generativa en la edición científica, asumiendo los principios de transparencia, compromiso humano, rectitud en la autoría y comunicación consciente.
Para consultas adicionales, se sugiere revisar la normativa oficial de Elsevier sobre el aprovechamiento de IA e IA generativa en publicaciones científicas:
https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals
