POLÍTICA DE INTELIGENCIA ARTIFICIAL
Uso de Inteligencia Artificial
Sapiens Law and Justice (SLJ), ISSN 3091-1656, reconoce el uso progresivo de herramientas basadas en inteligencia artificial (IA), incluyendo modelos generativos y arquitecturas de lenguaje de gran escala, dentro del quehacer investigativo y la comunicación técnica. Con el fin de salvaguardar la integridad científica, la transparencia en los procesos editoriales y la fiabilidad del registro académico, todos los participantes del flujo editorial deben cumplir con los principios que regulan el uso responsable, ético y transparente de la IA y los sistemas automatizados.
El uso de herramientas de IA no sustituye, bajo ninguna circunstancia, la responsabilidad humana. Autores, revisores y editores mantienen la plena responsabilidad sobre los contenidos presentados, los juicios emitidos y las decisiones editoriales adoptadas en cada fase del proceso de publicación.
Para autores
Los autores podrán emplear herramientas de IA únicamente para fines limitados y legítimos, tales como mejorar la redacción, corregir aspectos gramaticales, estandarizar formatos o aumentar la claridad del texto. Cualquier uso de IA que exceda este apoyo editorial básico debe ser declarado explícitamente en el manuscrito, ya sea en la sección de Agradecimientos o en una declaración específica.
Los autores son plenamente responsables de verificar la exactitud, originalidad, coherencia y validez de cualquier contenido generado o asistido por herramientas de IA. El uso de estas tecnologías no exime de responsabilidad frente a errores, imprecisiones, datos falsos, contenidos fabricados o prácticas inadecuadas de citación.
Los sistemas de IA generativa no califican como autores científicos y, por lo tanto, no deben figurar como autores o coautores. Las herramientas de IA carecen de la capacidad de asumir responsabilidad intelectual o ética sobre una obra científica.
El contenido generado o asistido por IA no debe incluir citas inexistentes, referencias falsas, figuras manipuladas o conclusiones inventadas. Los autores deben garantizar que todas las fuentes citadas sean reales, verificables y correctamente referenciadas. Las herramientas de IA no deben citarse como fuentes primarias de información científica.
Cuando la IA se utilice para el procesamiento de datos, generación de visualizaciones, modelado, diseño gráfico u otras actividades centrales de la investigación, su uso debe describirse detalladamente en la sección de Metodología, proporcionando la información necesaria para asegurar la transparencia y reproducibilidad. Cualquier implicación ética, legal o de propiedad intelectual derivada de su uso será responsabilidad exclusiva de los autores.
La omisión en la declaración del uso de IA o su utilización indebida que comprometa la integridad científica podrá considerarse una falta grave a la ética editorial, lo que puede derivar en el rechazo del manuscrito, solicitud de correcciones o retiro del artículo.
Para revisores y editores
Los revisores externos y los miembros del equipo editorial no deben utilizar herramientas de IA generativa para redactar, estructurar o generar de manera sustancial informes de evaluación, dictámenes o decisiones editoriales. Esta restricción busca proteger la confidencialidad de los manuscritos, evitar el uso indebido de información sensible y garantizar evaluaciones rigurosas, imparciales y fundamentadas.
De manera excepcional, los revisores y editores podrán emplear herramientas de IA únicamente como apoyo limitado, por ejemplo, para mejorar la claridad de sus propias notas, siempre que no se cargue información confidencial en plataformas externas y que dicho uso sea informado a la revista cuando corresponda.
Las decisiones editoriales deben basarse en el juicio académico humano, sustentado en la experiencia, la responsabilidad ética y el análisis crítico. Las herramientas de IA no deben sustituir ni automatizar la toma de decisiones editoriales.
Uso de herramientas automatizadas por parte de la revista
La revista podrá utilizar herramientas automatizadas como apoyo en la gestión editorial y en la garantía de la integridad académica, incluyendo la detección de plagio, análisis de similitud, validación de referencias y evaluación de elementos gráficos. Estas herramientas operan bajo supervisión humana y sus resultados son interpretados por profesionales editoriales cualificados.
El uso de sistemas automatizados tiene un carácter complementario y no sustituye el criterio editorial. Cualquier resultado obtenido será evaluado de manera contextual, brindando a los autores la oportunidad de responder o aclarar cuando sea necesario.
Alineación con las políticas de Elsevier
Esta política se encuentra alineada con las directrices de Elsevier sobre el uso de inteligencia artificial e IA generativa en la publicación científica, adoptando principios de transparencia, responsabilidad humana, integridad en la autoría y comunicación responsable.
Para mayor información, se recomienda consultar la política oficial de Elsevier sobre el uso de IA generativa en publicaciones científicas:
https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals