Políticas de uso de herramientas de IA (Inteligencia Artificial)
La Inteligencia Artificial y sus desarrollos en los llamados modelos de lenguaje amplio (LLM), Machine Learn, Automatización Generativa y ChatBots, como ChatGPT (y derivados como Copilot y Grok); Google Gemini y Meta AI se han extendido socialmente y han afectado las prácticas científicas; Tomando como ejemplo la integración del motor Copilot al software de edición de texto Microsoft Word (en su versión más reciente) para generar resúmenes automatizados, sugerencias o uso de modificaciones escritas directamente en el texto durante el proceso de mecanografía.
En este contexto, apoyada en estudios y recomendaciones realizadas por el Comité de Ética en Publicaciones (COPE), la Revista Alterjor define pautas relacionadas con el uso de la IA:
1. Las herramientas de IA pueden ser un recurso auxiliar para el desarrollo de textos e investigaciones científicas. Sin embargo, tienen limitaciones, sesgos y posibles problemas de objetividad y precisión. Por lo tanto, su uso, en la preparación de manuscritos, debe hacerse de manera considerada, crítica y responsable: por ejemplo, verificando la validez de la información y las referencias proporcionadas, así como verificando si hay plagio en los datos de la consulta.
2. En nombre de la transferencia científica, se deberá indicar claramente en los originales el uso de Herramientas de Inteligencia Artificial, con una descripción del tipo de IA utilizada, justificación y finalidad de su uso, preferentemente en el apartado metodológico del artículo. Como en relación con otras herramientas de investigación, los artículos pueden presentar reflexiones sobre las ventajas y limitaciones del recurso, en diferentes formas de uso, como generar ideas iniciales, recolectar datos, elaborar tablas y figuras, entre otras.
3. La autoría de obras y artículos científicos está relacionada con el pleno desarrollo de una creación intelectual, lo que corresponde a responsabilidades morales y jurídicas. Por lo tanto, sólo los seres humanos pueden asumir este rol y las aplicaciones de Automatización Generativa y ChatBots NO deben figurar ni incluirse como autores o coautores de trabajos enviados a la revista. En caso de detección de imitación del estilo de escritura de autores que no participan vehementemente en el manuscrito, el envío será automáticamente descartado debido a falsedad del autor mediada por tecnología de mimetismo.
4. La evaluación de trabajos científicos es también una tarea humana que implica preocupaciones sobre la confidencialidad de la relación entre la revista, los autores y los revisores. En este sentido, los editores de la revista y sus revisores no deberán utilizar herramientas de inteligencia artificial en las etapas de evaluación de los trabajos enviados a Revista Alterjor.
5. Revista Alterjor se reserva el derecho de utilizar software de detección de IA (intervención escrita generada por Inteligencia Artificial) como Clarivate para verificar y salvaguardar la originalidad de los manuscritos enviados en cualquier momento.












