Políticas de uso de herramientas de IA (Inteligencia Artificial)

La Inteligencia Artificial y sus desarrollos en los llamados modelos de lenguaje amplio (LLM), Machine Learn, Automatización Generativa y ChatBots, como ChatGPT (y derivados como Copilot y Grok); Google Gemini y Meta AI se han extendido socialmente y han afectado las prácticas científicas; Tomando como ejemplo la integración del motor Copilot al software de edición de texto Microsoft Word (en su versión más reciente) para generar resúmenes automatizados, sugerencias o uso de modificaciones escritas directamente en el texto durante el proceso de mecanografía.

En este contexto, apoyada en estudios y recomendaciones realizadas por el Comité de Ética en Publicaciones (COPE), la Revista Alterjor define pautas relacionadas con el uso de la IA:


1.⁠ ⁠Las herramientas de IA pueden ser un recurso auxiliar para el desarrollo de textos e investigaciones científicas. Sin embargo, tienen limitaciones, sesgos y posibles problemas de objetividad y precisión. Por lo tanto, su uso, en la preparación de manuscritos, debe hacerse de manera considerada, crítica y responsable: por ejemplo, verificando la validez de la información y las referencias proporcionadas, así como verificando si hay plagio en los datos de la consulta.

2.⁠ ⁠En nombre de la transferencia científica, se deberá indicar claramente en los originales el uso de Herramientas de Inteligencia Artificial, con una descripción del tipo de IA utilizada, justificación y finalidad de su uso, preferentemente en el apartado metodológico del artículo. Como en relación con otras herramientas de investigación, los artículos pueden presentar reflexiones sobre las ventajas y limitaciones del recurso, en diferentes formas de uso, como generar ideas iniciales, recolectar datos, elaborar tablas y figuras, entre otras.

3.⁠ ⁠La autoría de obras y artículos científicos está relacionada con el pleno desarrollo de una creación intelectual, lo que corresponde a responsabilidades morales y jurídicas. Por lo tanto, sólo los seres humanos pueden asumir este rol y las aplicaciones de Automatización Generativa y ChatBots NO deben figurar ni incluirse como autores o coautores de trabajos enviados a la revista. En caso de detección de imitación del estilo de escritura de autores que no participan vehementemente en el manuscrito, el envío será automáticamente descartado debido a falsedad del autor mediada por tecnología de mimetismo.

4.⁠ ⁠La evaluación de trabajos científicos es también una tarea humana que implica preocupaciones sobre la confidencialidad de la relación entre la revista, los autores y los revisores. En este sentido, los editores de la revista y sus revisores no deberán utilizar herramientas de inteligencia artificial en las etapas de evaluación de los trabajos enviados a Revista Alterjor.

5. Revista Alterjor se reserva el derecho de utilizar software de detección de IA (intervención escrita generada por Inteligencia Artificial) como Clarivate para verificar y salvaguardar la originalidad de los manuscritos enviados en cualquier momento.