Políticas de uso de ferramentas de IA (Inteligência Artificial)
A Inteligência Artificial e seus desdobramentos nos chamados modelos de linguagem ampla (LLM), Machine Learn, Automação Generativa e ChatBots, como o ChatGPT (e derivados como Copilot e Grok), Google Gemini e Meta AI, têm se disseminado socialmente e afetado as práticas científicas; tomando-se como exemplo a integração do mecanismo Copilot ao software de edição de textos Microsoft Word (em sua versão mais recente) para geração de sumários automatizados, sugestões ou emprego de modificação na escrita diretamente no texto durante o processo de digitação.
Nesse contexto, apoiada em estudos e recomendações feitos pelo Committee on Publication Ethics (COPE), a Revista Alterjor define as diretrizes relacionadas ao uso da AI (IA):
1. As ferramentas de IA podem constituir um recurso auxiliar para o desenvolvimento de textos e pesquisas científicas. Entretanto, possuem limitações, vieses, possíveis problemas de objetividade e acurácia. Desse modo, seu uso, na elaboração de manuscritos, deve ser feito de maneira ponderada, crítica e responsável: por exemplo, a partir da checagem da validade de informações e referências fornecidas, bem como pela verificação que permita perceber se há plágios em dados de consultas.
2. Em nome da transferência científica, o uso de Ferramentas de Inteligência Artificial deve ser claramente indicado nos originais, com a descrição do tipo de IA utilizada, justificativa e propósito de uso, preferencialmente na seção metodológica do artigo. Como em relação a outras ferramentas de pesquisa, os artigos poderão apresentar reflexões sobre as vantagens e limitações do recurso, em diferentes formas de uso, como a geração de ideias iniciais, coletas de dados, elaboração de tabelas e figuras, entre outras.
3. A autoria de trabalhos e artigos científicos está relacionada com o desenvolvimento pleno de uma criação intelectual, ao qual correspondem responsabilidades morais e legais. Assim, apenas seres humanos podem assumir esse papel e as aplicações de Automação Generativa e ChatBots não devem ser listados nem incluídos como autores ou coautores de trabalhos submetidos à revista. Em caso de detecção de imitação do estilo de redação de autores veementemente não participantes do manuscrito, a submissão será automaticamente descartada por falsidade autoral mediada por tecnologia mimetizadora.
4. A avaliação de trabalhos científicos também é uma tarefa humana que envolve preocupações com a confidencialidade da relação entre revista, autores e revisores. Nesse sentido, os editores da revista e seus revisores não devem utilizar ferramentas de inteligência artificial em etapas avaliativas dos trabalhos enviados a Revista Alterjor.
5. A Revista Alterjor se reserva ao direito de utilizar softwares detectores de IA (intervenção escrita gerada por Inteligência Artificial) como o Clarivate para averiguar e salvaguardar a condição de ineditismo dos manuscritos submetidos a qualquer momento.












