Potencialidades e limites no uso da Inteligência Artifical
O Journal of Physical Education está comprometido com a excelência, integridade e transparência na publicação de pesquisas científicas. Reconhecemos o crescente papel da inteligência artificial (IA) na pesquisa e na comunicação científica e incentivamos seu uso responsável e ético por autores, revisores e editores.
Uso de Inteligência Artificial
O Journal of Physical Education utiliza ferramentas de inteligência artificial para otimizar processos editoriais, como triagem inicial de manuscritos, verificação de similaridade e detecção de plágio, além de auxiliar na análise de dados , na revisão por pares e no incremento da qualidade textual de suas diretrizes e políticas editoriais. Acreditamos que a IA pode contribuir significativamente para a eficiência e a qualidade do processo editorial.
Recomendação aos Autores
Encorajamos os autores a utilizarem ferramentas de IA em suas pesquisas e na preparação de manuscritos, desde que o uso dessas tecnologias seja claramente descrito e justificado no texto. Isso inclui, mas não se limita a, análises estatísticas, mineração de dados, e geração de gráficos. A transparência no uso de IA é essencial para a reprodutibilidade e a credibilidade da pesquisa científica.
Recomendação aos Revisores
Os revisores são incentivados a utilizar ferramentas de IA para auxiliar na avaliação dos manuscritos, como softwares de verificação de dados e de análise de texto. No entanto, a decisão final deve sempre ser feita com base no julgamento humano, considerando o contexto e a qualidade da pesquisa apresentada.
Princípios Éticos
O uso de IA no Journal of Physical Education é guiado pelos seguintes princípios éticos, em alinhamento com as recomendações da UNESCO e do COPE para o uso dos autores redação dos artigos e dos editores na tomada de decisões editoriais no periódico:
-
Transparência: O uso de IA deve ser claramente comunicado a todos os envolvidos no processo editorial. Autores devem descrever o uso de IA em seus manuscritos, e editores devem informar os revisores sobre quaisquer ferramentas de IA utilizadas na triagem ou avaliação de submissões.
-
Responsabilidade: Editores e revisores são responsáveis por garantir que o uso de IA seja ético e não introduza vieses ou erros no processo editorial. Todas as decisões críticas devem ser validadas por revisores humanos.
-
Precisão e Confiabilidade: Ferramentas de IA devem ser validadas para assegurar que produzem resultados precisos e confiáveis. Erros ou vieses introduzidos pela IA devem ser identificados e corrigidos.
-
Equidade e Imparcialidade: A utilização de IA não deve introduzir discriminação ou vieses nos processos de revisão e publicação. As ferramentas de IA devem ser avaliadas regularmente para garantir que promovam a equidade.
-
Privacidade e Confidencialidade: A proteção da privacidade dos autores, revisores e participantes de estudos é uma prioridade. As tecnologias de IA devem respeitar a confidencialidade das informações pessoais e sensíveis.
-
Supervisão Humana: Decisões críticas no processo editorial devem ser revisadas e aprovadas por editores humanos, garantindo a integridade e a qualidade das publicações.