Potencialidades e limites no uso da Inteligência Artifical

O Journal of Physical Education está comprometido com a excelência, integridade e transparência na publicação de pesquisas científicas. Reconhecemos o crescente papel da inteligência artificial (IA) na pesquisa e na comunicação científica e incentivamos seu uso responsável e ético por autores, revisores e editores.

Uso de Inteligência Artificial

O Journal of Physical Education utiliza ferramentas de inteligência artificial para otimizar processos editoriais, como triagem inicial de manuscritos, verificação de similaridade e detecção de plágio, além de auxiliar na análise de dados , na revisão por pares e no incremento da qualidade textual de suas diretrizes e políticas editoriais. Acreditamos que a IA pode contribuir significativamente para a eficiência e a qualidade do processo editorial.

Recomendação aos Autores

Encorajamos os autores a utilizarem ferramentas de IA em suas pesquisas e na preparação de manuscritos, desde que o uso dessas tecnologias seja claramente descrito e justificado no texto. Isso inclui, mas não se limita a, análises estatísticas, mineração de dados, e geração de gráficos. A transparência no uso de IA é essencial para a reprodutibilidade e a credibilidade da pesquisa científica.

Recomendação aos Revisores

Os revisores são incentivados a utilizar ferramentas de IA para auxiliar na avaliação dos manuscritos, como softwares de verificação de dados e de análise de texto. No entanto, a decisão final deve sempre ser feita com base no julgamento humano, considerando o contexto e a qualidade da pesquisa apresentada.

Princípios Éticos

O uso de IA no Journal of Physical Education é guiado pelos seguintes princípios éticos, em alinhamento com as recomendações da UNESCO e do COPE para o uso dos autores redação dos artigos e dos editores na tomada de decisões editoriais no periódico: 

  1. Transparência: O uso de IA deve ser claramente comunicado a todos os envolvidos no processo editorial. Autores devem descrever o uso de IA em seus manuscritos, e editores devem informar os revisores sobre quaisquer ferramentas de IA utilizadas na triagem ou avaliação de submissões.

  2. Responsabilidade: Editores e revisores são responsáveis por garantir que o uso de IA seja ético e não introduza vieses ou erros no processo editorial. Todas as decisões críticas devem ser validadas por revisores humanos.

  3. Precisão e Confiabilidade: Ferramentas de IA devem ser validadas para assegurar que produzem resultados precisos e confiáveis. Erros ou vieses introduzidos pela IA devem ser identificados e corrigidos.

  4. Equidade e Imparcialidade: A utilização de IA não deve introduzir discriminação ou vieses nos processos de revisão e publicação. As ferramentas de IA devem ser avaliadas regularmente para garantir que promovam a equidade.

  5. Privacidade e Confidencialidade: A proteção da privacidade dos autores, revisores e participantes de estudos é uma prioridade. As tecnologias de IA devem respeitar a confidencialidade das informações pessoais e sensíveis.

  6. Supervisão Humana: Decisões críticas no processo editorial devem ser revisadas e aprovadas por editores humanos, garantindo a integridade e a qualidade das publicações.