Política sobre el uso de inteligencia artificial (IA)
La Revista Evaluación de Riesgos Laborales (ERL) reconoce el uso creciente de herramientas basadas en inteligencia artificial (IA) en el ámbito académico y establece esta política para garantizar la transparencia, la integridad científica y la responsabilidad en los manuscritos enviados para evaluación y publicación.
1. Principios generales
El uso de herramientas de inteligencia artificial puede ser aceptable como apoyo en determinadas fases del proceso de elaboración de un manuscrito, siempre que se utilicen de forma ética, responsable y transparente.
La responsabilidad última del contenido, la originalidad, la exactitud y el cumplimiento de las normas éticas recae exclusivamente en los autores humanos.
2. Usos permitidos de la IA
Los autores pueden utilizar herramientas de IA, por ejemplo, para:
- Mejorar la redacción, gramática o estilo del texto.
- Asistir en la traducción de contenidos.
- Apoyar tareas auxiliares de organización o síntesis de información.
En todos los casos, los autores deben revisar y validar cuidadosamente el contenido generado o asistido por IA.
3. Usos no permitidos de la IA
No está permitido:
- Utilizar herramientas de IA para generar íntegramente el contenido científico sin supervisión humana.
- Presentar resultados, datos, análisis o conclusiones generados por IA como si fueran producto de una investigación original.
- Incluir sistemas de IA como autores o coautores del manuscrito.
- Utilizar IA para fabricar, falsificar o manipular datos, referencias o resultados.
4. Declaración del uso de IA
Cuando se haya utilizado inteligencia artificial en la preparación del manuscrito, los autores deberán declararlo de forma transparente en una nota incluida en el propio artículo (por ejemplo, en la sección de agradecimientos o metodología), indicando el tipo de herramienta utilizada y su finalidad.
5. IA en el proceso de revisión y edición
Los revisores y editores pueden utilizar herramientas de apoyo basadas en IA para tareas auxiliares (por ejemplo, detección de similitudes o apoyo lingüístico), siempre respetando la confidencialidad de los manuscritos y la normativa de protección de datos.
6. Incumplimiento
El uso indebido o no declarado de herramientas de IA podrá considerarse una mala práctica editorial y dará lugar a las acciones previstas en las políticas de ética, correcciones y retractaciones de la revista.
7. Actualización de la política
Dado el rápido desarrollo de las tecnologías de inteligencia artificial, esta política podrá ser actualizada periódicamente para adaptarse a nuevas recomendaciones y buenas prácticas en publicación científica.
8. Contacto
Para cualquier consulta relacionada con esta política, puede contactar con la revista en: info@evaluacionderiesgoslaborales.com