Política sobre el uso de inteligencia artificial (IA)

La Revista Evaluación de Riesgos Laborales (ERL) reconoce el uso creciente de herramientas basadas en inteligencia artificial (IA) en el ámbito académico y establece esta política para garantizar la transparencia, la integridad científica y la responsabilidad en los manuscritos enviados para evaluación y publicación.


1. Principios generales

El uso de herramientas de inteligencia artificial puede ser aceptable como apoyo en determinadas fases del proceso de elaboración de un manuscrito, siempre que se utilicen de forma ética, responsable y transparente.

La responsabilidad última del contenido, la originalidad, la exactitud y el cumplimiento de las normas éticas recae exclusivamente en los autores humanos.


2. Usos permitidos de la IA

Los autores pueden utilizar herramientas de IA, por ejemplo, para:

  • Mejorar la redacción, gramática o estilo del texto.
  • Asistir en la traducción de contenidos.
  • Apoyar tareas auxiliares de organización o síntesis de información.

En todos los casos, los autores deben revisar y validar cuidadosamente el contenido generado o asistido por IA.


3. Usos no permitidos de la IA

No está permitido:

  • Utilizar herramientas de IA para generar íntegramente el contenido científico sin supervisión humana.
  • Presentar resultados, datos, análisis o conclusiones generados por IA como si fueran producto de una investigación original.
  • Incluir sistemas de IA como autores o coautores del manuscrito.
  • Utilizar IA para fabricar, falsificar o manipular datos, referencias o resultados.

4. Declaración del uso de IA

Cuando se haya utilizado inteligencia artificial en la preparación del manuscrito, los autores deberán declararlo de forma transparente en una nota incluida en el propio artículo (por ejemplo, en la sección de agradecimientos o metodología), indicando el tipo de herramienta utilizada y su finalidad.


5. IA en el proceso de revisión y edición

Los revisores y editores pueden utilizar herramientas de apoyo basadas en IA para tareas auxiliares (por ejemplo, detección de similitudes o apoyo lingüístico), siempre respetando la confidencialidad de los manuscritos y la normativa de protección de datos.


6. Incumplimiento

El uso indebido o no declarado de herramientas de IA podrá considerarse una mala práctica editorial y dará lugar a las acciones previstas en las políticas de ética, correcciones y retractaciones de la revista.


7. Actualización de la política

Dado el rápido desarrollo de las tecnologías de inteligencia artificial, esta política podrá ser actualizada periódicamente para adaptarse a nuevas recomendaciones y buenas prácticas en publicación científica.


8. Contacto

Para cualquier consulta relacionada con esta política, puede contactar con la revista en: info@evaluacionderiesgoslaborales.com

Esta web utiliza cookies propias o de terceros para ofrecerte un mejor servicio. Al navegar por la web, aceptas el uso que hacemos de ellas. Puedes cambiar la configuración de cookies en tu navegador en cualquier momento.
OK