

Política de uso de tecnologías asistidas por IA
INVESALUD: Journal of Research & Health Sciences reconoce el impacto creciente de la inteligencia artificial (IA) generativa y de las tecnologías asistidas por IA en la investigación académica, la práctica clínica y la comunicación científica. En este contexto, la revista establece la presente política con el fin de regular su uso responsable, garantizando la integridad académica, la transparencia, la originalidad y el cumplimiento de los principios éticos en todas las etapas del proceso editorial.
Uso permitido de tecnologías asistidas por IA
El uso de herramientas de IA generativa y tecnologías asistidas por IA es aceptable únicamente como apoyo, bajo las siguientes condiciones:
-
Asistencia en redacción y edición:
Los autores pueden utilizar herramientas de IA para mejorar la claridad del texto, la corrección gramatical, el estilo académico o la traducción de manuscritos. No obstante, el contenido final debe ser revisado, validado y asumido íntegramente por los autores. -
Análisis de datos y procesamiento de información:
Se permite el uso de IA para análisis estadístico, procesamiento de datos, minería de información, clasificación de textos o apoyo metodológico en revisiones sistemáticas y estudios bibliométricos, siempre que se describan claramente las herramientas utilizadas y los procedimientos aplicados. -
Gestión de referencias y citas:
Pueden emplearse gestores de referencias que incorporen IA; sin embargo, los autores son responsables de verificar la exactitud, pertinencia y existencia real de todas las fuentes citadas.
Restricciones en el uso de IA
Con el fin de preservar los principios de originalidad, responsabilidad científica y ética en la investigación, queda expresamente prohibido:
-
El uso de IA para generar contenido académico sustantivo sin supervisión humana:
No se aceptarán manuscritos en los que la IA haya sido utilizada para redactar total o parcialmente secciones esenciales (introducción, metodología, resultados, discusión o conclusiones) sin intervención crítica y validación explícita de los autores. -
La fabricación, alteración o manipulación de datos:
Cualquier intento de generar datos ficticios, resultados inexistentes, referencias falsas o manipulación de información mediante IA será considerado una falta grave de ética académica. -
La atribución de autoría a sistemas de IA:
Las herramientas de IA no pueden ser reconocidas como autoras ni coautoras, ya que no pueden asumir responsabilidad intelectual, ética ni legal sobre los contenidos publicados.
Declaración de uso de IA
Para garantizar la transparencia editorial, los autores deberán declarar explícitamente el uso de tecnologías asistidas por IA en la sección de Metodología o Agradecimientos, indicando:
-
Las herramientas empleadas (por ejemplo: ChatGPT, Copilot, Gemini, DALL·E, Grammarly u otras).
-
El propósito específico del uso (edición de texto, análisis de datos, apoyo metodológico, traducción, entre otros).
Responsabilidad de los autores
Los autores son plenamente responsables del contenido presentado en sus manuscritos, incluso cuando hayan utilizado herramientas de IA en alguna etapa del proceso. En este sentido, se espera que:
-
Revisen y validen críticamente toda la información generada con apoyo de IA.
-
Eviten la dependencia excesiva de estas tecnologías en la producción intelectual.
-
Cumplan estrictamente con las normas de integridad académica, ética en investigación y buenas prácticas editoriales.
Incumplimiento de la política
El incumplimiento de esta política podrá dar lugar a:
-
Solicitud de aclaraciones o revisión adicional del manuscrito.
-
Rechazo del artículo en caso de detectarse un uso inadecuado o no declarado de tecnologías asistidas por IA.
-
Aplicación de las medidas editoriales correspondientes según las políticas éticas de la revista.
Esta política será revisada y actualizada periódicamente, en función de los avances tecnológicos y de las recomendaciones internacionales en publicación científica.








