Política de uso de Inteligencia Artificial

Política de uso de Inteligencia Artificial

Fundamentos éticos generales

La política de uso de Inteligencia Artificial (IA) de la Revista «La Universidad» se basa en marcos internacionales como la Declaración de Heredia (2024) y la Recomendación de la UNESCO sobre la ética de la inteligencia artificial (2021).

Los principios rectores son los siguientes:

Transparencia: toda persona involucrada en la producción, revisión o edición de manuscritos debe declarar claramente cuándo, cómo y con qué herramientas se utilizó IA. La transparencia incluye reportar el modelo, la versión, la fecha y la finalidad de uso.

Integridad científica: el empleo de IA no puede comprometer la originalidad, rigurosidad ni calidad de los manuscritos. Se rechaza el plagio, la manipulación de datos o la generación de información engañosa.

Responsabilidad humana: la IA solo debe considerarse un apoyo; las decisiones críticas y la validación final corresponden exclusivamente a personas. Ningún sistema automatizado sustituirá la responsabilidad de autores, revisores o editores.

Beneficio social y sostenibilidad: el uso de IA en la producción académica debe contribuir positivamente al conocimiento científico y respetar principios de equidad, inclusión y sostenibilidad social y ambiental.

Roles y responsabilidades

Autores

Declaración obligatoria del uso de IA: en la carta jurada de envío y en la sección del manuscrito «Declaraciones éticas», los autores deben indicar si han utilizado herramientas de IA y especificar: nombre del modelo o software (ej. ChatGPT-4, MidJourney, DALL·E), versión y fecha de uso, tarea realizada (redacción, traducción, análisis de datos, elaboración de figuras, etc.), prompt o instrucción específica, cuando sea relevante.

Propiedad intelectual: los autores no deben usar IA con materiales sujetos a derechos de autor sin autorización previa.

Revisión humana final: los fragmentos generados por IA deben ser revisados, corregidos y asumidos bajo la responsabilidad de los autores. La rendición de cuentas es siempre humana.

Revisores

Declaración de herramientas utilizadas: si un revisor emplea IA como apoyo (para verificar estilo, detectar sesgos o inconsistencias), debe mencionarlo explícitamente en la guía para revisores en la sección «Declaraciones éticas».

Juicio crítico y autonomía: la IA no debe sustituir la valoración personal ni las decisiones del revisor. El criterio humano sigue siendo la base para la aceptación, rechazo o solicitud de correcciones.

Confidencialidad: el revisor no debe introducir en sistemas de IA fragmentos inéditos de manuscritos que puedan vulnerar la confidencialidad del proceso editorial.

Editores y Comité Editorial

Política del uso de IA: este documento debe estar disponible en la página web de la revista y en las instrucciones para autores y revisores.

Capacitación continua: los editores y el personal editorial deben recibir formación sobre buenas prácticas de uso de IA y sobre la aplicación de esta política.

Supervisión y coherencia ética: las decisiones finales (aceptar, rechazar, solicitar correcciones) siempre estarán a cargo de una persona. La IA solo puede apoyar tareas secundarias (detección de plagio, asistencia de estilo, verificación de citas).

Principios éticos clave

En consonancia con la UNESCO (2021) y la Declaración de Heredia (2024), se establecen los siguientes principios:

Transparencia y explicabilidad: lectores, autores y revisores deben saber cuándo y cómo se utilizó IA en el proceso editorial.

Responsabilidad y rendición de cuentas: autores, revisores y editores mantienen la responsabilidad sobre los resultados, incluso cuando se haya utilizado IA como apoyo.

Equidad y no discriminación: el uso de IA debe prevenir sesgos, evitar discriminación y promover un acceso justo al conocimiento.

Seguridad y fiabilidad: los contenidos generados con IA deben revisarse para descartar errores factuales, desinformación o lenguaje inapropiado.

Sostenibilidad y beneficio social: la aplicación de IA debe orientarse a fortalecer la producción científica en beneficio de la sociedad, evitando impactos negativos en comunidades, medio ambiente o derechos humanos.

Supervisión humana permanente: ninguna publicación se considerará válida sin revisión y aprobación final de personas responsables.

Directrices prácticas y ejemplos

Tabla de requisitos por fase editorial

Fase

Requisitos clave

Declaración

Declarar uso de IA (modelo, fecha, tarea, prompt si aplica)

Revisión

Uso de IA solo como apoyo; declaración obligatoria; confidencialidad garantizada

Edición-supervisión humana de todo el proceso

Garantía de equidad y reproducibilidad

Publicación

Informar con transparencia a los lectores sobre el uso de IA en la investigación

Formación continua

Capacitación y actualización permanente en buenas prácticas de IA

Ejemplo para autores

 

«Se utilizó ChatGPT-4 (OpenAI) el 1 de mayo de 2025 para elaborar un resumen de la sección de resultados. Prompt: “Resume los hallazgos principales en 150 palabras”. El texto fue revisado, editado y aprobado por el autor Juan Pérez, quien asume plena responsabilidad sobre el contenido»

 

Vigilancia, revisión y actualización

Monitoreo continuo: el Comité Editorial evaluará el cumplimiento de esta política y los casos en que el uso de IA genere conflictos éticos o problemas de integridad.

Actualización periódica: la política será revisada al menos una vez al año o cuando aparezcan nuevas normativas, herramientas o riesgos asociados a la IA.

Mecanismos de retroalimentación: autores, revisores y lectores podrán enviar comentarios o sugerencias de mejora para mantener la política vigente, transparente y participativa.

Límites del uso de IA

La IA no puede sustituir la autoría. Solo se acepta como apoyo técnico. Está prohibido emplear IA para:

  • Fabricar o manipular datos.
  • Generar resultados o gráficos falsos.
  • Suplantar la escritura completa de secciones sustantivas del artículo sin intervención crítica del autor.
  • Usar materiales con derechos de autor sin la debida autorización.
  • Toda contribución de IA debe ser revisada y validada por personas; la rendición de cuentas recae únicamente en los autores.
  • La revista se reserva el derecho de rechazar manuscritos que incumplan estos lineamientos o que presenten indicios de dependencia excesiva de IA.

 

La Revista «La Universidad» adopta esta política de uso de IA como marco regulador que:

  • Reafirma la trazabilidad, claridad y reproducibilidad señaladas en la Declaración de Heredia (2024).
  • Aplica los valores universales de la Recomendación de la UNESCO (2021): derechos humanos, equidad, sostenibilidad, explicabilidad y supervisión humana.

De esta manera, la revista asegura que el uso de IA en la producción científica sea un recurso complementario, ético, transparente y al servicio del conocimiento.