Por Dr. Cristian Sepúlveda-Irribarra / 18 de septiembre de 2025
Resumen
La llegada abrupta de la inteligencia artificial generativa en la academia presenta una dualidad: por un lado, una poderosa herramienta para acelerar la investigación; por otro, un desafío ético que pone a prueba la integridad científica. Este artículo aborda esta encrucijada, ofreciendo un análisis exhaustivo para navegar el uso de la IA en la producción de conocimiento. A través de un enfoque mixto, se consolida un marco de referencia que integra las directrices de las principales editoriales científicas (como ICMJE, Elsevier y Nature) con los resultados de una encuesta aplicada a un grupo de académicos.
El análisis cuantitativo de la encuesta revela un claro consenso en la aceptación de la IA como asistente para tareas de apoyo, como la mejora gramatical y la organización de referencias, consideradas prácticas éticas por una abrumadora mayoría. Sin embargo, el panorama se vuelve complejo en las «zonas grises», donde la IA participa en la generación de contenido sustantivo. La redacción de resúmenes (abstracts) divide a la comunidad, mientras que la generación de secciones de resultados y discusión es mayoritariamente rechazada por considerarse una abdicación de la responsabilidad intelectual del autor. El estudio también identifica una línea roja infranqueable: el uso de IA en la revisión por pares, visto como una grave violación de la confidencialidad.
Complementariamente, el análisis cualitativo de los comentarios de los investigadores subraya un consenso pragmático emergente, basado en principios clave como la transparencia radical (declarar siempre su uso), la responsabilidad humana ineludible y la verificación rigurosa de toda información generada por la IA. El artículo concluye sintetizando estos hallazgos en un marco de cinco principios clave y presentando una selección de herramientas recomendadas, con el fin de equipar a los investigadores para una integración ética, responsable y eficaz de la inteligencia artificial en su quehacer diario.
______________________________
La inteligencia artificial generativa ha irrumpido en el mundo académico con la fuerza de una revolución. Herramientas que pueden redactar, resumir y analizar texto en segundos están ahora al alcance de todos, democratizando capacidades antes reservadas para procesos largos y laboriosos. Sin embargo, esta nueva capacidad plantea una pregunta fundamental y urgente para cualquier investigador, docente o estudiante: ¿Dónde trazamos la línea entre un uso eficiente que acelera el conocimiento y un atajo no ético que compromete la integridad académica?
Esta no es una pregunta con una respuesta sencilla, y la velocidad de adopción de estas tecnologías supera con creces la creación de normativas claras. Para explorar sus matices, recientemente se generó un espacio de diálogo con un grupo de académicos y se realizó una encuesta sobre diversas prácticas. Este artículo profundiza en los resultados de esa encuesta, presentando un análisis cuantitativo para construir un mapa detallado que nos permita navegar este nuevo territorio, diferenciando claramente entre el apoyo legítimo y la sustitución del juicio humano.
Un Marco Ético General: Principios y Prácticas
A continuación se presenta un marco ético detallado, consolidando las directrices de las principales editoriales y asociaciones científicas.
Principios generales
- Transparencia y trazabilidad del uso de IA. Declarar explícitamente qué herramienta se utilizó, para qué y en qué fase del proceso (p. ej., apoyo lingüístico, síntesis preliminar, organización de referencias). La declaración debe permitir auditoría y verificación por pares. (Fuentes: ICMJE; Elsevier; Nature Portfolio).
- Autoría y responsabilidad humana. La IA no cumple criterios de autoría; la responsabilidad intelectual recae en personas que pueden responder por métodos, resultados y conclusiones. (Fuentes: COPE; Nature Portfolio).
- Control y revisión crítica. Toda salida de IA debe ser revisada por el equipo investigador; se exige juicio experto para evitar errores, sesgos o inferencias no justificadas. (Fuentes: ICMJE—actualización 2024; Elsevier—política IA).
- Calidad y verificabilidad de las referencias y afirmaciones. No se aceptan referencias “fabricadas” ni citas inverificables; las referencias deben contrastarse con fuentes primarias o bases confiables. (Fuentes: ICMJE—sección de citación; Elsevier—política IA).
- Alineación con políticas editoriales e institucionales. El uso de IA debe cumplir las instrucciones para autores y políticas de integridad de cada revista o editorial. (Fuentes: ICMJE; Elsevier; IEEE).
- Protección de datos y confidencialidad. Evitar exponer datos sensibles en herramientas sin garantías adecuadas; cuando proceda, describir salvaguardas en el manuscrito o documentación de ética. (Fuentes: ICMJE—protección de participantes; Nature Portfolio—estándares de reporte).
Prácticas aceptables (condicionadas)
- Edición lingüística (gramática, estilo, ortografía) de texto escrito por el autor, manteniendo intacto el razonamiento y verificando el resultado antes de incorporarlo. Requiere declaración del uso. (Fuentes: ICMJE; Elsevier; Nature Portfolio).
- Apoyo para reestructurar secciones ya redactadas por el equipo (mejorar cohesión/flujo, títulos/subtítulos), sin delegar la elaboración intelectual. (Fuentes: Elsevier; ICMJE).
- Resúmenes o síntesis iniciales de corpus textuales para familiarización temática, siempre con lectura crítica y cotejo con las fuentes originales. (Fuentes: ICMJE—uso y divulgación; Nature Portfolio—documentación del uso).
- Búsqueda y organización preliminar de información (p. ej., listas de conceptos) que luego se contrasta con bases bibliográficas y textos primarios. (Fuentes: ICMJE; Elsevier).
- En todos los casos: declaración del uso, verificación humana y cumplimiento de políticas editoriales.
Prácticas no permitidas
- Atribuir autoría a la IA o presentar a la IA como responsable de decisiones metodológicas o interpretativas. (Fuentes: COPE; Nature Portfolio).
- Delegar la revisión por pares en IA o presentar valoraciones automatizadas como si fueran revisión de pares. (Fuentes: ICMJE—orientaciones sobre revisión; Elsevier—políticas editoriales sobre uso de IA en evaluación).
- Generar secciones sustantivas del artículo (marco, métodos, resultados, discusión) sin elaboración intelectual humana ni verificación rigurosa, o incorporarlas sin declararlo. (Fuentes: ICMJE; Elsevier; Nature Portfolio).
- Incluir referencias no fidedignas o no verificadas, o citar a la IA como fuente primaria. (Fuentes: ICMJE—citas y referencias; orientaciones sobre IA como fuente).
Casos de uso para debate (zonas grises)
Estos escenarios admiten uso condicionado, siempre con declaración, control crítico y documentación del proceso:
- Borrador inicial asistido de una sección interpretativa (p. ej., Discusión), seguido de reescritura y fundamentación por el equipo. Preguntas clave: ¿el texto final refleja lectura de resultados y literatura? ¿Se declaró el uso? (Fuentes: ICMJE; Nature Portfolio).
- Traducción o “reescritura profunda” de un texto propio para claridad y estilo. Condición: no alterar el contenido sustantivo ni introducir afirmaciones nuevas sin verificación; declarar el uso cuando sea material. (Fuentes: ICMJE; Elsevier).
- Propuestas preliminares de preguntas o categorías analíticas generadas con IA como insumo inicial, que se valida teóricamente antes del trabajo de campo. (Fuentes: ICMJE—actualización 2024).
- Lectura masiva de PDFs con “agentes” para extraer resúmenes/temas, con muestreo de verificación y cotejo de citas clave. (Fuentes: Elsevier—política IA; ICMJE).
Las Zonas de Consenso: La IA como Asistente de Investigación
El análisis de los datos revela un fuerte consenso en torno al uso de la IA como una herramienta de apoyo para tareas que optimizan el flujo de trabajo sin comprometer el núcleo intelectual de la investigación.
Práctica 1: Mejora de Gramática y Estilo
Se consultó a los participantes si consideraban ético que un investigador utilizara una IA para mejorar la gramática y la estructura de un texto previamente escrito por él. La respuesta fue unánime y contundente.
Respuesta | Frecuencia | Porcentaje |
Ética | 24 | 100% |
No ética | 0 | 0% |
No estoy seguro | 0 | 0% |
El 100% de los encuestados considera esta práctica como ética. Este consenso absoluto sugiere que la comunidad académica ve estas herramientas como una evolución natural de los correctores ortográficos y de estilo. De hecho, muchos lo equiparan a la práctica aceptada de contratar a un editor o corrector de estilo humano. El argumento central es que, mientras la idea original, la argumentación y el contenido provengan del autor, usar tecnología para pulir la presentación final no solo es aceptable, sino deseable. Libera recursos cognitivos para que el investigador se concentre en la calidad de las ideas en lugar de en la mecánica de la escritura.
Práctica 2: Apoyo en la Revisión Bibliográfica
También se exploró el uso de la IA para tareas de revisión de literatura, como sugerir referencias o resumir tendencias a partir de artículos existentes, siempre con una verificación manual posterior por parte del investigador.
Práctica | Ética | No ética | No estoy seguro |
Sugerir/clasificar referencias | 22 (91.7%) | 0 (0%) | 2 (8.3%) |
Resumir tendencias del campo | 22 (91.7%) | 0 (0%) | 2 (8.3%) |
Ambas prácticas gozan de una aceptación abrumadora (91.7%). La IA es vista aquí como un asistente de investigación de alta velocidad, capaz de procesar en minutos lo que a un humano le tomaría semanas.Sin embargo, los comentarios y la discusión enfatizaron un punto crucial: la responsabilidad final recae inexcusablemente en el humano. El riesgo de las «alucinaciones» de la IA —donde el modelo inventa información o citas— es real. Por ello, la supervisión no es opcional; es una parte integral del proceso ético. La IA puede proponer, pero es el investigador quien debe validar, leer críticamente, citar y contextualizar cada fuente para evitar la propagación de información errónea.
La Zona de Debate: Cuando la IA se Convierte en Coautora
La controversia surge cuando la IA trasciende su rol de asistente y se convierte en una generadora activa de contenido académico. Es aquí donde las opiniones se polarizan, reflejando una tensión entre la búsqueda de eficiencia y la defensa de la autoría intelectual.
Práctica 3: Redacción del Resumen (Abstract)
Se planteó el escenario de un investigador que solicita a la IA que redacte el resumen de su artículo a partir de un borrador, para luego supervisarlo y corregirlo.
Respuesta | Frecuencia | Porcentaje |
No estoy seguro | 9 | 37.5% |
Ética | 8 | 33.3% |
No ética | 7 | 29.2% |
Este es el escenario que generó mayor incertidumbre, con «No estoy seguro» como la respuesta más frecuente. Las opiniones están casi perfectamente divididas. Quienes lo consideran ético argumentan que, si el autor se hace responsable del texto final, la IA funciona como un catalizador para superar «la página en blanco». Por otro lado, quienes lo ven como no ético o dudan, señalan que el resumen es la carta de presentación del artículo; a menudo, es lo único que se lee. Su redacción es un ejercicio intelectual fundamental que sintetiza el aporte original. Delegarlo a una máquina, aunque sea como primer borrador, se percibe como algo que diluye la autenticidad de esa contribución.
Práctica 4: Redacción de Resultados y Discusión
El escenario más polémico fue solicitar a la IA que redacte las secciones de resultados y discusión, incluso con supervisión posterior.
Respuesta | Frecuencia | Porcentaje |
No ética | 16 | 66.7% |
No estoy seguro | 6 | 25.0% |
Ética | 2 | 8.3% |
Aquí, dos tercios de los encuestados (66.7%) lo consideran directamente «No ético». Este es el núcleo del dilema: la interpretación de los datos (resultados) y su contextualización en el campo (discusión) son el corazón del trabajo intelectual y la principal contribución de un autor. Delegar esta tarea es visto como un posible acto de plagio o una abdicación de la responsabilidad académica. La IA puede generar un texto coherente, pero carece de la comprensión profunda y el juicio crítico para conectar los hallazgos con el conocimiento existente, proponer nuevas teorías o identificar las limitaciones del estudio, tareas que definen la verdadera erudición.
El Límite Infranqueable: Confidencialidad en la Revisión por Pares
Finalmente, se presentó un escenario que generó un rechazo casi unánime, estableciendo una clara línea roja ética.
Práctica 5: Uso de IA en la Revisión por Pares
Respuesta | Frecuencia | Porcentaje |
No ética | 22 | 91.7% |
Ética | 1 | 4.15% |
No estoy seguro | 1 | 4.15% |
Con un 91.7% de rechazo, subir el manuscrito de otro autor a una IA para generar un informe de revisión se considera una grave falta ética. La revisión por pares se sustenta en la confianza y la confidencialidad. Exponer un trabajo inédito a una plataforma de terceros —cuyos términos de uso a menudo permiten utilizar los datos para entrenar sus modelos— constituye una violación fundamental de ese pilar. Las implicaciones son severas: desde el riesgo de plagio de ideas hasta la fuga de datos sensibles. Este resultado es un recordatorio crítico de que la eficiencia nunca debe comprometer la integridad y la seguridad del proceso científico.
Análisis Cualitativo de los Comentarios: La Voz de los Investigadores
Más allá de los números, los comentarios abiertos de la encuesta delinean un consenso pragmático sobre cómo integrar la IA de forma responsable. De sus voces emergen varios principios clave:
- Principio de Transparencia: Este es el requisito más consistente. El uso de IA se considera aceptable siempre que se declare explícitamente «qué se usó, cómo y en qué secciones». Comentarios como “Siempre y cuando mencione la utilización de la IA” o “Se debería transparentar previamente” muestran que la trazabilidad es fundamental para distinguir entre un apoyo legítimo y una sustitución indebida.
- La IA como Herramienta, no como Autor: Los participantes enfatizan que la IA cumple un rol instrumental. Su uso es ético «siempre que el investigador siga siendo el autor de las ideas, los resultados y el análisis». La IA puede mejorar la forma (estilo, gramática), pero no debe generar el contenido sustantivo. La originalidad y el control epistémico deben permanecer en manos del autor humano.
- Verificación y Calidad: Surge una preocupación por la fiabilidad de los resultados de la IA, especialmente las referencias bibliográficas. Comentarios como «independientemente no son citas fidedignas» subrayan la necesidad de una verificación manual rigurosa para mitigar riesgos de precisión y evitar la difusión de errores.
- Alineación con Políticas Editoriales: Para muchos, las directrices de las editoriales (como el caso de Elsevier mencionado por un participante) funcionan como un marco operativo. En un contexto de incertidumbre, seguir las políticas de las revistas se convierte en una guía práctica para legitimar el uso de estas herramientas.
- Reconocimiento de las Zonas Grises: Finalmente, se admite que los límites no siempre son nítidos. Un comentario reconoce que hay un «núcleo indelegable (idea original y preguntas)», pero que otras prácticas pueden ser permisibles bajo supervisión. Esto apunta a un enfoque matizado, donde la intención y el grado de intervención humana determinan la evaluación ética final.
Hacia un Marco de Uso Ético: 5 Principios Clave
Del debate y los datos analizados, podemos consolidar el marco normativo emergente en cinco principios fundamentales para guiar el uso de la IA en la investigación:
- Transparencia Radical: Declarar siempre qué herramienta de IA se utilizó, para qué propósito específico y en qué secciones del trabajo. Esto no es solo una cuestión de honestidad, sino que permite a los revisores y lectores evaluar el trabajo en su contexto adecuado.
- Responsabilidad Humana Ineludible: La IA es una herramienta, no un coautor. El investigador es el único responsable de la veracidad, originalidad y coherencia de todo el contenido. Si la IA comete un error, el error es del autor.
- Verificación Rigurosa de la Calidad: Nunca confiar ciegamente en los resultados de la IA. Es imperativo verificar cada dato, cada cita y cada afirmación. La supervisión humana activa es una parte no negociable del proceso.
- Alineación con las Normativas Vigentes: Mantenerse informado y cumplir con las políticas sobre el uso de IA de las editoriales, instituciones y agencias de financiamiento. Estas directrices proporcionan un marco operativo esencial.
- Protección del Núcleo Intelectual: Salvaguardar la contribución original. Las ideas, las preguntas de investigación, el análisis y la interpretación son el corazón del trabajo académico y no deben ser delegados a sistemas automatizados.
Herramientas de IA Recomendadas para Investigadores
A continuación, se presenta una selección de herramientas de IA que pueden apoyar eficazmente diversas etapas del proceso de investigación, siempre dentro de un marco de uso ético.
Herramienta | Descripción Breve | Ejemplos de Uso en Investigación | Enlace de Acceso |
Keenious | Descubrimiento de literatura académica que se integra con Word y Google Docs para sugerir papers relevantes a partir de tu borrador o texto de trabajo. | Explorar artículos relacionados con tu propuesta; mapear el estado del arte desde un texto semilla; detectar líneas de investigación y autores clave. | keenious.com |
Manus (AI Agent) | Agente de IA orientado a ejecutar tareas complejas (“agents”) y asistir en lectura/acción (p. ej., gestionar fuentes, workflows). | Montar un flujo de lectura de PDFs con resúmenes y tareas; orquestar pasos (buscar, compilar notas, generar preguntas) para una revisión exploratoria. | manus.im |
ChartPixel | Plataforma de análisis de datos con IA para crear gráficos, explorar encuestas y obtener insights de manera guiada y rápida. | Limpieza automática de datos de encuesta; generación de gráficos y “key takeaways” para resultados descriptivos; detección de patrones y outliers. | chartpixel.com |
Julius AI | “Data analyst” con IA para conversar con tus datos, crear gráficos y modelos básicos de forecasting dentro de una interfaz tipo chat. | Consultar un dataset de resultados (p. ej., escalas Likert) mediante preguntas en lenguaje natural; producir gráficos de barras, líneas o comparativos. | julius.ai |
Google Forms + Apps Script | Constructor de formularios (encuestas) y servicio de Apps Script para crear/automatizar formularios por código (p. ej., generar un form desde un guion). | Replicar en minutos una encuesta de ética de la IA; crear ítems, secciones y lógica de avance con Apps Script; preparar pre/post-tests para cursos. | Google Forms / Apps Script |
Conclusión: Una Herramienta Poderosa en Manos Responsables
Los datos muestran que la comunidad académica está dispuesta a adoptar la IA como una poderosa asistente, pero traza una línea clara cuando esta amenaza con suplantar el juicio crítico y la responsabilidad autoral. La inteligencia artificial no es inherentemente buena o mala; su valor dependerá de cómo la utilicemos. Lejos de ser un atajo peligroso, puede ser una aliada transformadora si la manejamos con rigor, honestidad y transparencia.
La conversación apenas comienza. Establecer límites claros y fomentar una cultura de uso ético es una tarea colectiva que nos involucra a todos.
Aclaración: Estos datos fueron recopilados y sistematizados de una clase realizada en la Universidad Católica de Temuco a académicos e investigadores. El análisis se ha creado con IA bajo la supervisión del autor. Si quieres visualizar la clase completa te dejo el video, el cual la universidad ha autorizado su publicación:
REFERENCIAS
- Committee on Publication Ethics (COPE). (2023, 13 de febrero). Authorship and AI tools. https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools
- International Committee of Medical Journal Editors (ICMJE). (2025, abril). Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals. https://www.icmje.org/recommendations/ icmje.org
- International Committee of Medical Journal Editors (ICMJE). (2024, enero). Up-Dated ICMJE Recommendations (January 2024). https://www.icmje.org/news-and-editorials/updated_recommendations_jan2024.html
- Elsevier. (s. f.). The use of generative AI and AI-assisted technologies in writing for Elsevier. https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier
- Elsevier. (2025, septiembre). Generative AI policies for journals. https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals
- Elsevier. (s. f.). The use of generative AI and AI-assisted technologies in the review process for Elsevier. https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-the-review-process
- IEEE. (2025). Submission and Peer Review Policies — IEEE Author Center (incluye “Guidelines for AI-Generated Content”). https://journals.ieeeauthorcenter.ieee.org/become-an-ieee-journal-author/publishing-ethics/guidelines-and-policies/submission-and-peer-review-policies/
- IEEE Robotics & Automation Society (IEEE RAS). (s. f.). Guidelines for Generative AI Usage. https://www.ieee-ras.org/publications/guidelines-for-generative-ai-usage
- Nature Portfolio. (2025). Artificial Intelligence (AI) — Editorial policies. https://www.nature.com/nature-portfolio/editorial-policies/ai
- Nature Portfolio. (2025). Editorial policies (sección general). https://www.nature.com/nature-portfolio/editorial-policies
- Nature Medicine. (2025). Preparing your material (incluye nota sobre autoría y LLM). https://www.nature.com/nm/submission-guidelines/preparing-your-submission