logo móvil
Portada

La inteligencia artificial aumenta las capacidades humanas, pero no las reemplaza. Foto: María Fernanda Londoño, Unimedios.

2025-06-04

La investigación científica expuesta al uso no ético de la IA


Entre las ilustraciones se mostraba una rata con órganos sobredimensionados, así como diagramas celulares. Apenas 3 días después de su publicación la revista emitió una declaración oficial reconociendo que las imágenes fueron generadas por IA y que los autores no respondieron a las solicitudes de revisión. Casos similares se han presentado en otras publicaciones; incluso algunas como Neurosurgical Review han limitado las cartas al editor y los comentarios por estar redactados con esta herramienta sin atribuir su uso, como reseña Retraction Watch.

Otra falta ética común es redactar documentos de manera automatizada sin hacer público que el texto fue generado por la máquina. Por ejemplo, un artículo publicado recientemente en la revista AI & Society analiza el creciente uso de IA para generar textos científicos. Los autores, Steven Watson, Erik Brezovec y Jonathan Romic, advierten que permitir que herramientas como ChatGPT redacten artículos sin una supervisión adecuada puede socavar principios fundamentales de la investigación al no actuar con integridad científica, es decir con honestidad intelectual, responsabilidad social y calidad técnica (Minciencias, 2018). En su análisis destacan que la IA no puede rendir cuentas por el contenido que genera y subrayan la urgente necesidad de establecer regulaciones claras sobre su uso en la producción académica (Watson, Brezovec y Romic, 2024).

Es por eso que una de las recomendaciones más comunes de las entidades nacionales e internacionales es el criterio de transparencia, referida a declarar explícitamente el uso de la IA, es decir, dejar claro cómo, cuándo y en qué medida se utilizó la herramienta. La transparencia también tiene que ver con abrir los mecanismos de entrenamiento, los códigos y los algoritmos de la IA para que sea fácil entender cómo funciona y cómo se obtienen sus resultados.

Otro problema colateral de la IA es que puede aumentar la brecha tecnológica entre las personas, comunidades e instituciones que no tienen acceso a las versiones pagas –con ventajas notables– y las que sí pueden pagar una subscripción. Por eso los lineamientos nacionales en el uso de la IA (como el documento Conpes 4144 publicado el 14 de febrero de 2025 por el DNP) indican que el uso de la herramienta debe respetar la dignidad humana, garantizar libertades fundamentales y evitar la discriminación en el acceso a estas tecnologías, teniendo como eje la ética de la ciencia y la tecnología.

Debido a la inmensa huella ambiental que genera el uso de estas herramientas, se recomienda limitar su uso a los casos estrictamente necesarios, pues el funcionamiento de los servidores consume ingentes recursos de agua y energía. Según un estudio de la Universidad de California, Riverside, entrenar un modelo como GPT-3 puede requerir unos 700.000 litros de agua para enfriar los servidores necesarios en centros de datos (Li, Yang, Islam y Ren, 2023). Para 2027 se proyecta que la demanda de IA en el mundo implicaría extraer entre 4.200 y 6.600 millones de metros cúbicos de agua, superando el consumo anual de países como Dinamarca.

En términos energéticos, entrenar un modelo de IA puede emitir más de 626.000 libras de CO2 equivalente, comparable con las emisiones totales de 5 automóviles durante toda su vida útil (Strubell et al., 2019). Estos datos sugieren que el uso indiscriminado de estas tecnologías puede tener un impacto ambiental significativo, y por lo tanto su aplicación debería considerar criterios de necesidad, eficiencia y sostenibilidad.

El concepto de agencia aumentada propuesto por Mendoza (2023, 2025) es útil para entender el uso adecuado de esta poderosa herramienta. La agencia aumentada es la incorporación de artefactos para mejorar la capacidad de actuar y es uno de los rasgos que definen la naturaleza humana (Mendoza, 2025).

Desde sus orígenes la especie humana ha utilizado herramientas de todo tipo que le permiten aumentar sus capacidades. Por ejemplo las puntas de flecha aumentaron la capacidad de cazar, y la invención de la imprenta permitió acumular el conocimiento en los libros. Para mitigar los riesgos de la IA, esta tecnología se debe entender como una herramienta que aumenta nuestras capacidades pero no las reemplaza; una herramienta en la que las decisiones humanas siguen siendo centrales, pero mejoradas o asistidas por la tecnología.

Esta es una de las imágenes que produjo la retractación de la revista Frontiers in Cell and Developmental Biology. Foto: Guo X, Dong L y Hao D, 2024.
Esta es una de las imágenes que produjo la retractación de la revista Frontiers in Cell and Developmental Biology. Foto: Guo X, Dong L y Hao D, 2024.

Incorporar la IA al trabajo científico se trata de facilitar la realización de las tareas de investigación, no de automatizarlas. La responsabilidad de ejercitar el pensamiento crítico y de practicar con frecuencia la verificación con otros humanos (pares), así como el criterio ético en el uso de la herramienta son fundamentales para reducir los impactos negativos de esta tecnología como el sedentarismo mental o la pérdida de facultades cognitivas. El sedentarismo mental es una analogía entre el ejercicio mental y el físico. La actividad física se basa en ejercitar los músculos para mantener una buena salud, pero si es un robot quien realiza los ejercicios, esos músculos se van a atrofiar. De la misma manera, el ejercicio mental del cerebro no se puede relegar totalmente a las máquinas, pues se pueden perder facultades cognitivas como la capacidad de redacción, la memoria o la toma de decisiones (Ahmad et al., 2023; Nyholm, 2023).

La formación del criterio ético requiere educación continua, ya que la tecnología evoluciona muy rápido y es necesario mantenerse actualizado en dilemas éticos emergentes. La ética, como indica su etimología, es una práctica, un ejercicio, un modo de ser que implica reflexión constante. La ética debe ser transversal a todo el proyecto de investigación, desde el momento en que se plantea hasta cuando se está discutiendo, por ejemplo, el tipo de revista en la que se piensa publicar.

El uso de la IA es ético si se tiene conciencia crítica y si sus respuestas no se toman como normativas o correctas por defecto. Es ético si la contribución humana es central y si la IA se utiliza como una herramienta de apoyo y no como sustituto del análisis crítico y creativo. También se recomienda llevar un registro detallado del uso de herramientas de IA a lo largo del proceso investigativo, que incluya versiones y fechas de uso.

Con el entrenamiento del pensamiento crítico (duda metódica, formar opiniones basadas en evidencia) y la formación de criterios éticos (siguiendo los lineamientos de las entidades a cargo de estos temas que se mencionan más adelante), el uso de la IA será seguro y aumentará las capacidades de la investigación científica al facilitar las tareas durante todo el proceso de análisis.

Por ejemplo el pasado 16 de mayo se realizó el taller “Uso ético de la IA en la investigación científica”, organizado por el Semillero de Investigación en Semiótica de la Universidad Nacional de Colombia (UNAL) [@semsemiotica], liderado por Juan Mendoza Collazos, director del Semillero en el componente ético, y Ramón Galvis Centurión, director del Grupo de Investigación en Arquitectura y Materiales Alternativos (Grama) de la Universidad Francisco de Paula Santander, en el componente técnico.

Al taller asistieron más de 70 participantes de varias universidades y países. Allí se identificaron las fortalezas y limitaciones del uso de la IA en investigación científica dentro de un marco ético y se habló de las recomendaciones para el uso de la IA definidas por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la Comisión Europea (principal órgano ejecutivo de la Unión Europea), el Ministerio de Ciencia, Tecnología e Innovación y el Departamento Nacional de Planeación de Colombia.

Además se utilizaron tres aplicaciones de IA a manera de introducción al uso de estas herramientas en la investigación científica, y los autores definieron la IA como un conjunto de sistemas computacionales capaces de procesar datos, identificar patrones y generar resultados o decisiones de manera automatizada con base en algoritmos y modelos entrenados.

En la grabación del taller se pueden encontrar más ejemplos del uso ético de la IA según las recomendaciones de los organismos multilaterales, así como del uso inaceptable de IA en investigación; también se explica el uso de tres herramientas aplicadas de manera ética en la investigación científica.

Referencias

Ahmad SF, Han H, Alam MM et al. (2023). Impact of artificial intelligence on human loss in decision making, laziness and safety in education. Humanit Soc Sci Commun 10, 311. https://doi.org/10.1057/s41599-023-01787-8

Associated Press. (2023, septiembre 9). AI technology behind ChatGPT was built in Iowa — with a lot of water. AP News. https://apnews.com/article/f551fde98083d17a7e8d904f8be822c4

Ministerio de Ciencia Tecnología e Innovación (Minciencias) (2018). Política de ética de la investigación, bioética e integridad científica. Departamento Administrativo de Ciencia, Tecnología e Innovación. https://minciencias.gov.co/sites/default/files/upload/noticias/politica-etica.pdf

Departamento Nacional de Planeación (DNP). (2024). Conpes 4144: Política Nacional de Inteligencia Artificial de Colombia. https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/4144.pdf

Guo X, Dong L y Hao D. (2024). Cellular functions of spermatogonial stem cells in relation to JAK/STAT signaling pathway. Front. Cell Dev. Biol. 11:1339390. https://doi.org/10.3389/fcell.2023.1339390

Li P, Yang J, Islam MA, y Ren S. (2023). Making AI less “thirsty”: Uncovering and addressing the secret water footprint of AI models. arXiv. https://doi.org/10.48550/arXiv.2304.03271

Mendoza J. (2023). Agencia aumentada y agencia ´como si´: Implicaciones para una semiótica de los artefactos. Signo y Pensamiento, 41. https://doi.org/10.11144/Javeriana.syp41.aaac

Mendoza J. (2025). Tipos de artefactos y sus implicaciones agentivas. En J. Horta y A. Samaniego (Eds.), Semiótica Contemporánea. En prensa. Editorial UNAM. https://doi.org/10.31235/osf.io/xmgkv_v1

Nyholm S. (2023). Artificial Intelligence and Human Enhancement: Can AI Technologies Make Us More (Artificially) Intelligent? Cambridge Quarterly of Healthcare Ethics, 33(1), 76-88. https://doi.org/10.1017/S0963180123000464

Watson S, Brezovec E, y Romic J. (2024). The role of generative AI in academic and scientific authorship: an autopoietic perspective. AI & Society. https://doi.org/10.1007/s00146-024-02174-w

Por: Juan Mendoza Collazos, Ramón Galvis Centurión

Autor

Autor
Imagen Unimedios | Agencia de Noticias UN

Unimedios | Agencia de Noticias UN

La Unidad de Medios de Comunicación – Unimedios, es la unidad de producción y difusión de la información científica, cultural, investigativa, académica, artística y tecnológica generada por la Universidad Nacional de Colombia y dirigida a la comunidad universitaria y a la sociedad en general. Es una dependencia de nivel nacional, adscrita a la Rectoría que articula los medios de comunicación existentes dentro de la Unidad para velar por el buen nombre e imagen de la Institución, promover y agenciar sus logros e integrarla en su diversidad y con la sociedad a través de sus medios, servicios y productos.

Noticias más leídas

Temas Virtualpro