Investigación en la era de la IA: la ética como condición del rigor científico

Por Gabriela Arriagada Bruneau

Profesora en Éticas Aplicadas de la Pontificia Universidad Católica de Chile

Investigación en la era de la IA: la ética como condición del rigor científico

11.11.2025

La ética no es un apéndice moral añadido al final de un informe para cumplir con estándares institucionales. En el contexto de la inteligencia artificial aplicada a la investigación, se convierte en un aliado metodológico que fortalece la justificación epistémica. Dicho en términos simples: nos ofrece mejores razones para sostener con legitimidad aquello que afirmamos saber. La normatividad no viene después de los datos, sino que orienta el modo en que los producimos, interpretamos y aplicamos.

Este cambio exige abandonar la ilusión de “neutralidad técnica” y asumir una responsabilidad contextualizada. Tal como plantea Donna Haraway, los conocimientos son situados, y son ese contexto y valor asociado los que permiten una “objetividad más fuerte” al reconocer la posición desde la que se produce el saber. Declarar límites, supuestos y perspectivas no debilita la ciencia, la vuelve más resistente a sesgos, exclusiones y cegueras epistémicas. Cuando esto ocurre, inclusión y diversidad dejan de ser gestos simbólicos para convertirse en condiciones de rigor cognitivo y de justicia social.

La normatividad no viene después de los datos, sino que orienta el modo en que los producimos, interpretamos y aplicamos».

El ciclo de vida de la IA muestra cómo la ética puede operar como brújula metodológica. La definición del problema requiere preguntarse qué se considera un “éxito justo” y para quién. La fase de datos implica documentar orígenes, sesgos y ausencias, evitando la colonialidad de los datos, donde experiencias humanas se extraen como recurso sin autorización ni retorno justo. Durante el modelado, es necesario revisar etiquetas y variables que fijan identidades y simplifican realidades diversas. En la validación, resulta clave abrir el juicio no solo a pares técnicos, sino a las comunidades afectadas, con el fin de prevenir impactos derivados del sesgo profesional y nuestra “deformación profesional”, como llama la investigadora Polyakova (2014), y que refiere justamente a que nuestras hiperespecializaciones, muchas veces, nos crean una visión microscópica de los problemas y soluciones que avanzan la ciencia; perdemos una visión del todo y nos enfocamos en la parte. Finalmente, en el despliegue y monitoreo, la trazabilidad de responsabilidades, la existencia de mecanismos de reparación y una gobernanza participativa son parte del estándar epistémico.

Adoptar esta postura también dialoga con epistemologías del sur, que enmarcan el conocimiento desde relaciones de interdependencia histórica y comunitaria. Principios como el Sumak Kawsay (buen vivir) reorientan la evaluación del éxito científico hacia prácticas que no sacrifiquen dignidad, territorio ni autonomía. Esto también nos permite reconocer coautorías invisibles, como etiquetadores, comunidades de origen de datos o actores no técnicos cuya experiencia encarna una forma situada de saber.

No se trata solo de ‘saber qué es correcto’, sino de encarnar hábitos que permitan detener un despliegue riesgoso, cuestionar métricas insuficientes o reabrir debates que a la eficiencia le gustaría cerrar».

Ahora bien, sostener estas exigencias metodológicas requiere una formación ética del carácter. Aquí es clave el aporte de Shannon Vallor, quien define las virtudes tecnomorales como disposiciones necesarias para vivir y actuar responsablemente en una era mediada por tecnologías emergentes. En su obra Technology and the Virtues (2016), Vallor identifica virtudes como humildad, prudencia, justicia, coraje, empatía y flexibilidad moral, las cuales operan como heurísticas para decidir bajo incertidumbre, especialmente frente a sistemas opacos como los modelos de IA. No se trata solo de “saber qué es correcto”, sino de encarnar hábitos que permitan detener un despliegue riesgoso, cuestionar métricas insuficientes o reabrir debates que a la eficiencia le gustaría cerrar.

Tratar la ética como aliado metodológico no reemplaza el rigor científico, lo condiciona hacia su mejor versión. Fortalece los marcos de justificación epistémica desde la normatividad, y posiciona verdad y justicia en un mismo plano de exigencia. En la era de la IA, el conocimiento solo será confiable si también es justo.

En esta columna

Gabriela Arriagada Bruneau

Gabriela Arriagada Bruneau

Profesora en Éticas Aplicadas de la Pontificia Universidad Católica de Chile
Es Ph.D. en Filosofía, especializada en Éticas Aplicadas, por la Universidad de Leeds, Reino Unido. Profesora asistente de Ética de IA y Datos para el Instituto de Éticas Aplicadas y el Instituto de Ingeniería Matemática y Computacional de la Pontificia Universidad Católica de Chile. Presentó la charla «Una mirada ética sobre la inclusión y diversidad […]

¿Te fue útil este artículo?

Comparte este contenido

e inspira a otros

¡URL copiada!

Deja un comentario

Sobre los comentarios

Tu dirección de correo electrónico no será publicada. Los comentarios pasan por un proceso de moderación que toma hasta 48 horas en días útiles. Son bienvenidos todos los comentarios siempre y cuando mantengan el respeto hacia los demás. No serán aprobados los comentarios difamatorios, con insultos o palabras altisonantes, con enlaces publicitarios o a páginas que no aporten al tema, así como los comentarios que hablen de otros temas.

Te puede interesar