La ética no es un apéndice moral añadido al final de un informe para cumplir con estándares institucionales. En el contexto de la inteligencia artificial aplicada a la investigación, se convierte en un aliado metodológico que fortalece la justificación epistémica. Dicho en términos simples: nos ofrece mejores razones para sostener con legitimidad aquello que afirmamos saber. La normatividad no viene después de los datos, sino que orienta el modo en que los producimos, interpretamos y aplicamos.
Este cambio exige abandonar la ilusión de “neutralidad técnica” y asumir una responsabilidad contextualizada. Tal como plantea Donna Haraway, los conocimientos son situados, y son ese contexto y valor asociado los que permiten una “objetividad más fuerte” al reconocer la posición desde la que se produce el saber. Declarar límites, supuestos y perspectivas no debilita la ciencia, la vuelve más resistente a sesgos, exclusiones y cegueras epistémicas. Cuando esto ocurre, inclusión y diversidad dejan de ser gestos simbólicos para convertirse en condiciones de rigor cognitivo y de justicia social.
La normatividad no viene después de los datos, sino que orienta el modo en que los producimos, interpretamos y aplicamos».
El ciclo de vida de la IA muestra cómo la ética puede operar como brújula metodológica. La definición del problema requiere preguntarse qué se considera un “éxito justo” y para quién. La fase de datos implica documentar orígenes, sesgos y ausencias, evitando la colonialidad de los datos, donde experiencias humanas se extraen como recurso sin autorización ni retorno justo. Durante el modelado, es necesario revisar etiquetas y variables que fijan identidades y simplifican realidades diversas. En la validación, resulta clave abrir el juicio no solo a pares técnicos, sino a las comunidades afectadas, con el fin de prevenir impactos derivados del sesgo profesional y nuestra “deformación profesional”, como llama la investigadora Polyakova (2014), y que refiere justamente a que nuestras hiperespecializaciones, muchas veces, nos crean una visión microscópica de los problemas y soluciones que avanzan la ciencia; perdemos una visión del todo y nos enfocamos en la parte. Finalmente, en el despliegue y monitoreo, la trazabilidad de responsabilidades, la existencia de mecanismos de reparación y una gobernanza participativa son parte del estándar epistémico.
Adoptar esta postura también dialoga con epistemologías del sur, que enmarcan el conocimiento desde relaciones de interdependencia histórica y comunitaria. Principios como el Sumak Kawsay (buen vivir) reorientan la evaluación del éxito científico hacia prácticas que no sacrifiquen dignidad, territorio ni autonomía. Esto también nos permite reconocer coautorías invisibles, como etiquetadores, comunidades de origen de datos o actores no técnicos cuya experiencia encarna una forma situada de saber.
No se trata solo de ‘saber qué es correcto’, sino de encarnar hábitos que permitan detener un despliegue riesgoso, cuestionar métricas insuficientes o reabrir debates que a la eficiencia le gustaría cerrar».
Ahora bien, sostener estas exigencias metodológicas requiere una formación ética del carácter. Aquí es clave el aporte de Shannon Vallor, quien define las virtudes tecnomorales como disposiciones necesarias para vivir y actuar responsablemente en una era mediada por tecnologías emergentes. En su obra Technology and the Virtues (2016), Vallor identifica virtudes como humildad, prudencia, justicia, coraje, empatía y flexibilidad moral, las cuales operan como heurísticas para decidir bajo incertidumbre, especialmente frente a sistemas opacos como los modelos de IA. No se trata solo de “saber qué es correcto”, sino de encarnar hábitos que permitan detener un despliegue riesgoso, cuestionar métricas insuficientes o reabrir debates que a la eficiencia le gustaría cerrar.
Tratar la ética como aliado metodológico no reemplaza el rigor científico, lo condiciona hacia su mejor versión. Fortalece los marcos de justificación epistémica desde la normatividad, y posiciona verdad y justicia en un mismo plano de exigencia. En la era de la IA, el conocimiento solo será confiable si también es justo.



Deja un comentario