
En la actualidad, la inteligencia artificial (IA) es una realidad cotidiana: desde asistentes virtuales hasta algoritmos de recomendación. La IA moldea nuestras decisiones, comportamientos y relaciones; sin embargo, mientras su desarrollo avanza a pasos agigantados, el debate sobre su ética no avanza al mismo ritmo. Entonces, la pregunta es: ¿cómo enseñar ética en la IA?
La primera respuesta parece evidente: incorporar la ética en los programas de formación técnica. Quien diseña algoritmos debe entender también sus consecuencias humanas. La ética debe estar integrada transversalmente en la formación en Ciencias de la Computación, desde los primeros cursos hasta los niveles más avanzados. Se trata de cultivar un pensamiento crítico y una conciencia del impacto social y cultural de cada decisión tecnológica.
Ahora bien, enseñar ética en el uso de la IA no es solo tarea de las universidades. Las empresas que desarrollan estos sistemas también tienen una responsabilidad formativa. Deben ofrecer formación continua a sus ingenieros, no como un trámite, sino como parte de su cultura corporativa.
Otro punto crucial es el enfoque interdisciplinario. No se puede dejar la ética en manos exclusivas de ingenieros o filósofos. La enseñanza debe nutrirse de sociología, derecho, psicología, y sobre todo, de las voces diversas que representan los contextos donde estas tecnologías operan. No hay una única ética universal: los valores son culturales, y las decisiones algorítmicas no son neutrales.
Finalmente, enseñar ética en la IA implica aceptar la incertidumbre. Se trata de formar personas capaces de reflexionar, preguntar, debatir y, sobre todo, asumir la responsabilidad de sus decisiones tecnológicas.
La ética en la IA es una necesidad urgente, y enseñarla no significa detener la innovación, sino dotarla de propósito, humanidad y justicia para una mejor sociedad.
Juan Pablo Cardozo es director general regional de la Universidad del Istmo y la Universidad San Marcos.