Pensar críticamente la IA. ¿podemos hacerlo?

Ser docente en entornos con tecnologías digitales

2/12/20252 min read

woman in black and white zebra print shirt using macbook pro
woman in black and white zebra print shirt using macbook pro

Aportes al Foro Ser docente en entornos con tecnologías digitales

Pensar críticamente la IA. ¿podemos hacerlo?

Se afirmó en nuestro debate que, para adecuar la educación a la IA, es crucial analizar críticamente su incorporación en el aula, evitando una adopción apresurada sin considerar sus implicaciones pedagógicas y sociales. Más que prohibir, es necesario fortalecer el “pensamiento crítico” y la alfabetización digital para formar ciudadanos capaces de comprender y cuestionar esta tecnología. Además, su implementación debe atender las desigualdades educativas, asegurando que la IA no profundice brechas de acceso, sino que contribuya a una educación equitativa y de calidad.

Quisiera coincidir con este comentario, sé que yo mismo lo he pensado y enunciado. Pero hoy lo veo muy difícil de cumplir. Parece que fuera sentido común lo que dice UNESCO (recomendación sobre ética de e la IA del 2019) citada por el artículo de Peña et al (2024:12) “impartir al público de todos los países, a todos los niveles, conocimientos adecuados en materia de IA…”. Esto ha conllevado a asumir formación para todo el mundo. Y a veces a suponer que con eso solo basta, que el pensamiento crítico respecto a las IA, emerge así, como consecuencia y eso es suficiente para cerrar brechas. Creo que el problema es más estructural, tiene múltiples dimensiones. Las brechas no se crean por la IA, sino por los humanos, que las hacen y las usan. Las brechas tecnológicas probablemente, en cierto sentido, son más sociales, geopolíticas, que tecnológicas.

Me pregunto, si hay que “reforzar pensamiento crítico y alfabetización digital” y allí está una buena solución, o al menos una posible. Creo que no. Sobretodo, porque creo que “pensamiento crítico” puede ser en algunos momentos un concepto ambiguo en educación, que no siempre hadados resultados, a pesar de todas las metodologías que lo promueven. El ser humano tiene por naturaleza una cognición sesgada, compleja, vulnerable, que la educación y la alfabetizan no ha conjurado en el fondo. El mundo de ficciones nos atrapa en el algoritmo de nuestra burbuja de creencias. Un mundo donde los expertos en fraude son víctimas de fraude. Maria Konnikova, estudiosa neurocientífica en “confianza”, muestra que por más “crítico” que sea nuestro pensamiento, por más alerta, somos completamente vulnerables a nuestras propias creencias. Y creer en que “enseñar a ser críticos” (suponiendo que lo podemos hacer), a saber, cómo funciona la IA, será suficiente, nos hace más vulnerables. Eso creo yo, y desde luego puedo también ser completamente vulnerable por pensar esto.

Referencias:

Konnikova, M. (2016). The confidence game: Why we fall for it every time. Penguin Book

UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial. UNESCO