Cuando los algoritmos eligen por nosotros
El Instituto de Innovación Digital plantea algo que ya sentimos todos en carne propia: los algoritmos no solo nos recomiendan cosas, también nos formatean la mirada. Cada like, cada scroll, va afinando un retrato que no hicimos nosotros. Esos sistemas deciden qué ver, qué leer y, en cierto punto, qué pensar. Y eso, si lo pensamos en clave cultural, significa que están participando directamente en la construcción de nuestra identidad colectiva (institutodeinnovaciondigital.ar).
Como diría Eric Sadin —uno de los entrevistados en el informe de Craig (2024)—, “cada vez que decimos que ChatGPT es práctico y genial, no entendemos las profundas consecuencias civilizatorias que eso implica”
La Sociendad y la Cultura ante …
. No se trata solo de usar IA, sino de dejarle espacio a que nos diga quiénes somos y cómo debemos crear.
La IA y el terremoto educativo
Sigman y Bilinkis, en el capítulo “El terremoto educativo” de Artificial, usan una metáfora brillante: dicen que la llegada de la IA es una fuerza que no se va a ir, una presión constante sobre estructuras que hasta ahora eran rígidas —como la escuela, el derecho o los medios—
Artificial - Capítulo 6 - El Te…
. Si esas estructuras no se vuelven “plásticas”, es decir, si no logran adaptarse, se quiebran.
Y eso me pega directamente como docente. Ellos hablan de cómo la educación tradicional, pensada para un mundo estable, se enfrenta ahora a alumnos que muchas veces saben más que nosotros en ciertos temas tecnológicos. Y no lo dicen con nostalgia, sino como un hecho: “los adolescentes se manejan mucho mejor que sus padres en temas tecnológicos”. Entonces, ¿cómo seguir enseñando si la asimetría del conocimiento se invirtió?
Ahí entra la cuestión de la identidad colectiva desde otro ángulo: ya no solo cultural, sino generacional. La IA está reconfigurando qué significa “saber” y quién tiene la autoridad de enseñar. Y si eso no lo debatimos desde la ética y la ciudadanía digital, otros (los algoritmos, o las empresas detrás de ellos) van a escribir esa nueva narrativa por nosotros.
El espejo algorítmico y la cultura de los pueblos
El artículo de Cubasi es claro: la IA es un espejo, pero no devuelve el reflejo de todos los pueblos por igual (cubasi.cu). Las lenguas, las costumbres, los modos de narrar de comunidades pequeñas o periféricas —como las nuestras, acá en el nordeste argentino— quedan muchas veces afuera de los datasets que entrenan a las máquinas. En palabras simples: si la IA aprende del mundo digital, y el mundo digital no refleja a todos por igual, esa brecha se agranda.
Diego Craig (2024) lo resume con contundencia en su informe La sociedad y la cultura ante la inteligencia artificial: “La creatividad humana no funciona por correlaciones lógicas, sino por asociación libre” (p. 23). Pero los algoritmos funcionan exactamente al revés: buscan patrones, correlaciones, repeticiones. Así, terminan amplificando lo que ya circula —la cultura dominante— y marginando lo que se sale del molde. Por eso, como diría Craig citando a Sadin, la “automatización creativa” puede ser también una forma sutil de colonialismo cultural digital.
Entre el optimismo tecnológico y la defensa de lo humano
Página/12 plantea una mirada más política: la IA no es el enemigo, pero sí una tecnología que necesita marcos claros, tanto éticos como legales (pagina12.com.ar). Citan el caso de la actriz virtual Tilly Norwood, generada completamente por IA, que reabre la pregunta: ¿quién tiene derecho a ser “alguien” en el espacio digital?
Esa pregunta atraviesa todo: ¿qué es ser artista, docente, ciudadano, en una cultura donde lo sintético y lo humano se confunden? Ilya Sutskever (cofundador de OpenAI, citado por Craig) decía que “la inteligencia artificial general cambiará el comportamiento colectivo de las personas”. Y tiene razón: lo está haciendo ya. Pero lo que no puede reemplazar —ni debería— es nuestra capacidad de empatía, emoción y juicio ético, algo que Cristina Aranda también subraya en ese mismo informe.
La tensión entre identidad y dependencia
Lo más riesgoso, creo, no es que la IA nos reemplace, sino que nos acostumbremos a no pensar. Sigman y Bilinkis lo llaman “sedentarismo cognitivo”: esa tendencia a dejar que la máquina haga por nosotros, del mismo modo que el ascensor nos evita subir escaleras. Usar IA puede ser como andar en bicicleta —te ayuda a ir más lejos con menos esfuerzo—, pero si la usás para todo, te olvidás de caminar. Y cuando dejás de caminar, perdés la autonomía.
En el plano colectivo, pasa lo mismo: si dejamos que las plataformas decidan qué cultura vale y cuál no, si todo lo filtramos por algoritmos entrenados en Silicon Valley, vamos perdiendo soberanía cultural sin darnos cuenta. Como dice Craig, “la curiosidad y el descubrimiento cultural se ven amenazados por la automatización y la personalización del contenido” (p. 24).
¿Qué hacemos con todo esto?
No tengo una respuesta cerrada, pero sí algunas certezas que vengo construyendo como docente:
-
Educar en pensamiento crítico digital: no se trata de prohibir el uso de IA, sino de enseñar a usarla con cabeza propia. Que los chicos sepan cuándo confiar, cuándo dudar, cuándo intervenir.
-
Promover soberanía cultural local: en Corrientes, en cualquier comunidad, tenemos que crear contenido, lenguaje y referencias propias en el entorno digital. Si no, los modelos de IA seguirán sin “vernos”.
-
Cuidar lo humano: la empatía, la conversación cara a cara, el sentido del esfuerzo, una palmada diciendo "vos podés, seguí así!" Todo eso que no se puede programar.
-
Reivindicar la creatividad colectiva: usar la IA para potenciar y revalorizar no para reemplazar, lo que hacemos juntos como comunidad.
Valosísimo aporte… felicitaciones Javier!
ResponderEliminarmuchas gracias!
Eliminar