Sin comprensión de texto, la IA es apenas una calculadora sin pilas

iaarg

La promesa de la Inteligencia Artificial (IA) como herramienta democratizadora del conocimiento tropieza, en la Argentina, con un dato estructural que no admite interpretación: una parte significativa de la población no comprende lo que lee. En ese contexto, la IA no amplifica capacidades; expone carencias.

Sin comprensión lectora, la inteligencia artificial no democratiza. Segmenta.

Los números son elocuentes. Según evaluaciones basadas en el Estudio Regional Comparativo y Explicativo (ERCE), el 46% de los alumnos argentinos de tercer grado no alcanza el nivel mínimo de lectura. La cifra escala al 61,5% en los sectores más vulnerables.

La evidencia más reciente no modifica el diagnóstico: las pruebas Aprender 2024 muestran que apenas el 45% de los estudiantes alcanza los niveles esperados de lectura.

Traducido: menos de la mitad de los chicos comprende textos con un mínimo de complejidad.

En paralelo, cerca de 250.000 adolescentes ingresan a la secundaria sin dominio adecuado de lectura y escritura.

Este no es un problema pedagógico menor. Es una restricción cognitiva estructural.

La IA, en este contexto, opera bajo una premisa que rara vez se explicita: requiere un usuario competente. No alcanza con acceder a la herramienta. Hay que saber qué pedir, cómo pedirlo y, sobre todo, cómo interpretar lo que devuelve. Sin comprensión de texto, ese circuito se rompe en el primer eslabón.

No hay interacción. Hay simulacro.

La evidencia empírica también muestra que el problema no es marginal ni acotado a sectores específicos. Los déficits de comprensión lectora atraviesan todos los niveles socioeconómicos, aunque se agravan en los más vulnerables.

Esto implica que la brecha que introduce la inteligencia artificial no es solo digital. Es cognitiva. Y, por lo tanto, más difícil de revertir.

En términos concretos, el uso de IA exige al menos cuatro capacidades previas: comprensión de consignas, formulación de preguntas, capacidad de inferencia y verificación de resultados.

Las cuatro dependen, directa o indirectamente, de la lectura comprensiva.

Sin esas herramientas, la IA responde, pero el usuario no puede evaluar la respuesta. No detecta errores, no identifica sesgos, no reconoce inconsistencias.

Consume sin procesar.

Ahí se produce el punto de inflexión: la inteligencia artificial deja de ser una herramienta de expansión del conocimiento y pasa a ser un dispositivo de reproducción de desigualdades. Quienes tienen capital cultural la utilizan para potenciarlo. Quienes no, quedan atrapados en una interacción superficial, muchas veces errónea.

La tecnología no corrige esa asimetría. La amplifica.

Incluso en el plano escolar, el problema ya es visible. Docentes advierten que estudiantes que “saben leer” no logran resolver consignas básicas porque no comprenden lo que se les pide.

La consecuencia es directa: sin comprensión, no hay aprendizaje significativo. Y sin aprendizaje, no hay posibilidad de interacción crítica con sistemas complejos como la IA.

El riesgo, entonces, no es tecnológico. Es político y cultural.

Una sociedad que no comprende textos complejos queda, de hecho, fuera de la conversación que la inteligencia artificial propone. No porque no tenga acceso, sino porque no tiene herramientas para participar. La brecha ya no es entre conectados y desconectados, sino entre quienes entienden y quienes no.

La IA, en ese escenario, funciona como un filtro invisible.

Por eso la metáfora inicial no solo se sostiene: se vuelve más precisa en clave local. En la Argentina, donde la mitad de los estudiantes no alcanza niveles adecuados de comprensión lectora, la inteligencia artificial corre el riesgo de convertirse en una calculadora sin pilas para amplios sectores.

Está ahí. Tiene potencial. Pero no funciona. El problema no es la máquina. Es la lectura.