Natalia Alvarez Prieto
Grupo de Investigación de Educación Argentina-CEICS
Otro papelón argentino en las pruebas PISA. En el famoso ranking sólo superó a países como Kazajstán, Qatar, Indonesia y Perú. Quedó detrás de otros como Malasia, Costa Rica y Tailandia. Aquí tiene un resumen del espanto.
En diciembre de 2013 se dio a conocer el Informe PISA (Program for International Student Assessment-Programa para la Evaluación Internacional de Estudiantes) con los resultados del relevamiento realizado durante 2012. Argentina participó en cuatro de estas evaluaciones y, hasta ahora, obtuvo siempre un pésimo balance de su sistema educativo. Como ya es costumbre, el gobierno nacional relativizó los resultados. Incluso, intentó convertirlos en prueba del buen camino que seguiría la educación. El secretario de educación de la Nación, Jaime Perczyk, sostuvo que el último informe PISA habría demostrado que el 74% de los alumnos comprende lo que lee. Y que al 26 por ciento restante “aún le quedan por delante dos o tres años más de escolaridad obligatoria”.[1] Una lógica creativa al estilo “INDEC”: mientras para el secretario todo alumno que alcanzó el nivel 1 (en una escala ascendente que va del -1 al 6) comprende lo que lee (aquel 74%), para la OCDE el umbral mínimo de competencia lectora se ubica en el nivel 2. Por otra parte, en el año 2000 “la comprensión lectora” era de un 77%, 3 puntos por encima del valor que hoy supondría un logro. Lejos de sacar la conclusión lógica, reconocer que estamos peor que con De la Rúa, el secretario omite aclarar que un abultado 26%, en 2012, no alcanzó siquiera el nivel 1 y que un 8% ni siquiera logró pasar el -1. Sí, leyó bien: menos 1. Como veremos, si se analizan las pruebas con más detalle se adquiere rápidamente una noción del desastre. Veamos, entonces, las evidencias del estrepitoso fracaso del sistema educativo argentino, década “ganada” mediante.
Peor imposible
El Informe PISA presenta los resultados de un programa de la OCDE (Organización para la Cooperación y el Desarrollo Económicos) cuyo objetivo es evaluar, mediante un cuestionario estandarizado, la formación de los alumnos de 15 años de los países miembros y otros «asociados».[2] La evaluación, realizada cada tres años a una muestra de estudiantes de escuelas públicas y privadas de cada país,[3] comprende tres áreas: lectura, matemáticas y ciencias. Se trata de un examen que indaga acerca de las “competencias, habilidades y aptitudes” adquiridas por los alumnos para analizar y resolver problemas, manejar información y desarrollar un pensamiento científico.
Hasta el momento, fueron realizados cinco relevamientos: 2000, 2003, 2006, 2009 y 2012.[4] En el primero de ellos, Argentina se ubicó en el puesto 35 sobre un total de 41 países. En aquel momento, un 44% de los estudiantes no alcanzaba niveles básicos de competencia lectora. Dentro de ese grupo, un 23% se ubicaba en el nivel -1 y un 21% en el 1. Cabe aclarar que quienes no alcanzan el nivel 1 pueden leer, pero sólo en el sentido técnico de la palabra. Es decir, son jóvenes que no comprenden lo que leen. El nivel 1 sólo exige que logren ubicar un fragmento de información, identificar el tema principal de un texto y establecer una conexión sencilla con el conocimiento cotidiano. El nivel 2 implica que los estudiantes sólo pueden resolver ejercicios básicos como los que piden ubicar información directa y realizar inferencias sencillas. ¿Qué sucedía en los demás campos? En matemáticas, nuestro país se ubicaba en el puesto 34, con un promedio de 388 puntos (siendo 500 el general). Ello suponía que los alumnos sólo podían responder preguntas claramente definidas, que implicaran contextos familiares y donde toda la información relevante estuviera presente y fuera explícita. En ciencias el asunto se ponía peor. Ocupábamos el puesto 37, es decir, sólo 4 países estaban más rezagados (Indonesia, Albania, Brasil y Perú), con un promedio de 396 puntos. Tal posición significaba que, en general, los estudiantes tenían un conocimiento científico tan limitado que sólo podía ser aplicado a pocas situaciones conocidas. Sus explicaciones científicas eran obvias y partían exclusivamente de evidencia explícita.
Pasados 12 años desde aquella evaluación, el fracaso no ha hecho más que incrementarse. En los últimos resultados, Argentina quedó en el puesto 61 en lectura, 59 en matemáticas y 58 en ciencias, siendo 65 los países participantes. Si tomamos los resultados del primer y el último año, se observa que mientras que matemáticas no fluctuó nada (388 puntos en ambos momentos), ciencias “mejoró” unos irrisorios diez puntos (396 a 406) y lectura cayó 22 puntos (418 a 396). La distancia con el promedio de los países de la OCDE es amplia: 494 en matemática, 501 en lectura y 496 en ciencias. En nuestro país, un 35% de los estudiantes quedó por debajo del nivel 1 en matemática. Dos de cada tres alumnos no alcanzaron siquiera el nivel 2 (66,5%), siendo ése el umbral mínimo a partir del cual pueden usar algoritmos, fórmulas y procedimientos básicos para resolver problemas con números enteros. En lectura, un 8,1% no alcanzó el nivel -1, un 17,7% se ubicó en ese nivel y un 27,7% en el 1. Es decir, si en el 2000 un 43% del alumnado no poseía competencias básicas de lectura, hoy el porcentaje asciende a un 53,5%. En ciencias, el 82% del alumnado se ubicó entre los niveles -1, 1 y 2. Tal situación supone que los jóvenes no comprenden lo que leen, no poseen pericias científicas y que, como mucho, pueden responder preguntas simples y evidentes. Por lo tanto, no podrán utilizar las matemáticas, la lectura y la ciencia a lo largo de su vida. Si se necesitan más pruebas de lo crítico de la situación, téngase en cuenta que, en matemáticas, sólo tuvieron un peor rendimiento que Argentina, Tunisia, Jordan, Colombia, Qatar, Indonesia y Perú. En lengua, Perú, Qatar, Albania y Kazakhstan. A la luz de estos datos, la afirmación de Perczyk parece más que una interpretación creativa, una cretinada.
¿Ojos que no ven?
Como ocurrió en el 2009, el gobierno nacional salió a restarle importancia a los resultados.[5] Generalizó el problema (“a todos los países americanos no les fue bien”) y relativizó la capacidad de la prueba para medir el rendimiento del sistema educativo (“aborda una porción del sistema y no su integralidad”).[6] También, corrió el eje del debate “confundiendo” problemas de distinto orden. Planteó que las elevadas tasas de escolarización en el nivel medio serían una prueba de la mejora del sistema, más allá de lo que digan las pruebas. Se mezclan aquí dos cuestiones, una cuantitativa y otra cualitativa, para oscurecer el asunto. Es posible que más jóvenes estén dentro del sistema educativo. Sin embargo, en el contexto de los resultados PISA, la pregunta obligada refiere a lo que esos jóvenes aprenden hoy en la escuela. Si se distinguen ambas cuestiones, afirmaciones tales como “hemos hecho un enorme esfuerzo para incluir a quienes históricamente estaban excluidos, sin renunciar a la calidad en los aprendizajes” no tienen asidero. Más allá de todas sus limitaciones, el informe pone en claro que la “calidad” educativa no ha hecho más que empeorar en los últimos años. Algo que el gobierno no está dispuesto a reconocer. En el 2009, en un acto de esquizofrenia importante Sileoni realzó primero una campaña anunciando que las PISA mostrarían la mejora de la calidad educativa. Al conocerse los resultados optó por desacreditar la evidencia.[7] A pesar de la apariencia, ahora eligió una táctica similar. Frente a las múltiples críticas recibidas frente a una situación de mal desempeño recurrente, Sileoni admitió, tibiamente, el mal desempeño de Argentina. Argumentó que era responsabilidad del Estado nacional y suya en lo particular.[8] A renglón seguido decidió deslindar culpas y “prender el ventilador”. Recordó la responsabilidad provincial en la gestión del sistema educativo alegando que “constitucionalmente la primera competencia de la educación pública y obligatoria es de las provincias”.[9] También la de las organizaciones sindicales y la del millón de docentes que se desempeña en él; la de los jóvenes estudiantes y la de sus familias. Una canallada.
Lo cierto es que, más allá de las críticas formuladas, las evaluaciones nacionales se colocan en sintonía con los resultados internacionales. El último Operativo Nacional de Evaluación (2010) mostró que un 30% de los estudiantes del último año del secundario tienen un desempeño bajo en matemáticas y ciencias sociales (en una escala que sólo contempla 3 niveles: alto, medio y bajo), un 26% en lengua y un 34% en ciencias naturales. La peor parte se la lleva la región del NEA (noreste argentino) con un 48% de bajo rendimiento en matemática, 41% en ciencias sociales, 39% en lengua y 48% en ciencias naturales. Los resultados de 2° y 3° año del secundario son igualmente alarmantes: 56% de bajo desempeño en matemáticas, 50% en ciencias naturales, 29% en ciencias sociales y 24% en lengua.
¡Así, no!
Propio de una necedad sin límites, el progresismo afirma que las evaluaciones PISA son impuestas por el imperialismo y la cultura occidental, de modo que los países “dependientes” o “subdesarrollados” no tendrían ninguna posibilidad de salir bien parados en ellas. Lo cual es falso. Parece mentira tener que decir que 2 + 2 son cuatro acá y en la China. Si un joven de 15 años no sabe trabajar con fracciones, hacer una regla de tres simple o comprender un texto sencillo es un problema, acá y en la China. Podría argumentarse que estas pruebas son realmente complejas. ¿Será que formulan ejercicios pensados para los niños «genios» de China, Japón o Suiza? Definitivamente no, a no ser que se considere muy sofisticado discernir si una mujer de 43 años que trabaja 60 horas semanales es parte o no de la población activa, si el ADN regula la glucosa o es una molécula con información genética o si, científicamente, se puede saber qué pensó una persona al momento de morir. Veamos otro ejemplo de la última evaluación:
“La subida al Monte Fuji solo está abierta al público desde el 1 de julio hasta el 27 de agosto de cada año. Alrededor de unas 200.000 personas suben durante este período de tiempo. Como media, ¿alrededor de cuántas personas suben al Monte Fuji cada día?”
Sin dudas, se trata de un ejercicio que se podría resolver conociendo la regla de tres simple. Vale recordar que esa pericia formaba parte, hace dos décadas, del currículum de 4º grado de la escuela primaria. Ahora constituye un saber inalcanzable de un chico de tercer año de secundaria… Más que un examen tramposo del Imperialismo, buena parte de las preguntas del examen deberían poder responderse, sencillamente, con la instrucción primaria o con algo de cultura general. Sin embargo, hoy son indescifrables para nuestros jóvenes de 15 años. Y vamos de mal en peor. Las evaluaciones PISA, en conjunto con otros numerosos indicadores, ponen en evidencia la educación degradada que reciben los estudiantes en nuestro país. Una muestra más del ataque de la sociedad capitalista actual contra la educación de masas.
1Portal del Ministerio de Educación, en: http://goo.gl/Gwv4cW.
2La prueba se aplica a jóvenes de 15 años dado que esa es la edad en la que finaliza la educación obligatoria en la mayoría de los países de la OCDE.
3Las muestras son representativas y oscilan entre 4.500 y 10.000 estudiantes por cada país.
4Nuestro país no participó en el relevamiento del año 2003.
5Véase De Luca, Romina: “Las pruebas de la discordia. Rendimiento, calidad y otras yerbas educativas a propósito de los resultados de los test PISA”, en El Aromo N° 59, marzo-abril de 2011.
6Portal del Ministerio de Educación, ibíd.
7Véase: De Luca, Romina: ibíd.
8Clarín, 09/12/13.
9El Tribuno, 08/12/13.