Los diferentes instrumentos de medición de los niveles de aprendizaje de los estudiantes que hoy disponemos en América Latina léase pruebas diagnósticas al finalizar cada ciclo escolar y aplicadas por las autoridades competentes en cada país, las pruebas de calidad de los aprendizajes suministradas a nivel regional por la UNESCO o las pruebas PISA, impulsadas por la OCDE confluyen en una similar y dramática conclusión: los estudiantes latinoamericanos no están aprendiendo lo suficiente. Estas mediciones s e suceden, una tras otra, arribando siempre a esta conclusión, con escasos niveles de variación y sin un patrón constante que permita intuir, aunque lenta, una evolución positiva. Ante esta situación las autoridades educativas hacen, al decir de Eric Hanus heck (1981) lo que mejor saben hacer. Es decir, echar dinero a los problemas. Así , los presupuestos educativos, públicos y privados, en toda la región han experimentado incrementos significativos, sin el consecuente efecto sobre los niveles de aprendizaje de los estudiantes. En esencia, las dinámicas de los procesos de aprendizaje no han variado desde cuando la educación se expandió al conjunto de la población y dejó de ser el privilegio de los grupos más aventajados de la sociedad. La masificación de la e ducación se corresponde con la instalación plena de la revolución industrial, con la consolidación de los estados nacionales y la expansión y dominio del estado de derecho. El cometido de la educación era formar trabajadores, ciudadanos integrados a una id entidad nacional, conocedores y respetuosos de la ley. En ese modelo, el conocimiento debía experimentar una “transposición didáctica”, desde el maestro al alumno (Yves, Chevallard; 1997).
Es decir, el conocimiento se concebía en poder monopólico del profe sor, que actuaba como agente activo y emisor; mientras que el estudiante desempeñaba un rol pasivo, en tanto receptor. La irrupción de la tecnología y el auge de los medios de comunicación, echan por tierra los pilares de este paradigma. En efecto, los es tudiantes hoy disponen de cientos de canales para recibir saberes, contrastarlos y cuestionarlos con los que plantea el docente en el aula. Ante esta anomalía evidente del paradigma vigente, los sistemas han pretendido tratar dicha anomalía como una simple alteración, no significativa, y absorber sus efectos, simplemente entregando dispositivos o agregando mayor tiempo en las aulas. En paralelo, la ciencia viene aprendiendo y comprendiendo de manera exponencial el funcionamiento del cerebro humano. También , sobre los procesos bioquímicos que intervienen en el aprendizaje, los cuales son tenuemente incorporados a la hora de definir políticas educativas. Igualmente, el proceso de toma de decisiones en este sector, fuertemente influenciado por educadores forma dos en áreas de la psicología, son renuentes a considerar la data para guiar acciones, y se limita su consideración a un uso instrumental, solo cuando es congruente con la cosmovisión de carácter ideológico que adopta la autoridad o el gerente de turno. T al y como lo plantea Fernando Sandoya (MIT), la solución para una mayor efectividad de los procesos de aprendizaje, bien podría yacer en la ciencia de datos y en el diseño de algoritmos de Machine Learning (ML); sea de clasificación o de otra especie, que le permitiera a cada individuo desarrollarse allí donde demuestra mayor talento natural e intereses. Este es el desafío y el elemento diferenciador del paradigma que se avecina. Es decir, romper con la estandarización del perfil de egreso de cada nivel edu cativo. Paradigma, diseñado como una cadena de producción industrial cuyo resultado al final del proceso debía basarse en la estandarización y patrones de calidad definidos por un único tipo. El ML puede contribuir a personalizar propuestas educativas para que cada alumno oriente su proceso educativo en función de sus intereses, atributos y talentos. El ML puede convertirse así, en uno de los instrumentos más poderosos con que cuente el docente en el aula para guiar a sus estudiantes, y para las autoridades educativas en sus responsabilidades de planeación y ejecución de políticas. En este sentido, el ML puede constituir una de las claves para reinventar la forma en cómo educamos y aprendemos Antes de describir e identificar las 4 etapas que definen el pr oceso de ML, en el sector educación es preciso definir una etapa 0, inicial, la captura de la data. Lo que puede parecer evidente en otras disciplinas, aquí la forma de captura y los instrumentos utilizados son de vital importancia. Aún los sistemas siguen aplicando pruebas de los estudiantes en papel, capturando datos administrativos en el mismo medio, recogidos por personas no entrenadas y no considerando decenas de dimensiones relevantes que tanto la teoría como la evidencia demuestran que impactan en lo s aprendizajes. Me refiero a los patrones alimenticios y de sueño; a la composición de la familia y características del hogar del estudiante; al nivel de desarrollo psicocerebral; a la evaluación del número y velocidad de las redes neuronales de cada indiv iduo; a los balances bioquímicos, tanto a nivel cerebral como a nivel orgánico general de los alumnos; de igual manera no se relevan intereses, preferencias, y opiniones de los propios estudiantes. Asimismo, tampoco se recaba data de esta naturaleza en los docentes y padres de familia. De modo que en este sector se debe hacer un esfuerzo adicional para repensar los medios, las formas y los atributos que son relevantes recabar para ganar en contenido, validez y confiabilidad de la data relevada. Una vez resuelto el problema de la captura y calidad de la información recabada, corresponde comprender esos datos. Como se trata de un fenómeno complejo, multidimensional y que deberá administrar cientos de atributos de cada perfil, constituirá un reto formular l as preguntas adecuadas, y presentar las diferentes asociaciones o factores que determinan la variable dependiente, ergo el nivel de aprendizaje, de forma amigable y comprensible. Sobre todo, teniendo en cuenta que los tomadores de decisión, en general, no cuentan con la formación para interpretar datos de forma compleja. Aplicar el método de análisis de componentes principales será mandatorio en esta fase del proceso. Una forma de mejorar la capacidad de análisis y contribuir a formular mejores preguntas a la data, es recurrir al aprendizaje no supervisado. Es decir, definir una herramienta o algoritmo que permita a los sistemas informáticos determinar patrones, relaciones entre los datos y estructuras no evidentes ni consistentes con las hipótesis tradicio nales formuladas a partir de la teoría. estrategia Una que apuntala a esa dirección es Learning Analytics, un método para comprender y optimizar el proceso de aprendizaje de los estudiantes a través del procesamiento y visualización de datos sobre las cara cterísticas de los estudiantes y principalmente su progreso y trayectoria educativa. Esta herramienta es utilizada por docentes para identificar deficiencias en los aprendizajes, e inclusive sugerirles currículos personalizados para sus pupilos. También, e s usado frecuentemente por estudiantes para traquear progresos en término de aprendizaje (Clow, 2012) . S sus propios ería interesante también estudiar la viabilidad de construir una ontología informática de los datos para a su vez se puedan establecer jerarquías entre los datos a considerar. Con buena data disponible, correctamente presentada y comprendida estarán dadas las condiciones para predecir el comportamiento de los datos en el futuro. En educación se recurre a los modelos de predicción lineales o regresiones simples, también al análisis factorial. Sin dudas necesario pero insuficiente. Entiendo, hay una enorme o portunidad para aplicar Deep Learning, a partir de la creación de redes neuronales que sean capaces de predecir el desempeño de un estudiante para lograr introducir los correctivos a tiempo. Esto representará sin dudas un desafío logístico para el docente en el aula, como también a nivel sistémico para promover cambios metodológicos a tiempo, de forma tal que el nivel de fracaso estudiantil pronosticado sea minimizado. Tomar decisiones en función de los modelos predictivos supone en este sector, además de c ostos administrativos y financieros costos políticos y reputacionales. En ocasiones los tomadores de decisión son renuentes a ensayar cambios radicales o significativos por el grado de incertidumbre que supone iniciar alternativas y los costos asociados. A estos costos debe agregarse aquellos relacionados con la resistencia al cambio de agentes que pueden sentirse afectados por los cambios sugeridos. Sin dudas, en este sector, se deben extremar las medidas y tomar los recaudos necesarios para minimizar los costos diversos y al mismo tiempo intentar explotar los modelos más efectivos para contagiar al conjunto del sistema. Por esta razón la aplicación en pequeñas escalas, y en ambientes lo más controlables posibles suelen ser las estrategias más adecuadas pre vio a impactar al conjunto de una política pública o sistema. Experimentar en escalas reducidas y recurriendo a grupos de control constituye la mejor herramienta para entender las inferencias causales en sectores como la educación cuya naturaleza no permit e controlar todos los elementos que intervienen, en este caso en los aprendizajes. Por esta razón se habla de diseños cuasiexperimentales (Stanley y Campbell, 1963) para fenómenos sociales en los cuales son válidos los controles aleatorizados, sintéticos y de series temporales.
No hay comentarios:
Publicar un comentario