DIANA CAROLINA VARGAS PIENDA - RIUD: Página...
-
Upload
vuongkhuong -
Category
Documents
-
view
215 -
download
0
Transcript of DIANA CAROLINA VARGAS PIENDA - RIUD: Página...
APOYO EN LA CONSTRUCCIÓN DE PREGUNTAS DE CIENCIAS NATURALES DE
LOS PROGRAMAS APLICADOS POR EL ICFES PARA LA EVALUACIÓN DE LA
EDUCACIÓN EN COLOMBIA
DIANA CAROLINA VARGAS PIENDA
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
BOGOTÁ D.C.
2016
APOYO EN LA CONSTRUCCIÓN DE PREGUNTAS DE CIENCIAS NATURALES DE
LOS PROGRAMAS APLICADOS POR EL ICFES PARA LA EVALUACIÓN DE LA
EDUCACIÓN EN COLOMBIA
DIANA CAROLINA VARGAS PIENDA
Director: Liz M. Muñoz
UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS
FACULTAD DE CIENCIAS Y EDUCACIÓN
PROYECTO CURRICULAR DE LICENCIATURA EN QUÍMICA
BOGOTÁ D.C.
2016
AGRADECIMIENTOS
Debo agradecer principalmente al ICFES, quienes me abrieron sus puertas y propiciaron un
espacio de aprendizaje y conocimiento de las exigencias del mundo laboral aún sin la experiencia
que normalmente requerirían, y cuyo objetivo central, más allá de las contribuciones al instituto,
fue el desarrollo de una profesional íntegra, capaz y competente.
Agradezco también al equipo de la Subdirección de Producción de Instrumentos, especialmente
a Claudia L. Sáenz y Mónica Roldán, quienes desde su amplia experiencia en el instituto me
acompañaron y guiaron permanentemente, confiando siempre en mis capacidades y
competencias para participar activamente en las funciones de la subdirección.
Finalmente, quiero expresar mi más sincero agradecimiento a la Dra. Liz Muñoz, cuyo
acompañamiento y apoyo incondicional fue invaluable para direccionar adecuadamente y dar
rigor a las labores realizadas en el ICFES en relación a mi formación académica como
Licenciada en Química, quien, por demás, siempre ha incentivado en mí la discusión y
pensamiento crítico de mi quehacer como futura docente investigadora en ciencias naturales
desde las metaciencias, y de quien he aprendido que es tan importante saber química como saber
sobre ella.
TABLA DE CONTENIDO
1. INTRODUCCIÓN .......................................................................................................................... 2
2. JUSTIFICACIÓN ............................................................................................................................ 2
3. MARCO TEÓRICO ........................................................................................................................ 2
3.1. ANTECEDENTES: LA INSTITUCIÓN ...................................................................................... 2
3.2. REFERENTES TEÓRICOS: ASPECTOS GENERALES DE LA EVALUACIÓN .............................. 7
3.3. EVALUACIÓN DE LA EDUCACIÓN: REFERENTES DESDE EL MEN Y EL ICFES .................... 13
4. METODOLOGÍA ......................................................................................................................... 17
4.1. Objetivo general ............................................................................................................... 18
4.2. Objetivos específicos ........................................................................................................ 18
4.3. Metodología De Investigación ......................................................................................... 18
4.4. Fases y desarrollo del proceso realizado ......................................................................... 18
5. RESULTADOS ............................................................................................................................. 19
6. ANÁLISIS DE LOS RESULTADOS ................................................................................................ 23
7. ALCANCE DE LOS RESULTADOS ................................................................................................ 27
8. IMPACTOS ................................................................................................................................. 28
9. CONCLUSIONES ......................................................................................................................... 28
10. REFERENCIAS ........................................................................................................................ 29
ANEXO 1. Cronograma de actividades ............................................................................................. 31
ANEXO 2. Cumplimiento de horas de pasantía ............................................................................... 32
ANEXO 3. Evaluación de la pasantía emitida por supervisor de la práctica en el ICFES ................ 33
ANEXO 4. Constancia emitida por el ICFES de la realización de la pasantía .................................. 34
2
1. INTRODUCCIÓN
La pasantía se llevó a cabo en la Subdirección de Producción de Instrumentos del ICFES,
enfocada en el apoyo a los procesos de construcción de preguntas de Ciencias Naturales. La
estudiante se encargó específicamente de la validación, retroalimentación y revisión con el fin
de ingresar los ítems al banco de pruebas para su pilotaje. Estas tres actividades fueron realizadas
en el marco de una investigación/acción mediante entrevistas semiestructuradas con docentes
de grado 3°, 5°, 7°, 9° y 11° ya que es vital asegurar la correspondencia entre el contenido
conceptual de las preguntas y el grado al cual son dirigidas, garantizando una evaluación basada
en criterios válidos. En total, fueron validados y revisados 1059 ítems de Ciencias Naturales para
los programas Saber 3579 y Saber 11.
2. JUSTIFICACIÓN
Durante la pasantía realizada en el ICFES se contribuyó a la educación en ciencias naturales del
país ya que a partir de la construcción de instrumentos de evaluación que dimensionan la calidad
de la educación en ciencias desde las competencias, se fomenta la formación enfocada al
pensamiento crítico y conocimiento aplicado más que el aprendizaje memorístico.
Así mismo, favoreció la formación integral de la estudiante desde el fortalecimiento de
conocimientos prácticos en evaluación educativa respecto a los lineamientos tanto nacionales
como internacionales, lo que permitió un acercamiento a la problemática de la educación en el
país desde una perspectiva gubernamental. Por otro lado, proporcionó un espacio de
autoevaluación como docente de Química acerca de qué, cómo, para qué y según qué criterios
se enseña ciencia.
3. MARCO TEÓRICO
A continuación se presenta una caracterización de la institución y área específica ne la cual se
realizó la pasantía:
3.1. ANTECEDENTES: LA INSTITUCIÓN
El Instituto Colombiano para la Evaluación de la Educación – ICFES. Es el encargado llevar a
cabo la preparación, administración y evaluación de instrumentos para realizar el proceso de
selección de estudiantes a universidades, la Asociación Colombiana de Universidades y el
Fondo Universitario firman en 1966 el acuerdo 065 (Grupo de Evaluación de la Educación
Básica y Media - Subdirección Académica, 1999) con el que se creó el Servicio de Admisión
Universitaria y Orientación Profesional. Estas fueron las primeras pruebas de selección y
clasificación en diversas universidades del país, que se realizaban por demanda y se presentaban
en las sedes solicitantes.
3
En 1968 se reestructuró el Servicio de Admisión Universitaria y Orientación Profesional y surgió
el Servicio Nacional de Pruebas, una de las dependencias del ICFES, el cual aplicó los primeros
exámenes nacionales que evaluaban Aptitud Matemática, verbal, razonamiento abstracto,
relaciones especiales, ciencias sociales y filosofía, química, física, biología e inglés.
Sin embargo, los exámenes de admisión fueron reglamentados hasta 1980 e incluía nueve
pruebas agrupadas en 5 áreas:
Ciencias naturales (Biología, Química y Física)
Lenguaje (Aptitud Verbal, Español y Literatura)
Matemática (Aptitud Matemática y Conocimientos en Matemáticas)
Ciencias sociales (Historia, Geografía y Filosofía)
Electiva (Razonamiento Abstracto, Relaciones Espaciales, Razonamiento Mecánico,
Inglés, Conocimientos Pedagógicos, Conocimientos Agropecuarios, Contabilidad y
Comercio, Francés, Metalmecánica, Electricidad y Electrónica, Salud y Nutrición,
Artes, Construcciones Civiles, Promoción de la Comunidad, Medio Ambiente,
Democracia o Etnoeducación)
A partir del año 2000, debido a la globalización, se derivan nuevas exigencias educativas
consecuencia de los cambios sociales, políticos, culturales y económicos, que implicaron la
implementación de un nuevo tipo de evaluación. Así, el examen de estado cambió su enfoque
de contenidos a competencias y se adaptó a los lineamientos establecidos en la Ley General de
la Educación de 1994 (inicialmente indicadores de logros curriculares y actualmente estándares
básicos de competencias).
Para el 2005, el examen de estado se proyecta para
Orientación profesional de los estudiantes
Instrumento para el desarrollo de investigaciones interdisciplinares
Guiar y apoyar el proceso de autoevaluación de los planteles educativos
En 2007, la prueba fue dividida en núcleo común (Lenguaje, Matemáticas, Biología, Química,
Física, Ciencias Sociales, Filosofía e Inglés) y un componente flexible (profundización en alguna
de las áreas y una prueba interdisciplinar).
Actualmente, el examen se compone de 5 pruebas: Matemáticas, Lectura Crítica, Sociales,
Ciencias Naturales e Inglés; y de 2 subpruebas: Competencias Ciudadanas y Razonamiento
Cuantitativo. Adicionalmente, se incluye una pregunta abierta en cada área. Además se llevan
a cabo otros exámenes como Saber 359 (3ro, 5to, 9no) para evaluar el proceso educativo y
evidenciar las fallas en el proceso de educación básica y media, y Saber Pro que se aplica al
finalizar los estudios de pregrado con el fin de valorar la formación en la Educación Superior
Misión
Ofrecer el servicio de evaluación de la educación en todos sus niveles, y adelantar investigación
sobre los factores que inciden en la calidad educativa, con la finalidad de ofrecer información
para mejorarla
4
Visión
En el 2020 el ICFES será la entidad de evaluación de la educación más importante de América
Latina, reconocida por la calidad y pertinencia de sus mediciones y se consolidará como el centro
de pensamiento sobre calidad educativa, incidiendo en todo el sector educativo. Así mismo, el
ICFES habrá incursionado estratégicamente y con éxito en nuevos servicios de evaluación
que contribuyan a la toma de decisiones, que promuevan la competitividad y la inclusión social.
SUBDIRECCIÓN DE PRODUCCIÓN DE INSTRUMENTOS
En la figura 1 se presenta la estructura organizacional del ICFES, en la cual se observa que
existen dos direcciones misionales, la Dirección de Evaluación y la Dirección de Producción y
Operaciones. La pasantía se llevó a cabo en la Subdirección de Producción de Instrumentos, una
de las dependencias de la dicha Dirección, cuya principal función es controlar el plan de
construcción y diagramación de los ítems y su validación, atendiendo a las especificaciones
técnicas definidas en el diseño de instrumentos de evaluación (MINISTERIO DE
EDUCACIÓN NACIONAL, 2009).
Labores de la Subdirección de Producción de Instrumentos: Enmarcando las labores de la pasantía
Figura 1. Estructura organizacional del ICFES – Instituto Colombiano para la Evaluación de la Educación. Disponible online en: http://www.icfes.gov.co/index.php/quienes-somos/organigrama
5
La figura 2 muestra el procedimiento general para
la construcción de preguntas. El trabajo realizado
en el ICFES se enfocó principalmente en los pasos
6 y 7, es decir en la validación y su respectiva
retroalimentación.
De forma general, la construcción de un ítem
comprende la selección de los constructores según
los requerimientos del área, en este caso, de
ciencias naturales. Esto se lleva a cabo por medio
de una prueba específica (biología, química, física
o ciencias de la tierra) aplicada y revisada por los
gestores de pruebas. Una vez seleccionados los
constructores, se realiza la capacitación sobre la
estructura de la prueba de ciencias: componentes,
competencias, evidencias y tareas de acuerdo a las
especificaciones suministradas por la Subdirección
de Producción de Instrumentos, así como los
principales criterios a tener en cuenta para asegurar
la validez y confiabilidad de la misma.
Posteriormente, se lleva a cabo una revisión por
parte del Gestor de pruebas de las preguntas
construidas. En caso de que se evidencien errores
conceptuales o de constructo, el ítem es devuelto al
constructor; no obstante, si el ítem no presenta
falencias según la perspectiva del gestor, éste pasa a
una revisión de estilo para su posterior
diagramación.
Una vez diagramado, el ítem se revisado
nuevamente por el gestor, verificando que las
condiciones inicialmente propuestas por el
constructor no se hayan afectado por la
diagramación.
A continuación, los ítems diagramados se llevan a validación con docentes, ojo fresco o
estudiantes (según el tipo de pregunta y programa). En este paso específico se concentraron las
actividades desarrolladas durante la pasantía, las cuales se describen detalladamente a
continuación:
Selección y capacitación de validadores: para la selección se tienen en cuenta criterios
como el curso en que el docente dicta las clases así como los enfoques educativos de la
institución. Por su parte, la capacitación consiste en una breve descripción de las
actividades llevadas a cabo por el ICFES (qué pruebas se realizan, con qué fin, etc.) y de
2. Construcción
3. Revisión
4. Revisión de estilo
5. Diagramación
6. Revisión
7. Validación
8. Retroalimenteción
9. Ingreso a Banco para piloto
1. Selección y Capacitación de constructores
¿El ítem presenta problemas de conceptuales?
¿El ítem presenta problemas de diagramación?
¿El ítem presenta problemas de conceptos,
estilo o diagramación?
SI
NO
NO
SI
NO
SI
Figura 2. Procedimiento para la construcción de ítems
Act
ivid
ades
a c
argo
de
la
estu
dia
nte
du
ran
te la
pas
antí
a
6
la estructura de la prueba a validar (componentes, competencias, evidencias y tareas),
explicación del proceso de validación (qué es, cómo se enmarca en el proceso de
construcción y mantenimiento de ítems, cómo se desarrolla, aspectos a tener en cuenta
durante la validación, etc.) y, finalmente, diligenciamiento del Acta de Confidencialidad
por parte de los validadores.
Validación individual: es el primer paso de la validación, en el cual, los docentes revisan
cada ítem en un tiempo aproximado de 4 minutos por pregunta, cuyas observaciones se
registran en el formato C1.1.F16, Validación de ítems. Es importante el carácter
individual de la revisión ya que esto impide el sesgo de la opinión acerca de la pregunta.
Moderación de la validación grupal: en este caso, teniendo en cuenta las observaciones
registradas, los docentes discuten acerca de los errores y sugerencias sobre las preguntas
con el fin de llegar a un consenso para mejorar el ítem. Este proceso es moderado por el
pasante, quien dirige y establece el consenso de la discusión por medio del formato
C1.1.F17, Relatoría de Moderador.
Ajustes según la validación: habiendo finalizado la validación con docentes, el pasante
se reúne con el gestor de la prueba en cuestión y señala los principales ajustes de los
ítems, bien sea de constructo o de diagramación.
Teniendo en cuenta las observaciones de la validación, el gestor de prueba puede enviar el ítem
al constructor (en caso de que existan errores conceptuales que se hayan pasado por alto en
etapas anteriores y que requieran de la reconsideración del autor de la pregunta) o a
diagramación (si se presentan factores en documento como tal que interfieren en la
interpretación de la pregunta). Si no se observan elementos que requieran de corrección, el ítem
es ingresado al Banco de preguntas para su aplicación piloto.
Las labores realizadas por la estudiante en práctica se enfocaron principalmente en esta última
fase del proceso, la validación, retroalimentación y corrección de los ítems.
Funciones de la Subdirección de Producción de Instrumentos (MINISTERIO DE EDUCACIÓN
NACIONAL, 2009)
Como dependencia de la Dirección de Producción y Operaciones, la Subdirección de
Producción de Instrumentos debe responder con las siguientes funciones:
Ejecutar y controlar el plan de construcción y diagramación de los ítems y su validación,
atendiendo a las especificaciones técnicas definidas en el diseño de instrumentos de
evaluación.
Ejecutar y controlar el proceso de armado y edición de instrumentos de evaluación,
atendiendo a las especificaciones definidas en el proceso de diseño.
Administrar y controlar el banco de pruebas y preguntas.
Coordinar y controlar la diagramación, medición y control de riesgos operativos
relacionados con los procesos que se desarrollan en la dependencia.
Las demás que le sean designadas, de acuerdo con la naturaleza de la dependencia
Organigrama de la Subdirección de Producción de Instrumentos
7
En la figura 3 se muestra un esquema general de los cargos en la Subdirección de Producción de
Instrumentos. Cabe resaltar que la labor como pasante es apoyar concretamente las labores de
los gestores de prueba y, eventualmente, los cargos administrativos.
Figura 3. Organigrama de la Subdirección de Producción de Instrumentos
3.2. REFERENTES TEÓRICOS: ASPECTOS GENERALES DE LA EVALUACIÓN
Hoy por hoy, las pruebas aplicadas por el ICFES constituyen para muchas instituciones un
medio para llegar a una posición alta en un ranking de calidad de planteles educativos. Es debido
a esta jerarquización que se ha perdido el verdadero sentido de la evaluación: el propósito inicial
del desarrollo de los instrumentos no es aplicar y medir sistemáticamente una serie de técnicas,
sino proporcionar una perspectiva general de la educación de los estudiantes, fomentando una
autoevaluación consciente de la formación frente a las necesidades del entorno, de manera que
los estudiantes comprendan que no se forma para una prueba sino para la vida.
A continuación se presenta una contextualización general de la evaluación, su significado, tipos
y modelos según la situación histórica, política, social y cultural desde la que se mire.
Qué es la evaluación
En la literatura existen diversas definiciones sobre la evaluación según la necesidad y objeto de
la misma: enjuiciamiento, control, rendición de cuentas, entre otros (Mora Vargas, 2004). Según
el Joint Committee on Standards for Educational Evaluations, JCSEE, la evaluación es “el
enjuiciamiento sistemático del valor o mérito de un programa”, asimismo debe ser útil, viable,
ética y exacta.
Subdirector de Producción de Instrumentos
Profesional universitario 02
Profesional Universitario 01
Técnico Administrativo 01
Gestores de Prueba 04
Gestores de Prueba 03
Gestores de Prueba 02
Gestores de Prueba 01
Cargos administrativos Construcción de pruebas
8
Otras definiciones de evaluación, por ejemplo la de Tyler (1973) “una constante comparación
de los resultados de aprendizaje de loa alumnos con los objetivos previamente determinados en
la programación de la enseñanza”, han sido ampliamente criticadas ya que es necesario superar
el paradigma instrumentalista de la evaluación basado en la recolección y comparación de datos
numéricos que restringen el proceso a la medición. En este sentido, desde hace varias décadas
se ha venido planteando una concepción de la evaluación como un proceso práctico,
pedagógico, comunicativo y holísitico que responda a las necesidades sociales de la educación
y que no se restrinja al procesamiento de datos cuantitativos sino que abarque un método
cualitativo (Eisner, 1967). Por tanto, existen diversos tipos de evaluación según el contexto.
Tipos de evaluación
Debido a que la evaluación puede responder a varias necesidades han surgido distintas
clasificaciones según la perspectiva metodológica, la finalidad, la función, el agente que la aplica,
el momento de aplicación y el criterio.
Según la perspectiva metodológica
Se considera cuantitativa si implica el análisis y cuantificación de conductas observables. Sus
principales características según Herrera (2009) son la “objetividad, valoración de un producto,
utilización del método hipotético-deductivo y el tratamiento estadístico, empleo de pruebas de
rendimiento y pruebas psicométricas”. Es cualitativa cuando se basa principalmente en la
observación del desenvolvimiento en un contexto social, apuntando a una evaluación holística.
Según la finalidad
en este caso la evaluación puede ser: diagnóstica si se desea conocer el estado del objeto antes
de la intervención, poniendo especial atención en sus fortalezas, debilidades y oportunidades de
mejora; sumativa si el objetivo es emitir un juicio evaluativo general al final de un período de
tiempo sin una trascendencia más allá de establecer una posición o promoción del alumno;
formativa si se busca brindar información que enriquezca el proceso de enseñanza – aprendizaje
durante el desarrollo del mismo, y no debe ser confundido con la evaluación por procesos.
Según la función
Existen diferentes tipos de función:
- la función social, referida a la promoción, certificación y acreditación.
- la función de control, debido al poder político que se le ha otorgado históricamente a la
evaluación.
- la función pedagógica, orientada a la formación y guía del evaluado.
Según el agente que la aplica
Puede ser heteroevaluación si el evaluador es un agente ajeno al evaluado, generalmente con
mayor formación con el fin de asegurar un mejor criterio a la hora de evaluar.; co-evaluación si
el proceso es realizado por un par, con un nivel de conocimientos similar; auto-evaluación si el
evaluado se evalúa a sí mismo.
Según el momento de aplicación
9
Se divide en inicial, procesual y final. La primera se aplica antes de iniciar el curso con el fin de
establecer los objetivos y cambios necesarios en el sistema. La segunda consiste en el análisis
continuo del aprendizaje durante el período de tiempo estipulado para el alcance de las metas;
no debe confundirse con la evaluación formativa, puesto que la evaluación procesual no tiene
trascender en el aprendizaje para la vida sino que apunta la obtención y medición de los
resultados. La tercera consiste en la recolección de datos al finalizar el período; usualmente se
asimila como una evaluación sumativa ya que no existe una retroalimentación del proceso, de
las fallas de la evaluación misma o de las fortalezas del evaluado con el fin de aportar a su vida
cotidiana.
Según el criterio de comparación
Se clasifica en nomotética e idiográfica. A su vez, la evaluación nomotética es normativa cuando
se compara al individuo en un grupo de referencia sin criterio alguno, es decir, apunta al
posicionamiento ordinal del estudiante. Esto resulta contraproducente cuando un alumno con
habilidades medias medido en un grupo de bajo nivel adquiere una posición alta; frente a esta
falencia, surgió la evaluación nomotética criterial, que se basa en un cambio respecto a criterios
externos bien definidos y no frente a un grupo de referencia. La evaluación idiográfica, por su
parte, es personalizada y los resultados se fundamentan en el cambio o adquisición de
habilidades en el individuo respecto a un estado anterior.
Modelos de evaluación
Así mismo, existen diversos modelos de evaluación que han surgido de acuerdo a los paradigmas
sociales, políticos y culturales, (CAJIGAS & GARCIA , 2014) divide los modelos de la
evaluación en clásicos y alternativos:
Modelos de evaluación clásicos
La característica común consiste en su enfoque instrumentalista orientado hacia la obtención de
resultados cuantitativos sin considerar un desarrollo holístico del evaluado. Entre estos modelos
se encuentra:
- Evaluación por objetivos: Establecida por Ralph Tyler, se basa en la medida del
cumplimiento de unas metas preestablecidas al iniciar el período de tiempo a evaluar.
- Evaluación para la toma de decisiones: Consiste en la recolección de información
al servicio de instancias superiores con el fin de justificar sus decisiones. En este sentido,
la evaluación no es un proceso democrático sino que se restringe a una élite social.
Stufflebeam (1995) y Guba (1989) propusieron dentro de este modelo la evaluación CIPP
(Contexto-Input-Producto-Proceso) con el objetivo de tomar decisiones conforme se
desarrolla la evaluación y no al final, como lo planteaba el modelo tyleriano.
- Evaluación de contexto: se fundamente en la valoración de un objeto en relación a su
entorno.
- Evaluación input: está basada en el análisis de las condiciones con las que cuenta el
estudiante, institución o entidad: objetivos, personal, actividades, recursos, etc., para
determinar las necesidades del evaluado.
10
- Evaluación de procesos: (CAJIGAS & GARCIA , 2014) la define como la valoración
de “la calidad de los actores implicados en el proceso y su interacción, los materiales
utilizados en esa interacción, las metodologías aplicadas en ella, los espacios en que se
hace efectiva”. Asimismo, está sujeta al momento político y social en que se desarrolla.
Modelos alternativos
Estos modelos apuntan a la evaluación global del estudiante con la intención de aportar a su
desenvolvimiento en la cotidianidad y un desarrollo integral de sus habilidades. Entre estos se
encuentra:
- Evaluación iluminativa: planteada por Parlett y Hamilton (1972), estudia los efectos de
la introducción o modificaciones de un programa sobre los implicados en el proceso de
enseñanza-aprendizaje (Parlett & Hamilton, 1972) (Fonseca, 2007). Stufflebeam y
Shinkfield, (1995) indican que existen tres fases principales de investigación:
observación, para identificar todas las variables; investigación, con el fin de establecer
los factores que afectan directamente el resultado; explicación, que expone los principios
que rigen el modo de operación del programa.
Evaluación por competencias: nacido por la necesidad de formar personas competentes en un
entorno laboral (Clavijo, 2008), este modelo retoma el concepto de competencia desde una
perspectiva académica: “capacidad compleja que integra conocimientos, potencialidades,
habilidades, destrezas, prácticas y acciones que se manifiestan en el desempeño en situaciones
concretas, en contextos específicos (saber hacer en forma pertinente)” (Instituto Colombiano
para la Evaluación de la Educación, 2015). En este sentido, la evaluación por competencias
apunta a la formación de personas íntegras capaces de desenvolverse y aplicar sus conocimientos
en contextos demandantes de la sociedad actual.
Metaevaluación
Cuando una evaluación es aplicada en distintas ocasiones sin observar cambios en el proceso es
necesario revisar los criterios sobre los cuales se ha construido dicha evaluación. La
metaevaluación consiste en analizar y estudiar el proceso evaluativa (Santos Guerra & Moreno
Olivos, 2004) Por tanto, asi como es necesario someter a juicio los resultados de una evaluación,
también se debe indagar acerca de la pertinencia de la misma, si efectivamente se está generando
un impacto positivo.
Santos y Moreno (2004) plantean 6 contextos desde los cuales se debe revisar el marco de la
evaluación:
- Contexto de constitución: se refiere a cuáles han sido las iniciativas de la evaluación,
bajo qué necesidad ha surgido, quiénes la han construido y con quién ha sido negociada.
- Contexto de justificación: implica qué métodos se utilizan para recoger los datos y cómo
se ha diversificado y enriquecido los mismos.
- Contexto de presentación: su principal cuestión es cómo se procesan los datos, de qué
manera se garantiza la validez tanto de la información procesada como de las
conclusiones.
11
- Contexto de negociación: se refiere a la forma en que se entregan los informes y
resultados
- Contexto de valoración: se cuestiona sobre los cambios producidos por la evaluación, si
existieron presiones o sesgos durante la evaluación.
- Contextos de difusión: abarca las formas en que se han difundido los informes, si han
estado al alcance de toda la población y si su conocimiento se ha dado de manera
democrática.
El proceso de metaevaluación debe ser simultáneo a la evaluación, ya que de esta manera se
garantiza la validez y pertinencia del proceso.
Teniendo en cuenta lo anterior, el diseño de los instrumentos de evaluación es crucial, ya que
es necesario una construcción con un fin fundamentalmente formativo. A continuación se
presentan los lineamientos bajo los cuales el ICFES realiza la construcción de preguntas que
garantizan un sentido evaluativo.
INSTRUMENTOS COMO UNIDADES EVALUATIVAS
En el contexto de evaluación de la educación, un
instrumento es considerado como una herramienta que, a
través de una serie de preguntas estructuradas, permite
recoger información acerca del proceso educativo del
estudiante por la asignación de valores numéricos a las
respuestas. El ICFES define un instrumento como “un
conjunto intencionalmente articulado de ítems a través de
cuya aplicación se infiere el desempeño de quienes son
evaluados en relación con el objeto de evaluación”
En este sentido, cabe establecer la diferencia entre
instrumento y pregunta: el instrumento se refiere a la suma
armónica y completa de ítems que responden a las
especificaciones de la prueba. De esta forma, los
instrumentos pueden estar compuestos por uno o varios tipos
de preguntas según sea requerido.
En la figura 4 se muestran los diferentes tipos de pregunta
que pueden clasificarse de acuerdo a la forma en que se
responde: selección de respuesta, si hay una codificación
previa, o producción de respuesta, si depende del evaluado
la construcción de la misma.
Debido a su practicidad para el análisis, el ICFES e enfoca
principalmente en la construcción de preguntas de selección
múltiple con respuesta única. La estructura general de una
pregunta de este tipo se presenta en la figura 5.
Un ítem de selección múltiple con respuesta única está constituido por las siguientes partes:
TIPOS DE PREGUNTA
SELECCIÓN DE RESPUESTA
Selección múltiple
apareamiento
selección alterna
falso -verdadero
dependientes de contextos
PRODUCCIÓN DE RESPUESTA
completar respuestas
ensayo corto
ensayo largo
ensayo oral
ejecución
productos no escritos
Figura 4. Tipos de pregunta según implementadas por el ICFES (ICFES,
2009)
12
- Contexto: proporciona la información necesaria para la resolución del problema; pueden
ser textos, imágenes, gráficas, tablas.
- Enunciado: expone, de forma explícita, la problemática que debe ser tratada por el
evaluado, está directamente relacionada por el objeto a evaluar (competencia). Para el
ICFES es estrictamente necesario que “provea una idea completa y clara de la tarea de
evaluación, que contenga la información necesaria y suficiente para contestar el ítem”
(ICFES, 2009)
- Opciones de respuesta: son posibles soluciones a la problemática plateada en el
enunciado. En este caso, solo una de las opciones es válida (clave), mientras que las
demás no responden a cabalidad con la tarea. Según el ICFES, una opción no válida
“puede ser un error común, una afirmación verdadera pero que no contesta
completamente a la pregunta o no satisface las exigencias del problema” (ICFES, 2009)
Figura 5. Esquema general de una pregunta de selección múltiple con única respuesta (ICFES, 2009)
Por otro lado, desde el 2014 el ICFES viene implementando un nuevo tipo de pregunta debido
a las falencias que presentan los ítems de respuesta múltiple de única respuesta. Estas nuevas
preguntas se denominan abiertas ya que requieren la construcción de una respuesta corta
elaborada por el evaluado a fin de determinar cómo se estructuran los procesos de interpretación,
argumentación y/o proposición para la solución de un problema específico.
Caracterización de los ítems:
La taxonomía de una pregunta es vital para la interpretación y análisis de resultados debido a
que establece el sentido de la construcción de la pregunta, es decir, el objeto específico de la
evaluación. De acuerdo a lo anterior, un ítem se puede clasificar por:
- Competencia: se refiere específicamente al saber hacer en contexto, a la implementación
de los conocimientos en un contexto específico.
- Componente: hace referencia al área específica de conocimiento que se evalúa.
- Dificultad: el ICFES define las dificultades según los siguientes criterios:
13
o Baja si el problema implica considerar solamente una variable, tiene en cuenta
una disciplina o si es altamente común en el quehacer profesional. Se prevé que
entre el 70% y el 100% de los evaluados contesten acertadamente a este tipo de
pregunta.
o Media: si el problema implica considerar dos variables, un análisis
multidisciplinario o interdisciplinario o si corresponde a asuntos específicos del
quehacer profesional. Se prevé que entre el 30% y el 70% de los evaluados
contesten acertadamente a este tipo de pregunta.
o Alta: si el problema requiere considerar el análisis de más de dos variables al
mismo tiempo, un análisis transdisciplinario o si se encuentra con poca
frecuencia en el quehacer profesional. Se prevé que entre el 10% y el 30% de los
evaluados contesten acertadamente a este tipo de pregunta.
Respecto a los modelos de análisis de ítems, el ICFES implementa principalmente la Teoría
Clásica de Test, TCT, y la Teoría de Respuesta al ítem, específicamente el modelo Rasch, para
analizar la validez y confiabilidad de los instrumentos construidos.
3.3. EVALUACIÓN DE LA EDUCACIÓN: REFERENTES DESDE EL MEN Y EL ICFES
Así como existen diversos modelos y tipos de evaluación que se derivan de los paradigmas
sociales, culturales y políticos del contexto en el que se desarrolla, en Colombia las formas de
evaluar la educación han cambiado por la evolución de la concepción epistemológica e histórica
de las ciencias naturales. A continuación se presenta un estudio histórico de como el MEN y el
ICFES han modificado los fundamentos de la evaluación en ciencias.
Período comprendido entre 1968 y 1991: los inicios de la evaluación (González, Sáenz, & Sánchez,
1998)
Ya en los años 60 se venía dando una revolución en la concepción de la evaluación educativa
gracias a los avances de Taylor en el desarrollo del modelo por objetivos. De esta forma, la
evaluación inicia con el establecimiento de los objetivos de la educación a través del Decreto 45
de 1962 (MEN, Decreto 45, 1962): la apropiación del conocimiento a partir de la sistematización
del aprendizaje, preparación para vivir en un mundo en constante evolución y adquisición de
principios básicos como responsabilidad y criterio para desempeñar actividades remunerativas
o provechosas. Asimismo, por cada curso de la básica secundaria se asigna un número de horas
anuales que varía de acuerdo a la intensidad y complejidad del área:
Tabla 1. Horas anuales por área según Decreto 45 de 1962.
Curso Materias Horas
Anuales
Primero Introducción a las ciencias 60
Segundo Biología vegetal 60
Tercero Biología natural 60
Cuarto Anatomía y fisiología humanas y salud 120
Quinto Física, nociones de mineralogía y química inorgánica 240
Sexto Física y química del carbono 240
14
En 1963, el Ministerio De Educación Nacional publica los Programas Analíticos que contiene
“sugerencias didácticas” para el área de ciencias y establece objetivos generales y específicos,
contenidos, material de apoyo, experimentos mínimos que se deben realizar, etc.
Adicionalmente, la evaluación se realiza de acuerdo a la intensidad de horario, profundidad y
extensión de los temas, es decir, en la construcción de las pruebas, el número de preguntas de
una temática específica depende del número de horas destinado su enseñanza.
Para los programas de ciencias naturales, se establecen siete objetivos fundamentales orientados
hacia el fortalecimiento de procedimientos asociados al método científico y la mecanización del
conocimiento
En 1974 surge el Decreto 80 (MEN, Decreto 80, 1974), que plantea un currículo menos rígido
orientado a la formación libre del sujeto, con un lineamiento en ciencias naturales fuertemente
marcado por el método científico, cuyo carácter inductivo es necesario en la enseñanza y en base
a los cuales señala una serie de capacidades y habilidades que deben ser logrados a través de la
educación en el área (observar, experimentar y analizar situaciones).
Siguiendo la visión inductiva de la ciencia, el currículo es organizado como tal: los temas se
presentan en orden jerárquico y se presenta de lo particular a lo general. Esto, aunado a la
concepción asociacionista del proceso enseñanza-aprendizaje y método conductista aplicado a
la educación desemboca en una perspectiva estática e inmutable de la realidad, siendo poco lo
que pueda ser aportado por estudiantes o profesores. De esta manera, las ciencias naturales se
convierten en una serie de conocimientos establecidos, y la relación docente-estudiante en una
simple transmisión de información.
Por otro lado, a pesar de que el decreto propone una formación ética y vital en ciencias,
solamente establece los contenidos a enseñar, por lo que la evaluación se limita a comprobar la
adquisición-memorización de los temas, concebida como una medida que permite establecer si los
objetivos instruccionales se han alcanzado ubicado al final del proceso, cuyo carácter cuantitativo garantiza
la objetividad de la misma (González, Sáenz, & Sánchez, 1998).
Finalmente, la evaluación se realiza según la taxonomía de Bloom (Bloom, Hastings, &
Madaus, 1975). La estructura de la prueba se divide en tres ejes: de contenidos (temas y subtemas
de cada disciplina) y de conducta (categorías son identificación o recuerdo, comprensión,
análisis, síntesis y evaluación.
Período comprendido entre 1991 y 1998: de los objetivos al constructivismo
No obstante, en vista de las dificultades que presentaba el modelo de evaluación por objetivos y
las diversas críticas que a nivel mundial surgían frente a éste, en 1991 el MEN establece una serie
de Fundamentos Generales, el plan de estudios, marcos generales, programas curriculares y
materiales de apoyo (MEN, Dirección General de capacitación y perfeccionamiento docente,
currículo y medios educativos. Ciencias naturales y salud. Marco general: propuesta de
programa curricular, 1991).
Se evidencian cambios respecto a los decretos anteriores como la visión globalizada y cambiante
de las ciencias, por lo que su enseñanza “no se basa en contenidos sino en la formación de actitudes que
permitan la construcción de conocimiento”. Sin embargo, la estructura jerarquizada de los contenidos
persiste aunque se propone una mayor profundidad en los mismos.
15
Por otro lado, se sugiere un currículo flexible que garantice la libre formación del estudiante
según sus intereses, pero la evaluación es generalizada y enmarcada según las categorías y sub-
categorías de contenidos propuesta por el MEN, desvirtuando la libertad de currículo.
Adicionalmente, la evaluación deja de ser un método de clasificación de los alumnos y se
convierte en una herramienta para detectar fallas aciertos en el proceso educativo con el fin de
establecer estrategias de mejora: ya no se evalúa la memorización del concepto sino la
adquisición de habilidades y destrezas. No obstante, el carácter cuantitativo de la evaluación se
conserva: “La evaluación se concibe como un proceso flexible y valorativo del quehacer humano, que debe
desempeñar un papel regulador, orientador, motivador y dinamizador de la acción educativa y de carácter
integral y permanente” (González, Sáenz, & Sánchez, 1998)
Finalmente, el proceso enseñanza-aprendizaje es comprendido desde el punto de vista
constructivista con el fin de fomentar la construcción de conocimiento. En este sentido, el
método científico deja de ser universal y obligatorio, permitiendo el desarrollo y exploración de
métodos de investigación y construcción de conocimiento distintos de acuerdo a la necesidad y
perspectiva de cada estudiante. Cabe preguntarse si es posible que el estudiante construya todos
los conceptos científicos sin recurrir a sus ideas previas, generando conocimientos distintos a los
aceptados universalmente por la comunidad científica.
Dado que la concepción de ciencia y construcción de conocimiento es distinto, el enfoque de las
pruebas en ciencias cambia el diseño en función de contenidos por el de comprensión de
fenómenos, estructurando contextos que permiten delimitar la validez de los distractores,
resaltar el carácter multifactorial de la ciencia y proporcionar los elementos suficientes para
discriminar entre las opciones de respuesta.
Con la introducción del contexto en los Exámenes de Estado, surge el problema de que la prueba
se limita a la comprensión lectora más que el análisis propio de los fenómenos naturales y las
destrezas y habilidades en ciencias.
Período comprendido entre 1998 y
2014: el auge de la evaluación por
competencias
Teniendo en cuenta las dificultades
que implicaba la evaluación por
objetivos señaladas anteriormente, en
el año 2000 se adopta la evaluación
por competencias basados en los
Lineamientos Curriculares. Ciencias
Naturales y Educación Ambiental
(MEN, Lineamientos curriculares.
Ciencias naturales y educación
ambiental. , 1988) (figura 1), que
propone evaluar las ciencias según competencias propias del área y niveles de competencia.
Figura 6. Dimensiones de evaluación en ciencias naturales (Toro , González, & Naranjo, Alineación del examen Saber 11°. Anexo 4. La prueba de ciencias naturales., 2013)
16
Cabe resaltar que los niveles de competencia son tomados como competencias: se habla de
‘Competencia interpretativa, argumentativa y propositiva’, evidenciando errores conceptuales
de la evaluación por competencias desde el diseño propio de las pruebas.
No obstante en el 2006 la estructura de la prueba cambia a componentes y competencias, los
primeros corresponden a los contenidos y las segundas a las capacidades que se evalúan en el
estudiante (figura 6)
Asimismo, se implementa un modelo basado evidencias para la construcción de pruebas (Toro
, González, & Naranjo, Alineación del examen Saber 11°. Anexo 4. La prueba de ciencias
naturales., 2013) (figura 7). En este modelo, los Estándares Básicos propuestos por el MEN
definen lo que se debe evaluar, a partir de cuyas competencias (capacidades que debe desarrollar
el estudiante durante su formación) se derivan afirmaciones (desempeños, logros y, entre otras
palabras, objetivos) que se convierten en evidencias (productos observables, responden a la
pregunta ¿qué deben hacer los estudiantes en las pruebas que permita inferir que tienen
determinadas competencias, conocimientos o habilidades?). Finalmente, de las evidencias se
construyen las tareas, que son los enunciados en la prueba y definen el nivel de complejidad de
la misma, dando lugar a las preguntas.
Figura 7. Estructura de la prueba de ciencias naturales por componente y competencias (Toro , González, & Naranjo, Alineación del examen Saber 11°. Anexo 4. La prueba de ciencias naturales., 2013)
17
Tabla 2. Cuadro comparativo entre las bases para la evaluación en ciencias naturales en 1963 y 2013
Objetivos instruccionales propuestos en
1963
Afirmaciones de la prueba propuestos en
2013
Valerse de la conexión lógica de los fenómenos observados para enseñar al alumno a ordenar su pensamiento
Competencia: Explicación de fenómenos:
Afirmación: Modela fenómenos de la
naturaleza basándose en el análisis de variables, la relación entre dos o más conceptos del conocimiento científico y de la evidencia derivada de investigaciones científicas
Ejercitar al educando en el análisis de los
hechos para que pueda encontrar la explicación de los mismos
Competencia: Explicación de fenómenos
Afirmación: Explica cómo ocurren algunos
fenómenos de la naturaleza basándose en observaciones, en patrones y en conceptos propios del conocimiento científico
Capacitar al alumno en el método de estudio propio de las ciencias naturales, agilizarlo en el manejo del material científico y familiarizarlo con el empleo de vocabulario
Competencia: Indagación
Afirmación:
Observa y relaciona patrones en los datos para evaluar las predicciones.
Utiliza procedimientos para evaluar predicciones
Deriva conclusiones para algunos fenómenos de la naturaleza basándose en conocimientos científicos y en la evidencia de su propia investigación y de la de otros.
Aprovechar los experimentos en donde sea posible una apreciación cuantitativa, a fin de habituar al alumno a la correcta ordenación de datos en tablas para deducir las leyes
Competencia: Indagación
Afirmación: observar y relacionar patrones
en los datos para evaluar las predicciones. Este objetivo se cumple cuando el estudiante
De esta manera, se observa que aún se mantiene el método científico como pilar para la
indagación en ciencias a pesar de hacer énfasis en una ciencia cambiante y como herramienta
de interpretación que modela la realidad. Además, la mayoría de preguntas se limitan a
escenarios no cotidianos que se remiten a situaciones en el laboratorio (generalmente en
química), por lo que la ciencia pierde su carácter interdisciplinar y universal, que además deja
de lado a aquellos estudiantes que no tienen acceso a este tipo de espacios.
4. METODOLOGÍA
Las actividades desarrolladas por la estudiante durante el desarrollo de la pasantía se enfocaron
en los siguientes objetivos:
18
4.1. Objetivo general
Apoyar la construcción de los ítems de Ciencias Naturales para el armado de las pruebas Saber
5°, 7°, 9°, 11° y Pro, desde los estándares de calidad propuestos por el ICFES.
4.2. Objetivos específicos
Revisar los ítems construidos de acuerdo a las especificaciones suministradas por la
Subdirección de Diseño de Instrumentos
Validar con expertos y pares académicos los ítems revisados y corregidos para su ingreso
al banco de preguntas piloto.
Realizar la retroalimentación del proceso para obtener los ítems aprobados para la
aplicación piloto.
4.3. Metodología De Investigación
Este trabajo se enmarca en la investigación cualitativa (Cohen & Lawrence, 1990) ya que el
principal método utilizado fue la investigación/participación si se tiene en cuenta que la
validación de instrumentos parte del análisis crítico de los docentes acerca de lo que se debería
enseñar según los lineamientos del MEN con lo que en realidad es enseñado en el aula. Así,
según la discusión de la experiencia en el campo, se toma acción sobre las modificaciones,
ajustes y correcciones de los ítems.
La técnica utilizada por la estudiante fue la entrevista semiestructurada (Munarriz, 1991)
utilizando los formatos presentados en los C1.1.F16 y C1.1.F17, enfocada tanto en la
construcción conceptual de la pregunta como en la correspondencia entre el conocimiento
manejado en el ítem y el grado al cual se dirige el ítem.
4.4. Fases y desarrollo del proceso realizado
Las actividades llevadas a cabo por la estudiante estuvieron enmarcadas en la construcción de
ítems (ver figura 2). Como se ha mencionado anteriormente, la estudiante estuvo
específicamente a cargo de dirigir la última parte del proceso, que incluye la validación,
retroalimentación y corrección de los ítems según las observaciones suministradas por los
docentes validadores. A continuación, se detalla el desarrollo de dichas actividades:
1. VALIDACIÓN DE PREGUNTAS:
Selección y capacitación de validadores: para la selección se tienen en cuenta criterios
como el curso en que el docente dicta las clases así como los enfoques educativos de la
institución. Por su parte, la capacitación consiste en una breve descripción de las
actividades llevadas a cabo por el ICFES (qué pruebas se realizan, con qué fin, etc.) y de
19
la estructura de la prueba a validar (componentes, competencias, evidencias y tareas),
explicación del proceso de validación (qué es, cómo se enmarca en el proceso de
construcción y mantenimiento de ítems, cómo se desarrolla, aspectos a tener en cuenta
durante la validación, etc.) y, finalmente, diligenciamiento del Acta de Confidencialidad
por parte de los validadores.
Validación individual: es el primer paso de la validación, en el cual, los docentes revisan
cada ítem en un tiempo aproximado de 4 minutos por pregunta, cuyas observaciones se
registran en el formato C1.1.F16, Validación de ítems. Es importante el carácter
individual de la revisión ya que esto impide el sesgo de la opinión acerca de la pregunta.
Moderación de la validación grupal: en este caso, teniendo en cuenta las observaciones
registradas, los docentes discuten acerca de los errores y sugerencias sobre las preguntas
con el fin de llegar a un consenso para mejorar el ítem. Este proceso es moderado por el
pasante, quien dirige y establece el consenso de la discusión por medio del formato
C1.1.F17, Relatoría de Moderador.
Ajustes según la validación: habiendo finalizado la validación con docentes, el pasante
se reúne con el gestor de la prueba en cuestión y señala los principales ajustes de los
ítems, bien sea de constructo o de diagramación.
Teniendo en cuenta las observaciones de la validación, el gestor de prueba puede enviar el ítem
al constructor (en caso de que existan errores conceptuales que se hayan pasado por alto en
etapas anteriores y que requieran de la reconsideración del autor de la pregunta) o a
diagramación (si se presentan factores en documento como tal que interfieren en la
interpretación de la pregunta). Si no se observan elementos que requieran de corrección, el ítem
es ingresado al Banco de preguntas para su aplicación piloto.
2. RETROALIMENTACIÓN DE VALIDACIÓN:
Comprendió la discusión con los gestores de prueba las observaciones derivadas de la validación
tanto individual como grupal. Se analizaron aspectos no solo del ítem como tal sino también el
contexto social y cultural de los validadores, así como la influencia de dihcos factores en el
proceso de validación.
Esta retroalimentación conllevó a la revisión de la diagramación y conceptual de los ítems que
presentaron problemas.
3. REVISIÓN DIGITAL 3°, 5°, 7° y 9°
Esta actividad se llevó a cabo en la plataforma digital TAO y abarcó desde el diseño
metodológico de la tarea hasta la revisión de los cuadernillos cognitivos y de factores asociados
según los lineamientos suministrados por la Unidad de Diagramación, Edición y Armado.
5. RESULTADOS
Teniendo en cuenta las fases del proceso realizado en el ICFES, a continuación se describen los
resultados más relevantes:
20
1. Validación de preguntas
Como se ha mostrado en la figura 2, la construcción de preguntas implica una cadena de
procesos: las primeras etapas estuvieron a cargo de los gestores de pruebas del área de ciencias
naturales, esto es, desde la capacitación de constructores hasta el envío a diagramación de los
instrumentos construidos según la asignación de labores por parte de la Subdirección. Las
actividades desarrolladas por la estudiante durante la pasantía se concentraron específicamente en dirigir y
coordinar la validación de las preguntas de ciencias naturales diagramadas, así como los ulteriores
procedimientos de retroalimentación y revisión digital. Teniendo en cuenta esto, el aporte principal de
la estudiante a la entidad radican en estas tres etapas.
En los anexos 1 y 2 se presentan tanto el cronograma de actividades establecido para la
validación de preguntas, retroalimentación y revisión digital, como las horas dedicadas al
desarrollo de estas actividades teniendo en cuenta el número de horas mínimo exigidas por el
acuerdo 031 de 2014 de la Universidad Distrital.
Así mismo, el anexo 3 corresponde a la valoración final emitida por el supervisor de la pasantía
del proceso realizado por la estudiante. Por su parte, el anexo 4 es la constancia de la realización
de la pasantía en el ICFES.
Se validaron 49 grupos de 18 a 25 preguntas de ciencias naturales de distintos grados, para un
total de 1059 ítems. Los componentes fueron Entorno vivo, Entorno físico y Ciencia tecnología
& sociedad y las competencias Uso comprensivo del conocimiento científico, Explicación de
fenómenos e Indagación.
Tabla 3. Total de ítems de ciencias naturales validados por programa
Según se muestra en la gráfica 1, el 50% de los
ítems validados pertenecen al programa Saber
11°. Adicionalmente, en el año 2015 el ICFES
empezó a implementar Saber 7° con el fin de proporcionar a las instituciones información más
detallada acerca del proceso de formación en la educación media. Para la construcción de estos
ítems, se tomaron preguntas de las pruebas 9° con dificultad baja y 5° con dificultad alta, fueron
reajustados según los estándares básicos de competencias para dicho grado y validados con
docentes de ciencias de grado 7°; el 31% de los ítems validados corresponden al programa Saber
7°. Finalmente, el 10% fueron preguntas del programa Saber 9° y el 9% a Saber 5°.
Programa Número de ítems
Saber 11° & Pro 531
Saber 9° 108
Saber 7° 324
Saber 5° 96
TOTAL 1059
50%
10%
31%
9%
Ítems construídos en Ciencias Naturales
1
2
3
4
Gráfica 1. Distribución por porcentajes de ítems de ciencias naturales validados por programa.
21
Por otro lado, también se apoyó la revisión de ítems de otras áreas, favoreciendo una visión
global acerca de las pruebas de estado. La tabla 4 muestra los resultados de validación de todas
las pruebas, incluyendo el área de ciencias.
En la gráfica 2 se observa que el principal aporte en cuanto a número de ítems por prueba fue
al programa Saber 11°, seguido de Saber 7°.
Tabla 4. Distribución de ítems de todas las áreas validados por programa y prueba.
Saber 11°
& Pro Saber 9° Saber 7° Saber 5°
Total de ítems
validados por área
Ciencias Naturales 531 108 324 96 1059
Razonamiento Cuantitativo
y Matemáticas 309 68 268 96 741
Lectura Crítica y Lenguaje 599 324 923
Competencias Ciudadanas y
Ciencias Sociales 223 112 231 132 698
Inglés 330 330
TOTAL 3751
Gráfica 2. Ítems validados por programa y prueba
En total, se coordinó la validación de 3751 ítems, de los cuales el 28% corresponden a la prueba
de ciencias naturales, 24% de lenguaje y lectura crítica, 20% de razonamiento cuantitativo y
matemáticas, 19% de competencias ciudadanas y ciencias sociales y 9% de inglés. Teniendo en
cuenta lo anterior, se aportó mayoritariamente en materia de validación al área de ciencias
naturales además de apoyar ampliamente en aspectos conceptuales y teóricos principalmente
desde el área de química.
0
100
200
300
400
500
600
700
Saber 11° Saber 9° Saber 7° Saber 5°
Nú
mer
o d
e ít
ems
Ítems validados por programa y prueba
Ciencias Naturales
Razonamiento Cuantitativo yMatemáticas
Lectura Crítica y Lenguaje
Competencias Ciudadanas y CienciasSociales
Inglés
22
Gráfica 3. Distribución por porcentaje de ítems validados por programa y prueba.
2. Retroalimentación de la validación:
Entre el 5% y 15% de los ítems requirió ajustes de diagramación, mientras que el 10% fue enviado
de nuevo al gestor y al constructor para la verificación de aspectos conceptuales. Luego de las
correcciones la totalidad de los ítems construidos, esto es, 1059, fueron aprobados para el ingreso
al banco de preguntas para pilotaje.
No obstante, la discusión acerca de las preguntas revisadas en contraste con la experiencia de
formación en competencias de ciencias naturales en el aula permite hacer las siguientes
observaciones:
La construcción está enfocada hacia la evaluación de competencias científicas (uso
comprensivo del conocimiento científico, explicación de fenómenos e indagación),
dando cuenta de las bases epistemológicas de la prueba, no obstante, la prioridad en la
formación de ciencias naturales en el aula es el contenido. En otras palabras, los docentes
se interesan por enseñar a sus alumnos las líneas temáticas establecidas por el MEN y
no por formar un pensamiento científico crítico.
Contrario a lo planteado por los estándares básicos de competencias propuestos por el
MEN, no existe una visión holística del conocimiento, por lo cual la evaluación es
compartimentada por áreas.
La validación con docentes da cuenta de que la formación no está orientada hacia el
desarrollo de competencias en ciencias ya que si bien los profesores hacen un uso
adecuado del conocimiento, existe bastante dificultad en el planteamiento de problemas
de investigación y establecimiento de conclusiones a partir de experimentos. Asimismo,
no hay claridad a la hora de argumentar una observación que contradice un estamento
científico considerado inicialmente válido.
Lo anterior se traduce en una visión tradicional de la evaluación basada en contenidos y
que implica una concepción de la ciencia como estática, no falsable, absoluta e inmutable
llevada al aula de clases.
28%
20%24%
19%
9%
Porcentaje de ítems validados por prueba
Ciencias Naturales
Razonamiento Cuantitativoy Matemáticas
Lectura Crítica y Lenguaje
Competencias Ciudadanasy Ciencias Sociales
Inglés
23
Si bien la prueba se enfoca a la evaluación de competencias científicas, usualmente se
utilizan contextos poco cotidianos y que remiten a una visión clásica de la ciencia, en la
que los experimentos son llevados a cabo en laboratorios y entornos netamente
académicos que carecen de trascendencia social. Teniendo en cuenta lo anterior, se ha
sugerido una estructura de la prueba basada en la Naturaleza de las ciencias que retome
las ideas metacientíficas no solo de la epistemología e historia sino también de la
sociología de las ciencias.
3. Revisión digital 3°, 5°, 7°, 9°:
Desde el año 2015, el ICFES implementó las TIC para la aplicación de las pruebas 3579 en
algunas instituciones educativas del país a través de TAO (plataforma digital). Esto implicó
subir 69 cuadernillos de prueba a TAO, haciendo necesaria la revisión estructural,
conceptual y piloto de los mismos.
La revisión estructural consistió en verificar todos los detalles de diagramación de las
preguntas y del cuadernillo (señalizaciones de inicio y parada, indicativos del área y número
de ítems). La revisión conceptual se basó en el estudio detallado de la coherencia del armado.
Finalmente, para el piloto se llevó a cabo por duplicado el string, proceso que consiste en
marcar y enviar una simulación de respuestas suministradas por la UNIDEA (Unidad de
Diagramación, Edición y Archivo) con el fin de contrastar las respuestas enviadas con las
recibidas en la Subdirección de Tecnología después de procesar los datos.
Como resultado, se revisaron 69 cuadernillos de 3579 en TAO, los cuales fueron aplicados
en el segundo semestre de 2015.
6. ANÁLISIS DE LOS RESULTADOS
La implementación de entrevistas semiestructuradas permitió a la estudiante observar ciertas
problemáticas no sólo de la formación del profesorado en ciencias sino de las contradicciones
que existen en los estándares de competencias formulados por el MEN:
Teniendo en cuenta que los estándares se enfocan a una educación holística, es necesario
establecer una coherencia entre dicho modelo y los criterios de evaluación.
Dimensionalidad en las pruebas Saber: una contradicción a la concepción holística de la educación en
ciencias naturales
En los contextos de ciencias naturales planteados se presenta una ciencia que no trasciende el
laboratorio, cuyas investigaciones y conclusiones no tienen un impacto más allá del académico.
No obstante, en competencias ciudadanas se evalúan, por ejemplo, la toma de decisiones desde
la problemática ambiental a partir de conclusiones basadas en análisis científico, observando
una trascendencia del conocimiento de las ciencias a la esfera social. Así mismo, en las pruebas
de lectura crítica se utilizan contextos de la filosofía de las ciencias sobre cómo surge el
conocimiento científico. Por tanto, cabe preguntarse ¿por qué no es posible construir una prueba
24
que abarque todas las áreas desde un mismo contexto con el fin de evaluar desde una misma
perspectiva un conocimiento global?
El problema de una prueba holística radica en el modelo de estadística que se utiliza para el
procesamiento de datos: la Teoría de Respuesta al ítem, TRI. Uno de los supuestos básicos de
esta teoría es la Dimensionalidad (Martinez , Lopez, Amador, & Saenz, 2000), según la cual se
asume que la prueba está diseñada para medir una sola habilidad o una combinación particular,
limitando la posibilidad de evaluar diversas áreas desde un solo instrumento. Sin embargo, el
ICFES ha venido implementando otro modelo multidimensional denominado Modelo Rasch
que aún está en proceso de aplicación a todas las pruebas.
Pertinencia de la evaluación en ciencias naturales: ¿Momento de una metaevaluación?
Otro de los problemas detectados a través de la validación de preguntas radica en que el ICFES
aplica un sinnúmero de instrumentos que carecen de un impacto más allá de establecer un
ranking de colegios o universidades. Por tanto, es momento de realizar una metaevaluación
junto al MEN con el fin de establecer cómo las pruebas aplicadas han contribuido al cambio en
la enseñanza de las ciencias. Así mismo, el ICFES debe contribuir a la democratización del
análisis de las pruebas, ya que es a partir de la interpretación y comprensión de los resultados
que planteles educativos pueden tomar juicios acerca de los procesos de enseñanza.
A través de una metaevaluación es posible democratizar la discusión de los resultados de las
pruebas así como su construcción, favoreciendo la visión holística de la enseñanza. Por tanto,
este proceso debe ser simultáneo a la construcción de los instrumentos con el fin de propiciar
una reflexión constante acerca de los impactos esperados de la evaluación
Según los contextos de metaevaluación planteados por Santos y Moreno (2004) respecto a la
difusión, debe tenerse en cuenta que el lenguaje utilizado debe ser claro y conciso. A este
respecto, debe resaltarse que el ICFES se ha interesado por crear guías de análisis de las pruebas
para que las instituciones puedan interpretar sus resultados autónomamente. Sin embargo,
durante las sesiones de validación, es recurrente encontrarse con docentes de ciencias naturales
que no saben bajo qué competencias se evalúa a los estudiantes, por lo que resulta difícil tomar
acciones si no se conocen los criterios en los que se falla.
Por tanto, se infiere la necesidad de un acompañamiento continuo por parte del MEN y del
ICFES para la interpretación de los resultados, haciendo énfasis no en el resultado cuantitativo
sino en la importancia de tomar acciones al respecto con el fin de mejorar la formación científica
y, en general, la educación de los estudiantes.
Como señalan Santos y Moreno (2004)
“No se trata, pues, de concluir, al estilo de las investigaciones experimentales, si existe o
no validez, sino de avivar la reflexión para generar compresión rica y relevante sobre los
programas evaluados. Esto convierte a la evaluación no tanto en una tarea de expertos
cuanto en un proceso democrático de discusión.
No basta interrogarse sobre la calidad de los datos que se recogen en el informe o sobre
el rigor de los métodos que se han aplicado para extraer información, sino que es preciso
preguntarse por la naturaleza de la iniciativa, por la finalidad del proceso, por las reglas
éticas que lo han inspirado, por la utilización que se ha hecho de la información, por el
25
control democrático de los informes, por las secuelas que la evaluación ha dejado”.
(Santos Guerra & Moreno Olivos, 2004)
Una mirada epistemológica de la validez y la confiabilidad.
El ICFES (2009) señala que la construcción de una prueba objetiva que cumpla los fines para la
cual fue diseñada debe obedecer a dos criterios fundamentales: la confiabilidad, asumida como
la obtención de los mismos resultados utilizando el mismo instrumento bajo condiciones
específicas en distintos momentos, y la validez, entendida como la exactitud en la medición del
objeto de estudio:
“Una prueba es válida si mide lo que se pretende medir. El grado de validez de una
prueba se refiere a la exactitud con la cual se mide la cualidad o atributo que se quiere
medir con la prueba. Es el grado en el cual las interpretaciones sobre el objeto de
evaluación (competencias, conocimientos, etc.) de una persona o un grupo de personas,
son correctas, a partir de su o sus respuestas a una pregunta.” (ICFES, 2009)
Con el fin de asegurar la validez y confiabilidad de las pruebas, el ICFES se basa en un modelo
de evidencias, en el que se plantean una serie de afirmaciones (enunciados sobre las habilidades
esperadas) a partir de las cuales se establecen las evidencias (productos observables que permiten
verificar la afirmación). Así, teniendo en cuenta el modelo de análisis de ítems implementado,
modelo Rasch, cada evidencia debe ser evaluada de forma aislada, de manera que al final la
suma de factores separados da cuenta del estado general de la competencia en el estudiante.
Es por esta evaluación aislada de las evidencias que se asume una concepción positivista
tradicional de la validez y confiabilidad de las pruebas.
Así como se ha modificado sustancialmente la visión de una ciencia estática a una sujeta a
cambios y construida desde el contexto social, también debe cambiarse la base epistemológica
de las pruebas con las que se pretende evaluar la educación en ciencias naturales, puesto que
actualmente se ha aceptado que la realidad es un sistema complejo en el que las partes
constituyentes interactúan entre sí para darle un nuevo sentido al conjunto (Martínez, 2011).
Uno de los supuestos para el armado es que el instrumento de evaluación debe ser un todo
armónico que evalúe lo más completamente posible al sujeto. Ahora bien, no solo es la reunión
de varios ítems que valoren por separado distintas evidencias, sino que es necesario establecer
un algoritmo que permita relacionar las preguntas a fin de establecer una visión global respecto
a la serie de pensamientos que surgen en el estudiante a la hora de resolver una situación en
ciencias naturales. Como señala Polanyi (1966) no podemos comprender el todo sin ver sus
partes, pero tampoco podemos ver las partes sin comprender el todo.
En el caso de la prueba Saber Pro, se implementan casos de estudio en los que, a partir de una
situación específica, el estudiante debe hacer uso de diversos conocimientos transversales
adquiridos a lo largo de su formación. Se propone aplicar casos similares en las pruebas de
ciencias naturales, de forma que la interacción de las evidencias modifique la interpretación
global de la competencia, favoreciendo una visión sistémica del conocimiento científico.
De esta forma, se asumiría la validez como la apreciación de la realidad en sentido pleno, y no
sólo un aspecto o parte de la misma y la confiabilidad como estabilidad, seguridad, congruencia
26
en la interpretación de los resultados de una prueba en diferentes tiempos (Martínez Migueléz,
2006)
Las bases epistemológicas de la validación de ítems
Uno de los aspectos más rescatables de la pasantía llevada a cabo en el instituto fue dar una
importancia significativa al proceso de validación, pues anteriormente se realizaba como parte
de un protocolo puesto que se asumía que no habrían mayores aportes a la pregunta después de
haber pasado por diversas revisiones con expertos en el área. Sin embargo, se observó que la
selección cuidadosa de los validadores así como un juicioso seguimiento a las discusiones en
torno a los ítems, proporcionó excelentes y valiosos aportes al proceso de revisión.
Para lograr lo anterior, se tomaron en cuenta ciertos criterios sugeridos por Martínez (2006) para
asegurar la validez y confiabilidad internas. En el primer caso, se hizo hincapié en:
- Registrar los cambios a lo largo del proceso de validación, esto cuando los validadores
permanezcan invariados a lo largo de la actividad.
- Calibrar hasta qué punto la posición del moderador/gestor afecta la realidad observada.
- Garantizar la credibilidad de la información recolectada. Para esto, se debe buscar
contrastar los datos obtenidos en distintos momentos y con distintos validadores.
En el segundo caso, se prestó especial atención a:
- Uso de “categorías descriptivas de bajo nivel de inferencia” (Martínez Migueléz, 2006)de
manera que se omita en lo más posible todo tipo de interpretaciones, limitando a la
descripción de la circunstancia y el aporte a la pregunta.
- Presencia de varios investigadores, con el fin de asegurar una interdisciplinariedad en los
aportes al ítem.
- Implementación de medios y tecnologías a la mano para garantizar un análisis total de
los aportes.
Por otro lado, también hubo confiabilidad externa al tener en cuenta aspectos como:
- Precisión del nivel de participación del moderador/gestor: a lo largo del proceso, se hizo
énfasis en que el papel del gestor y moderador debía proporcionar la distancia suficiente
para que no hubiese interferencias en las discusiones llevadas a cabo por el grupo de
validadores.
- Identificación y caracterización de los validadores: se tuvo especial cuidado en la
selección de las instituciones y docentes para la validación, haciendo énfasis especial en
la formación y experiencia profesional con el grado al cual se dirigían las preguntas por
revisar.
- Revisión del contexto de los validadores: se observó que un factor determinante en la
calidad de los aportes a las preguntas es el contexto laboral y social del docente validador,
puesto que las orientaciones formativas de las instituciones difiere sustancialmente entre
las oficiales y las no oficiales.
Limitaciones de la validación de ítems: los problemas de la interpretación subjetiva de las preguntas.
Como Heidegger sostiene, el ser humano es inherentemente interpretativo, por tanto, toda
información que esté sujeta a la evaluación de sus sentidos estará también inmersa en la
interpretación subjetiva del mismo.
27
Una de las técnicas utilizadas para superar las dificultades de la subjetividad en la valoración de
los ítems fue la discusión y la entrevista dirigida, de forma que no se sesgaran las opiniones a un
solo punto de vista, sino que fuese posible ver la situación desde distintos ángulos.
A pesar de que se propendió en todo momento asegurar una objetividad persistente a lo largo
del proceso de validación, la revisión de un ítem implica interpretarlo, argumentarlo y
enmarcarlo en el contexto de la mente de un estudiante, por lo cual es muy diferente asumir la
pregunta desde la perspectiva de un alumno de una población vulnerable (por ejemplo, la
Guajira) a comprenderla desde la posición de un sujeto de una institución educativa privilegiada
(por ejemplo, un colegio internacional).
Al respecto, hubo una marcada discusión acerca de los procesos de inclusión en las pruebas
Saber, desembocando obviamente en los problemas de raíz en el sistema educativo del país
respecto a las herramientas para enseñar ciencias naturales en poblaciones de difícil acceso.
Actualmente el ICFES está implementando la traducción de las pruebas a Lengua de Señas
Colombiana, LSC. Sin embargo, existen problemas inevitables por la educación propia en
ciencias naturales a la población con discapacidad auditiva, además de la inexistencia de
personal especializado en la construcción de pruebas específicas para el estudiantado sordo.
Sugerencias al proceso:
Se puede considerar que se realizó una triangulación de métodos y técnicas al implementar
primero una validación individual utilizando un formato a manera de encuesta, y después llevar
a cabo una validación grupal, en la que se desarrolla la discusión en torno a los ítems a través de
una observación participativa.
No obstante, sería interesante aplicar una triangulación interdisciplinaria con el fin de revisar
factores transversales en la prueba de ciencias naturales, por ejemplo referentes sociales en las
situaciones planteadas en las preguntas; asimismo, se observaron ítems en las pruebas de
competencias ciudadanas en las que se aplicaban conceptos propios de las ciencias naturales,
para lo que resultaría muy conveniente la participación de un experto de ésta a fin de evitar
errores conceptuales.
Finalmente, como se ha indicado anteriormente, se sugiere cambiar la perspectiva positivista
tradicional a una concepción sistémica de las pruebas, en la que se establezcan relaciones entre
las evidencias a fin de proporcionar una visión global de las competencias en ciencias naturales.
Esto implica también modificar el concepto de validez y confiabilidad.
7. ALCANCE DE LOS RESULTADOS
Las contribuciones a la institución por parte de la estudiante se pueden dividir en dos ramas:
materia intelectual y procedimental.
En el primer aspecto, la validación de preguntas constituye un paso fundamental para el
ingreso de ítems al banco de pruebas. Por otro lado, también se participó en proyectos como
calificación de pregunta abierta de ciencias naturales en Saber 11° y PISA 2015.
28
En el segundo aspecto, se implementaron y/o mejoraron los siguientes procedimientos:
- Revisión de pruebas 3579 en digital:
- Construcción (C2.P1) y Edición & diagramación de pruebas (C2.P2) según la NTCGP
1000.
8. IMPACTOS
Los impactos se consideran bilaterales puesto que se contribuyó ampliamente a la Subdirección
de Producción de Instrumentos en los aspectos anteriormente mencionados, y así mismo hubo
un importante aporte a la estudiante en práctica en cuanto al desarrollo de competencias
laborales y personales así como un pensamiento crítico de la evaluación de la educación en
ciencias naturales en Colombia fundamentada en la perspectiva institucional.
- Desarrollo de competencias laborales: Se fortaleció el sentido de responsabilidad con la
institución, el compromiso con la calidad de resultados propuestos, la conciencia acerca
de la coherencia entre los objetivos y los procedimientos, manejo de normas técnicas de
calidad (NTGCP 1000)
- Desarrollo de competencias personales: Se mejoraron aspectos como capacidad de
aprendizaje continuo, trabajo en equipo, liderazgo y toma de decisiones, manejo de
relaciones interpersonales.
Por tanto, puede afirmarse que la pasantía resultó enriquecedora para ambas partes.
9. CONCLUSIONES
Durante las pasantías desarrolladas en el ICFES, la estudiante dirigió y coordinó la validación
de 1059 preguntas de ciencias naturales de los programas Saber 5°, 7°, 9° y 11°para su ingreso
al banco de ítems piloto, para lo cual se requirió la implementación continua de conocimientos
de química, metaciencias, evaluación en educación e investigación educativa.
Por otro lado, se realizaron importantes aportes al proceso de validación de ítems ya que se
establecieron bases epistemológicas desde la perspectiva sistémica de las ciencias.
Finalmente, hubo una contribución significativa a la formación de la estudiante ya que la
pasantía propició un espacio para la autoevaluación como futura docente de ciencias naturales
y la adquisición de un pensamiento crítico frente a cómo se educa y se evalúa en el país en ésta
área desde una perspectiva institucional, además del desarrollo de competencias laborales y
personales que garantizan la construcción de una profesional íntegra.
29
10. REFERENCIAS
Bloom, B., Hastings, J., & Madaus, G. (1975). Evaluación del aprendizaje. Buenos Aires: Editorial
Troquel.
CAJIGAS, R., & GARCIA , Y. (2014). LA EVALUACIÓN DE LOS APRENDIZAJES EN
LAS CIENCIAS NATURALES: Una compliación bibliográfica (2000-2013). Trabajo
para optar el título de Licenciados en Educación Básica. Santiago de Cali: UNIVERSIDAD
DEL VALLE.
Clavijo, G. (Septiembre de 2008). La evaluación del proceso de formación. Obtenido de
http://www.colombiaaprende.edu.co/html/productos/1685/articles-
178627_ponen7.pdf
Cohen, L., & Lawrence, M. (1990). Métodos de investigación educativa (tercera edición ed.).
Madrid: La muralla, colección Aula Abierta.
Eisner, E. (1967). Educational ObjetivesHelp or Hindrence. The School Review.
Fonseca, J. (2007). Modelos cualitativos de evaluación. Educere, 427-432.
González, M., Sáenz, C., & Sánchez, G. (1998). Examen de estado para ingreso a la educación
superior. Pruebas de Ciencias Naturales. Bogotá D.C.: Editorial Creamos alternativas Soc.
Grupo de Evaluación de la Educación Básica y Media - Subdirección Académica. (1999).
ANTECEDENTES Y MARCO LEGAL DEL EXAMEN DE ESTADO. Bogotá D.C.:
ICFES.
Guba, E. G., & Loncoln., Y. S. (1989). Fourth Generation Evaluation. Londres: Sage Publications.
Herrera Capita, Á. M. (Marzo de 2009). La evaluación de los procesos de enseñanza
aprendizaje. Revista digital Innovación y Experiencias educativas(16).
ICFES. (2009). MANUAL PARA LA CONSTRUCCIÓN DE ÍTEMS TIPO SELECCIÓN DE
RESPUESTA. Bogotá D.C.
ICFES. (07 de Noviembre de 2015). ¿Cómo se elaboran las pruebas? Obtenido de
http://www.icfes.gov.co/examenes/acerca-de-las-evaluaciones/como-se-elaboran-las-
pruebas. Consultado 28/03/2015
Instituto Colombiano para la Evaluación de la Educación. (Septiembre de 2015). ICFES.
Obtenido de http://www.icfes.gov.co/index.php/atencion-al-ciudadano/glosario/6-
competencias
Martinez , P., Lopez, T., Amador, P., & Saenz, C. (2000). Transformaciones en las pruebas para
obtener resultados diferentes. Bogotá D.C.: Nuevo examen de estado para el ingreso a la
educación superior.
Martínez Migueléz, M. (2006). Validez y confiabilidad en la metodología cualitativa. Paradigma,
27(2).
30
Martínez, M. (2011). El paradigma sistémico, la complejidad y la transdisciplinariedad. Revista
electrónica de humanidades, educación y comunicación social, 6 - 27.
MEN. (1962). Decreto 45.
MEN. (1974). Decreto 80.
MEN. (1984). Decreto 1002.
MEN. (1988). Lineamientos curriculares. Ciencias naturales y educación ambiental. . Bogotá D.C.
MEN. (1991). Dirección General de capacitación y perfeccionamiento docente, currículo y
medios educativos. Ciencias naturales y salud. Marco general: propuesta de programa
curricular. Bogotá D.C.
MEN. (1993). Dirección general de educación. Ciencias Naturales y educación ambiental. Marco General.
Bogotá D.C.
MEN. (2006). Estándares Básicos de Competencias en Lenguaje, matemáticas, ciencias y ciudadanas.
Bogotá D.C.
MINISTERIO DE EDUCACIÓN NACIONAL. (2009). DECRETO 5014 DE 2009. Bogotá D.C.
Mora Vargas, A. I. (diciembre de 2004). LA EVALUACIÓN EDUCATIVA: CONCEPTO,
PERÍODOS Y MODELOS. Actualidades Investigativas en Educación, 04(2).
Munarriz, B. (1991). Técnicas y métodos en Investigación cualitativa. Vitoria: Universidad del País
Vasco.
Parlett, M., & Hamilton. (1972). Evaluation and Illumition. En Curriculum Revaluation Today.
Trends and Implications. Londres: Mc Millan.
Polanyi, M. (1966). El estudio del hombre. Paidós.
Santos Guerra, M. Á., & Moreno Olivos, T. (2004). ¿El momento de la metaevaluación
educativa? Consideraciones sobre epistemología, método, control y finalidad. Revista
mexicana de investivación educativa, IX(023), 913-931.
Stufflebeam, D., & Shinkfield, A. (1995). Evaluación sistemática - Guía teórica y. Centro de
Publicaciones del Ministerio de Educación y Ciencia.
Toro , J., González, M., & Naranjo, N. (2013). Alineación del examen Saber 11°. Anexo 4. La prueba
de ciencias naturales. Bogotá D.C.
Toro, J., Reyes, C., Martínez , C., Castelblanco , R., Cárdenas , Y., & Granés, F. (2007).
Fundamentación área de ciencias naturales. Bogotá D.C.
Tyler, R. (1973). Principios básicos del currículo. Buenos Aires: Centro Regional de Ayuda Técnica
AID.
31
ANEXO 1. Cronograma de actividades
Tabla 5. Cronograma de actividades a realizar durante las pasantías en la Subdirección de Producción de Instrumentos.
1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4
1Reconocimiento de la institución, grupo de trabajo,
principales actividades de la subdirección
2 Empalme de labores en la construcción de ítems en curso
3Acompañamiento a talleres de validación de ítems “Pensar
en voz alta” Saber 11 en el área de ciencias naturales.
4Coordinación de la logística para el proceso de validación de
ítems de pruebas SABER 5º, 9º y 11º en diversas áreas.
5Validación de ítems de pruebas SABER 5º, 9º y 11º en
diversas áreas.
6Ajuste y retroalimentación de acuerdo a la validación de
ítems de pruebas SABER 5º, 9º y 11º en diversas áreas.
7 Validación de ítems de pruebas SABER 7° en diversas áreas.
8Ajuste y retroalimentación de acuerdo a la validación de
ítems de pruebas SABER 7º en diversas áreas.
9 Digitalización de pruebas 3°, 5°, 7°, y 9° en TAO
10 Revisión digital 3579 en TAO
MAYO JUNIO JULIO AGOSTO
Actividad desarrollada por
la estudiante
No.
Actividad desarollada por
diagramadores del ICFES
FEBRERO MARZO ABRILActividad
32
ANEXO 2. Cumplimiento de horas de pasantía
Tabla 6. Cumplimiento de horas semanales establecidas por el Acuerdo 031 de junio de 2014
Inicio Fin
1 Semana 1 23-feb 27-feb 36
2 Semana 2 02-mar 06-mar 36
3 Semana 3 09-mar 13-mar 36
4 Semana 4 16-mar 20-mar 36
Semana 5 23-mar 27-mar 36
Semana 6 06-abr 10-abr 36
Semana 7 13-abr 17-abr 36
Semana 8 20-abr 24-abr 36
Semana 9 27-abr 01-may 36
Semana 10 04-may 08-may 36
Semana 11 11-may 15-may 36
Semana 12 18-may 22-may 36
Semana 13 25-may 29-may 36
Semana 14 01-jun 05-jun 36
Semana 15 08-jun 12-jun 36
Semana 16 03-ago 07-ago 36
Semana 17 10-ago 14-ago 36
Semana 18 17-ago 21-ago 36
Semana 19 24-ago 28-ago 36
684TOTAL HORAS**
*Las fechas corresponden a 2015
**Horas mínimas totales de pasantía según acuerdo 031 de 2014 son
382
Fecha*Semana
Horas de
pasantía
5
Número de
actividad
6
7
8
10