Aplicación de instrumentos de observación en la realidad escolar (2)

Presentación

Esta presentación estuvo interesante en cuanto a los resultados de su encuesta. Sí recuerdo que cuando la contesté hubo ciertas cosas que me hicieron ruido, no encontré muy claras u oportunas algunas afirmaciones, pero de todas formas creo que fue un buen trabajo.

Dentro de las cosas que mencionaron, que a mi no me habían quedado muy claros son los tipos de escala:
Percepción: Lo que se percibe con los sentidos
Actitud: De acuerdo, en desacuerdo
Frecuencia: Siempre - Nunca.

Escala de Licker: Busca describir realidades, no buscar causas y efectos.

Autoevaluación

Me costó un poco esto porque sé que no fue mi mejor semestre, pero de todas formas creo que aprendí  bastante y el mismo proceso de autoevaluación me permitió ver ese avance.

Aplicación de instrumentos de observación en la realidad escolar (1)

Presentaciones de instrumentos de observación


De la primera presentación lo que me quedó dando vueltas es el tema de los términos que se utilizan en la elaboración del instrumento. Recordé una experiencia de cuando estaba en el colegio y para un ramo tenía que salir a entrevistar gente. No recuerdo si nos daban la encuesta o la hicimos nosotros, pero la cosa es que teníamos que hacerlo en formato de entrevista, preguntando y anotando todo nosotros mismos. Cuando estaba encuestando a la primera señora, residente de la toma de Peñalolén, me doy cuenta que no me entendía nada... yo intentaba leerle las preguntas textuales, con todos sus términos pomposos, pero nada  de eso le hacía sentido a la mujer. Finalmente, gracias a un compañero, entendí que tenía que adaptar todo el cuestionario al contexto en el que estaba.
En esta clase volví a ese momento y a entender el sentido de que las preguntas estén claras para quien debe responderlas. Es una forma básica de validar el instrumento.

De la segunda presentación me quedó dando vueltas el tema del porcentaje poco representativo... Nosotros tuvimos el "mismo problema", en el sentido de que nuestro número de encuestas era bastante bajo en relación al total de estudiantes de primer año en la carrera. ¿Pero es eso únicamente lo que lo hace "poco representativo"?

Desarrollo del instrumento de Observación

Matriz de indicadores

Aquí partimos lento desde el principio. Nos costó mucho decidir qué evaluar, y cuando ya creímos que habíamos avanzado bastante, nos dimos cuenta que nuestros compañeros ya estaban aplicando el instrumento. Eso fue un "mm, ¡tenemos que apurarnos!". Así que decidimos cambiar un poco el rasgo a evaluar y de ahí todo fluyó un poco más rápido.
Creo que la parte más complicada para nosotros fue conseguir que los compañeros de primero quisieran participar en el proceso de encuestas ya que el estar en fin de semestre, estaban un poco colapsados... igual que todos. 

Tabulación de los datos

Honestamente, el número de entrevistas que tenemos no guarda ni una relación con algún concepto de representatividad, sino que es básicamente lo que pudimos conseguir. Como la encuesta fue hecha en formato online, la parte de la tabulación se facilitó bastante, pero de todas formas preferimos organizar de distinta manera los resultados para que así también se hiciera más secillo el proceso de graficar.


Diseño de instrumento de Observación


Primero divido en dimensiones y luego en indicadores. Si una dimensión es más importante, le asigno más indicadores



  • Los indicadores van descritos
  • Escalas: Misma graduación
  • Rúbrica: Misma graduación
  • Pauta: Distinta graduación
Las actitudes se pueden evaluar, pero no calificar!


Desarrollo del Instrumento de Evaluación

Matriz de especificaciones

Ay qué difícil se nos hizo esto! Estuvimos más del tiempo que correspondía en esto. Si no me equivoco, la idea era terminarlo la primera clase, pero recién pudimos terminarlo después de la segunda clase, fuera del horario.

La gran dificultad que teníamos era que tratábamos de imaginar cómo sería la pregunta asociada a la habilidad y en eso teníamos que pensar en que pudiera calzar con algún ítem, y en eso nos íbamos enredando solos.


Desarrollo de las preguntas

Una vez que ya tuvimos la matriz hecha, ya fue un poco más sencillo realizar las preguntas. Esta parte salió bastante más fluida. El decidir hacer toda la prueba en función de un mismo texto también hizo que el desarrollo de las preguntas se facilitara.

Asignación de puntajes

Esta parte la hice yo y la verdad es que no me complicó mucho, todo lo contrario. Lo que sí, hasta después de presentar yo estaba convencida que lo que había hecho era una rúbrica, pero después aprendí que no, ya que los puntajes tenían distinta graduación, por lo que correspondía a una pauta de evaluación. 

Del grupo y la presentación...

La verdad es que creo que este trabajo partió bastante bien en cuanto al equilibrio en la participación, pero en la medida en que fue pasando el tiempo sentí que me iba quedando un poco sola. Si bien se me hizo pesado, hasta disfruté realizarlo porque me sirvió para ir comprendiendo bastante de la teoría que no tenía tan claro aún, además de ir cuestionando permanentemente cada cosa que hacíamos... Me gustó tratar de diseñar preguntas que realmente tuvieran sentido. 
Como dije en la presentación, el proceso no estuvo exento de dificultades. El mismo hecho de tener que diseñar una prueba para estudiantes ficticios en una situación ficticia nos complicó la tarea. No es menor tratar de encajar todo esto en una unidad que nunca se desarrolló. Y la segunda gran dificultas que tuvimos, pero que nos sirvió para entender la importancia de la validación, fue sentir que el instrumento nunca estaba completamente terminado; siempre había algo que cambiar o que podía ser mejorado. 
En la presentación me sentí segura y cómoda porque manejaba todos los aspectos del instrumento, incluso sus fallas.


*Clases del 20-21-27-28 de Octubre - Presentaciónes 10 de Noviembre

Este día también presentó su instrumento el grupo compuesto por Pablo Cabeza, Matías Rex y Jazmín Videla. Honestamente me costó bastante seguir su presentación, no me quedó muy clara la relación entre las habilidades que habían elegido y la construcción del instrumento.

Este día también se abrió el tema de las estadísticas en las evaluaciones.

Criterios de Validez y confiabilidad de la información

Primera parte: Presentacion

"Evaluación al interior del aula: una mirada desde la validez, la confiabilidad y la objetividad - C. Förster & C. Rojas. 

Los resultados de las evaluaciones guían la toma de decisiones



Segunda parte: Clase profesora

Las pruebas escritas son ambas en sí mismas.



Aspectos técnicos de una prueba
  • Datos de la institución
  • Datos de identificación del estudiante
  • Datos de medición del instrumento (puntajes, niveles de logro (%), calificación)
  • Datos curriculares (unidad, contenido, objetivos)
  • Instrucciones (generales y por cada ítem)
  • Tamaños de letra (mín 11)
  • Variedad de ítems (mín 2)
Preguntas por etapa
Ahhh! Una de esas clases en que es mucha información de golpe. 




Evaluación escrita

Prueba escrita - Lecturas

Por motivos de salud, no pude asistir a esta evaluación... ahora tengo que dar la recuperativa :(