Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la...
-
Upload
edith-cohernour -
Category
Documents
-
view
7 -
download
0
description
Transcript of Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la...
![Page 1: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/1.jpg)
PROTOCOLO
Título: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.
Autor: Dra. Edith J. Cisneros-Cohernour
Objetivo general del estudio
Este estudio de corte cualitativo se centra en un enfoque de evaluación de la enseñanza
desarrollado en el extranjero que es implementado en el contexto de una universidad pública en
México. El estudio analizará cuáles son las orientaciones teóricas y los significados subyacentes
del enfoque de evaluación, especialmente en cuanto a las teorías de enseñanza, creencias
epistemológicas y papeles del maestro y del alumno que lo sustentan. Asimismo, el estudio
analizará la pertinencia y relevancia del enfoque y sus implicaciones para el mejoramiento de la
calidad de la enseñanza en la universidad.
Antecedentes teóricos y justificación.
Un amplio número de estudios se ha llevado a cabo sobre la evaluación de la enseñanza en
educación superior, y en particular sobre el uso de las percepciones de los estudiantes como
fuente de información para evaluar la calidad de la enseñanza. Este tipo de estudios se han
desarrollado mayormente en Norteamérica, Europa y Australia, y se han centrado
primordialmente en aspectos sobre la definición de las dimensiones del constructo “buena
enseñanza”, así como en la validez, confiabilidad, y generalizabilidad de los puntajes obtenidos
de las evaluaciones hechas por los estudiantes cuando éstos son utilizados para evaluar a sus
maestros. (Marsh, 1984; Braskamp & Ory, 1994; El-Hassan, 1995).
Los resultados de estos estudios indican que no existe acuerdo sobre lo que constituye una buena
enseñanza, de hecho algunos investigadores como Stake y Cisneros-Cohrnour (2000), sostienen
la posición de que la buena enseñanza es situacional. Otros resultados indican que las
percepciones de los estudiantes para evaluar a los maestros han demostrado ser confiables a
través del tiempo y que estas percepciones parecen correlacionarse con otras fuentes de
información (Braskamp & Ory, 1994). Sin embargo, como Ory & Ryan (2001) indican, más
investigación es necesaria sobre la validez de las percepciones de los estudiantes y sobre la
influencia de algunas variables que pudiesen influir en los puntajes.
Otros estudios se han enfocado en estudiar el impacto de las evaluaciones en el mejoramiento de
la calidad de la enseñanza. Sólo un número limitado de estudios se ha llevado a cabo en esta área.
Los resultados de esos estudios han provisto evidencia mixta sobre los posibles efectos de la
evaluación en que el maestro mejore su enseñanza. Por un lado, investigadores como Cohen
(1991) han encontrado que las evaluaciones hechas por los estudiantes tienen un alto potencial
para mejorar la enseñanza y Miller (1987), y Roush (1983) también encontraron que el uso de los
resultados de la evaluación pueden tener un efecto altamente positivo cuando se usan
conjuntamente con asesorías para mejorar la enseñanza que se proporciona al profesor después de
la evaluación. Otros investigadores, sin embargo, no han encontrado un impacto de la evaluación
en el mejoramiento de la enseñanza. Como Brinko (1996) menciona, mientras que algunos
estudios afirman que la información proveniente de las evaluaciones hechas por los estudiantes es
![Page 2: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/2.jpg)
confiable, la investigación ha encontrado solo un efecto marginal del uso de los resultados de la
evaluación, especialmente si se usan como la única fuente de investigación. Esto es, cuando no se
usan otras fuentes y métodos de evaluación y no se proporciona al profesor ningún tipo de apoyo
para el mejoramiento de su enseñanza.
De acuerdo con Ory & Ryan (2001), existe muy poco conocimiento en la literatura de cómo los
profesores usan los resultados de la evaluación para mejorar su enseñanza y como los
administradores usan esta información para tomar decisiones sobre la contratación, promoción, el
otorgamiento de premios o para crear programas de desarrollo profesional. De hecho, más
investigación es necesaria sobre como se usa la información obtenida de las evaluaciones para
mejorar su enseñanza.
Aunado a lo anterior, existe un creciente debate entre los principales investigadores en la
evaluación de la enseñanza en educación superior sobre el uso de traducciones de instrumentos
extranjeros para medir la calidad de la enseñanza. Esta preocupación es aún mayor cuando los
instrumentos son utilizados en otro contexto que difiere socio-culturalmente en forma
significativa del contexto original en el que fueron diseñados, dado que las orientaciones teóricas,
conceptuación de enseñanza y de los papeles del maestro y del estudiante pueden ser diferentes.
Cuando los resultados de la evaluación son utilizados para tomar decisiones administrativas, estas
diferentes conceptuaciones pueden dar lugar a cuestiones éticas serias, así como consecuencias
negativas para el mejoramiento de la enseñanza (Stake y Cisneros-Cohernour, 2000).
Aunque los estudios sobre la pertinencia de usar enfoques extranjeros en la evolución de la
enseñanza son incipientes, algunos estudios han encontrado apoyo para la necesidad de llevar a
cabo más investigación en esta área. Este es el caso del estudio de Pratt y colaboradores (1999)
que tuvo lugar en Hong-Kong. En este estudio Pratt y colegas (1999) encontraron muy poca
utilidad del uso de instrumentos tradicionales de los Estados Unidos, Gran bretaña, Australia y
Canadá para evaluar válidamente la calidad de la enseñanza en ese país. Pratt et al, afirman que la
practica de “usar cuestionarios desarrollados en otros países para obtener información sobre las
opiniones de los estudiantes acerca de la calidad de la enseñanza en Hong-Kong o China puede
resultar en la imposición de los valores de otra cultura, especialmente en relación con los papeles
apropiados, las responsabilidades, y la forma en que los maestros de educación superior se
relacionan con sus alumnos” (p.1) . Aún más el estudio encontró evidencia de que la validez de
instrumentos considerados confiables desde una perspectiva psicométrica en Norteamérica es
debatible cuando el instrumento se “usa en países tan diversos como Australia, Hong-Kong,
India, Nueva Zelanda, las Filipinas, España, y más recientemente China.” (p. 1). Los problemas
más serios encontrados por los investigadores fueron en relación con la inadecuación del
instrumento para evaluar el constructo “buena enseñanza.”
En las conclusiones de su estudio, Pratt y colaboradores expresaron una fuerte preocupación en
relación con las consecuencias resultantes de la evaluación dadas las diferencias significativas
que encontraron en las interpretaciones hechas por un investigador canadiense y los
investigadores Chinos en relación con creencias epistemológicas, papeles sociales y sobre la
forma en que deben relacionarse los maestros y sus alumnos, el proceso de enseñanza, la
responsabilidad por enseñanza efectiva y el concepto de “ponerle corazón” a la enseñanza.
![Page 3: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/3.jpg)
Aún cuando el trabajo de Pratt y colaboradores es uno de los pocos estudios sobre la propiedad y
pertinencia de usar modelos extranjeros para evaluar la enseñanza en otro contexto cultural, oros
investigadores han encontrado diferencias entre las percepciones y valores de diferentes grupos
raciales y étnicos en los EEUU, lo cuál apoya la tesis de Pratt y sus colegas de que la “buena
enseñanza” es definida culturalmente. Este es el caso de O’ Rourke (1995) quién en un estudio
cuantitativo sobre salud en los Estados Unidos, encontró diferencias significativas entre los
valores culturales entre los Hispanos, Afro americanos y los Norteamericanos caucásicos. La
autora concluye que cuando los estudios se llevan a cabo con grupos de diferente herencia
cultural y étnica, los investigadores debían ser sensibles no sólo a las diferencias lingüísticas
entre los grupos, sino también a diferencias culturales y de valores que pueden influir los
resultados de investigación.
Asimismo, un estudio sobre los valores morales en Yucatán, llevado a cabo por Fitch y
colaboradores (1990), también apoya la necesidad de considerar las diferencias culturales. En ese
estudio, Fitch (1990)1 afirma “Contrario a lo que podría pensarse, dada su cercanía geográfica se
aprecian diferencias significativas entre los valores de México y los países occidentales. Este se
aprecia en Yucatán, ya que los valores culturales de los Yucatecos parecen estar más cercanos a
los del Oriente que a los del Occidente.”
Todo lo anterior aunado a una creciente tendencia en nuestro país de adoptar enfoques
metodológicos e instrumentos diseñados en otros países para evaluar la enseñanza crea la
necesidad por examinar las orientaciones teóricas e implicaciones que resultan de adoptar estos
enfoques en nuestro contexto cultural. Dado que estos enfoques se basan en las percepciones de
los estudiantes como única fuente para evaluar la calidad de la enseñanza de sus maestros, existe
también la necesidad por estudiar con más detalle esta fuente de información.
Este estudio llena precisamente estas lagunas en la investigación y es consistente con las
necesidades actuales de información y con las prioridades nacionales en materia de educación
establecidas en el Programa Nacional de Desarrollo (2000-2006). La investigación tiene
implicaciones para el mejoramiento de la evaluación de la enseñanza en las instituciones
educativas y para el desarrollo profesional en evaluación del personal académico y administrativo
de las instituciones en educación superior en México.
A su vez, el estudio tiene gran importancia teórica, ya que llena una laguna en la literatura sobre
la investigación acerca de la evaluación de la enseñanza, ya que como mencionan Ory and
Ryan (2001) "Existe una laguna que la investigación no ha abordado, precisamente en cuanto al
constructo “buena enseñanza”, sobre todo en las áreas de contenido, validez sustantiva y de
consecuencias del constructo. En estas áreas poca trabajo se ha desarrollado o aún examinado. De
hecho, muchas de las evaluaciones de la enseñanza se llevan a cabo sin examinar el constructo
que se está evaluando, y sin preocupación alguna por las teorías subyacentes" (p. 23). El estudio
llena esta laguna al examinar la conceptuación del constructo “buena enseñanza” y sus
dimensiones dentro del contexto de un país Latino Americano. Los resultados del estudio
proveerán información para verificar en que forma las conceptuaciones y orientaciones
subyacentes en los modelos extranjeros de evaluación y las teorías de enseñanza enfatizadas por
1 La investigación de Fitch y Colaboradores (1990) se centró en el estudio de los valores morales en Yucatán y no
pudo concluirse debido al fallecimiento del responsable del proyecto.
![Page 4: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/4.jpg)
éstos modelos son validadas en un contexto sociocultural distinto de aquél fueron creados, así
como contribuir al cuerpo de conocimientos en un área en el que la investigación es casi
inexistente. En virtud del enfoque cualitativo y la formación diversa de los participantes, la
investigación constituye una innovación metodológica, ya que como menciona Menges (1998):
“La investigación sobre la enseñanza universitaria y su evaluación se ha llevado a cabo usando métodos
cuantitativos y ha sido conducida casi exclusivamente por personas que han sido entrenadas dentro de las
tradiciones de la sociología y la psicología, que han buscado generalizaciones y el control de variaciones. Es
evidente que mas investigación es necesaria por investigadores con un entrenamiento diferente, utilizando
métodos múltiples y fuentes variadas de información.” (p. 4)
La investigación contribuirá también al desarrollo de las líneas de investigación de la Facultad de
Educación de la UADY, sobre el currículo e instrucción, específicamente en el área de
evaluación de la enseñanza; así como también en la línea de evaluación de instituciones
educativas y programas con impacto social. Estas son dos de las líneas que actualmente se
encuentran en consolidación en la facultad. Con esto apoyará a la consolidación de dos cuerpos
académicos, el de Currículo, Administración y Tecnología, y el de Medición y Evaluación.
Objetivos particulares.
1. Examinar el significado y las dimensiones del constructo “buena enseñanza” desde la
perspectiva de diferentes implicados en el proceso de enseñanza – aprendizaje de una
universidad pública en México.
2. Examinar en qué medida las orientaciones teóricas e implicaciones del enfoque de
evaluación adoptado en relación con la concepción de “buena enseñanza” para el contexto
sociocultural de la universidad.
3. Estudiar en que forma profesores, administradores y desarrolladores profesionales utilizan
los resultados de la evaluación, así como las consecuencias que la evaluación tiene para el
personal académico y para el mejoramiento de la enseñanza en la institución.
Metodología. Incluir la descripción del tipo de datos así como formas de obtención y de análisis.
El estudio se llevará a cabo en las escuelas y facultades de una universidad pública en el Sureste
de México que han estado llevando a cabo evaluaciones del personal académico2 por medio de
cuestionarios traducidos o diseñados usando ítems prestados de instrumentos extranjeros para
determinar la calidad de enseñanza del personal de la escuela. Como corresponde a un estudio
cualitativo3, múltiples fuentes de información y múltiples métodos de recolección de datos serán
utilizados para obtener un entendimiento profundo y mas complejo de las cuestiones críticas bajo
estudio. Los principales métodos de recolección de datos utilizados serán observación
2 Es importante recalcar, que aún cuando el estudio se enfoca en la enseñanza y su evaluación, no pretende evaluar la
enseñanza y ni a los profesores sino estudiar el enfoque de evaluación de la enseñanza como parte del objeto de
estudio de la investigación. 3 El diseño predominante de investigación será el de estudios de caso de Stake (1995). Los estudios de casos se
llevarán a cabo en las escuelas y facultades de la universidad. Además de las escuelas, profesores y ciertos cursos
serán parte de los estudios de casos.
![Page 5: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/5.jpg)
participante, análisis documental, entrevistas grupales e individuales, análisis estadístico de
bancos de datos y encuestas. Los datos serán recolectados de diferentes fuentes de información
incluyendo estudiantes, profesores, administradores en los niveles de facultad, y al nivel central.
El estudio también llevará a cabo un análisis de políticas y otros documentos que conforman
parte del contexto en el que se desarrolla la evaluación de profesores.
Como corresponde a este tipo de investigación, los métodos de análisis, e interpretación de datos
serán holísticos. La recolección y el análisis de datos comenzarán desde el momento en que
comienza el estudio y resultará en numerosos datos, testimonios, documentos y observaciones. El
uso de métodos múltiples de recolección de datos, revisión de resultados por los participantes, y
el uso de triangulación de datos constituyen una de las fortalezas del estudio.
Responsable: Edith J. Cisneros Chacón, Ph.D
Consultor extranjero: Dan Pratt, Department of Educational Studies, University of British
Columbia, Canadá.
Formación de recursos humanos.
Participantes que obtendrán algún grado o reconocimiento curricular como resultado de su
participación en el proyecto:
Becarios: Se apoyará a 2 becarios de licenciatura.
![Page 6: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/6.jpg)
Bibliografía relevante al estudio
Abrami, P. C. (1989). How Should We Use Student Ratings to Evaluate Teaching?
Research in Higher Education. 30, 2, 221-27.
Abrami, P. C., D' Apollonia, S., & Cohen, P. A. (1990). The validity of student ratings of
instruction: What we know and what we don't. Journal of Educational Psychology,
82, 219-231.
Aleamoni, L. M.; & Graham, M. H. (1974). The Relationship between CEQ ratings and
instructor's rank, class size and course level. Journal of Educational Measurement;11,
3, 189-202, F 74.
Aleamoni, L. M. & Hexner, P. Z. (1981). A Review of the Research on Student
Evaluation and a Report on the Effect of Different Sets of Instructions on Student Course and
Instructor Evaluation. Instructional Science, 9, 1, 67-84.
American Evaluation Association. (1993). Guiding principles for evaluators.
http://www.eval.org/EvaluationDocuments/aeaprin6.html
Andrews, H. A. (1985). Evaluating for excellence: Addressing the need for responsible
and effective faculty evaluation. Stillwater, OK: New Forums Press.
Atkinson, R. C. & Tuzin, D. (1992). Equilibrium in the research university. Change, 3, 21-31.
Bailiff, J. & Khan, S. (1987). The university and the rediscovery of teaching: A system-
level model. In Kurfis, J. (Ed.) To improve the academy: Resources for student, faculty and
institutional development (pp. 75-82). Stillwater, OK: New Forum Press.
Ballantyne, C. (November, 1998). What students think: An innovative look at student
evaluations of teaching. Paper presented at the annual meeting of the American
Evaluation Association, Chicago.
Barnes, L. B. & Barnes M. W. (1993). Academic discipline and generalizability of student
evaluations of instruction. Research in Higher Education, 34, 135-149.
Bess, J. L. (1982). University organizations: A matrix analysis of the academic
professions. New York, NY: Human Sciences Press Inc.
Biglan, A. (1973). The characteristics of subject matter in different academic areas.
Journal of Applied Psychology, 57, 195-203.284
Bok, D. (1992). The improvement of teaching. New York, NY: American Council of
Learned Societies.
Boyer, E. L. (1987). College: The undergraduate experience in America. New York, NY:
Harper & Row.
Braskamp, L. A., Brandenburg, D. C. & Ory, J. C. (1984). Evaluating teaching
effectiveness. London: Sage Publications, Inc.
Braskamp, L. A. & Ory, J. C. (1994). Assessing faculty work: Enhancing individual and
institutional performance. San Francisco, CA: Jossey Bass.
Brodie, D. A. (1998). Do students report that easy professors are excellent teachers? The
Canadian Journal of Higher Education, 23, 1, 1-20.
Brodie, D.A. (1999). Has publication bias inflated the reported correlation between
student achievement and ratings of instructors? Paper presented at the Annual Meeting of the
American Educational Research Association, Montreal CA, April.
Bukalski, P. J. & Zirpola, D. J. (1993). Guide for non-tenured faculty members: Annual
evaluation, promotion, and tenure (University Film and Video Association
Monograph No. 6). Atlanta, GA: Georgia State University, Department of
![Page 7: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/7.jpg)
Communication.
Bureau of National Affairs (1964). The Civil Rights Act of 1964: text, analysis, legislative
history: What it means to employers, businessmen, unions, employees, minority
groups. Bureau of National Affairs, Washington: DC.
Burke, P. (1992). The Fabrication of Louis XIV. Yale University Press, New Heaven and
London. New Haven, CT.
Cahn, S. (1987, October 14). Faculty members should be evaluated by their peers, not by
their students. Chronicle of Higher Education, p. B2.
Cambridge, B. L. (1996). The paradigm shifts: Examining the quality of teaching through
assessment of student learning. Innovative Higher Education, 20, 4, 287-297.
Campbell, D. T. and Fiske, D. W. (1959). Convergent and discriminant validation by the
multitrait matrix. Psychological Bulletin, 56, 81-105.
Cashin, W. E. (1988). Student ratings of teaching: A summary of the research. IDEA
paper No. 20. Manhattan, KS: Kansas State University, Center for Faculty Evaluation and
Development. 285
Cashin, W. E. (1990). Students do rate different academic fields differently. In M. Theall
& J. Franklin (Eds.), Students ratings of Instruction: Issues for improving practice. New
directions for teaching and learning (pp. 113-121). San Francisco: Jossey-Bass.
Cashin, W. E. (1995). Student ratings of teaching: The research revisited. IDEA Paper
No. 32. Manhattan, KS: Kansas State University, Center for Faculty Evaluation and
Development.
Cashin, W. E., & Downey, R. G. (1992). Using Global Student Rating Items for
Summative Evaluation. Journal of Educational Psychology, 84, 4 563-72.
Cashin, W. E., & Perrin, B. (1978). Description of IDEA Standard Form Data Base. IDEA
Technical Report No. 4. Manhattan, KS: Kansas State University, Center for Faculty
Evaluation and Development.
Cave, M., Hanney, S., Kogan, M. & Travett, G. (Eds.). (1988). The use of performance
indicators in higher education: A critical analysis of developing practice. London: Kingsley
Publishers, Ltd.
Centra, J. A. (1977). Student ratings of instruction and their relationship to student
learning.American Educational Research Journal; 14, 1, 17-24.
Centra, J. A. (1979). Determining faculty effectiveness. San Francisco, CA: Jossey-Bass
Inc.
Centra, J. A. (1993). Reflective faculty evaluation: Enhancing teaching and determining
faculty effectiveness. San Francisco, CA: Jossey-Bass Inc.
Centra, J. A.; & Bonesteel, P. (1990). College teaching: An art or a science? In M. Theall
and Franklin, Student ratings of instruction: Issues for improving practice. New Directions for
Teaching and Learning, 43. 7-15. Fall.
Chait, R. P. & Ford, A. T. (1982). Beyond traditional tenure: A guide to sound policies
and practices. San Francisco, CA: Jossey-Bass Ltd.
Chickering, A. W. & Gamson, Z. F. (1987). Seven principles for good practice in
undergraduate education. AAHE Bulletin, pp. 3-7 March.
Chiu, S. (2000). Use of the unbalanced nested ANOVA to examine the factors influencing
student ratings of instructional quality. Unpublished doctoral dissertation.
Champaign, IL: University of Illinois at Urbana-Champaign.286
Cisneros-Cohernour, E. (1998). Trade-offs: Using the feedback of student ratings for
instructional improvement. Champaign, IL: University of Illinois at Urbana-
![Page 8: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/8.jpg)
Champaign.
Cohen, P. A. (1981). Student ratings of instruction and student achievement: A meta-
analysis of multisection validity studies. Review of Educational Research, 51, 281-309.
Cohen, P. A. (1983). Comment on selective review of the validity of student ratings of
teaching. Journal of Higher Education, 54, 448-458.
Cohen, P. A. (1986). An updated and expanded meta-analysis of multisection student
rating validity studies. Paper presented at the Annual Meeting of the American Educational
Research Association. San Francisco, CA, April.
Cohen, P. A. (1990). Bringing research into practice. In New Directions for Teaching and
Learning; Student Ratings of Instruction: Issues for Improving Practice, 43, 123-32.
Costin, F., Greenough, & Menges, R. J. (1971). Student ratings of college teaching:
reliability, validity, and usefulness. Review of Educational Research, 41, 5, 511-535.
Crombach, L.J. (1989). Construct validation after thirty years. In R.L. Linn (Ed.),
Intelligence: Measurement, theory, and public policy (pp.147-171). Chicago:
University of Illinois Press.
Crombach, L. J., & Glesser, G. C. (1965). Psychological and personnel decisions (2nd.
Ed.). Urbana, IL: University of Illinois Press.
Crooks, T. J., & Kane, M. T, (1981). The generalizability of student ratings of instructors:
Item specificity and section effects. Research in Higher Education, 15, 4, 305-13,1981.
Cross, P. K. (1987). The need for classroom research. In J. Kurfiss (Ed), To improve the
academy: Resources for student, faculty and institutional development (pp. 1-17).
Stillwater, OK: New Forum Press.
Cross, P. K. (1993). Improving the quality of instruction. In A. Levine (Ed.), Higher
learning in America (pp. 287-305). Baltimore & London: The John Hopkins University Press.
Cuban, L. (1999). How scholars trumped teachers: Change without reform in university
curriculum, teaching, and research, 1890-1990. New York, NY: Teachers College Press. 287
Damron, J. C. (1996). Instructor personality and the politics of the classroom. Manuscript,
Douglas College, New Westminster, British Columbia, Canada V3L 5B2. (Earlier versions in the
June 1994 Issue of Faculty Matters (No. 5, Pages 9-12) and the
September, 1994 Issue of Update (The Newsletter of the Okanagan University
College Faculty Association). Douglas College)
Doyle, K. O., Jr. (1982). Evaluating teaching. Lexington, Mass: Lexington Books.
Dowell, D. A., and Neal, J. A. (1982). Selective review of the validity of student ratings
of teaching. Journal of Higher Education, 53, 1, 51-62.
Dressel, P. L. (1970). Evaluation of the environment, the process, and the results of higher
education. In A. S. Knowles (ED.), Handbook of college and university
administration: Academic (pp. 53-80). New York, NY: McGraw Hill.
Dunkin, M. J. (1986). Research on teaching in higher education. In Merlin C. Wittrock.
(Ed.), Handbook of research on teaching. American Educational Research Association, New
York: NY.
Dwinell, P. L. & Higbee, J. L. (1993). Students’ perceptions of the value of teaching
evaluations. Perceptual and Motor Skills, 76, 995-100.
Dwyer, C. A. (1993). Teaching and diversity: Meeting the challenge for innovative
teaching assessment. Journal of Teacher Education, 44, 119-129.
Eble, K. E. (1972). Professors as teachers. San Francisco, CA: Jossey-Bass, Inc.
El Hassan, K. (1995). Students’ ratings of instruction: Generalizability of findings. Studies in
Educational Evaluation, 21, pp. 411-429.
![Page 9: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/9.jpg)
Embreston (Whitely), S. (1983). Construct validity: Construct representation versus
nomothetic span. Psychological Bulletin, 93, 179-197.
Erickson, F. (1986). Qualitative methods in research on teaching. In Merlin C. Wittrock.
(Ed.). Handbook of research on teaching. American Educational Research Association, New
York: NY.
Falk, B., & Dow, K. L. (1971). The assessment of university teaching. London: Society
for Research into Higher Education Ltd.
Fayne, H. R. (1991). Practicing what we preach: Key issues in faculty evaluation. Paper
presented at the annual meeting of the American Association of Colleges for Teacher
Education, Atlanta, GA.
Feldman, K. A. (1976). The superior college teacher from the student's view. Research in
Higher Education, 5, 243-288.
Feldman, K. A. (1977). Consistency and variability among college students in rating their
teachers: A review and analysis. Research in Higher Education, 6, 223-274.
Feldman, K. A. (1978). Course characteristics and college students' ratings of their
teachers: What we know and what we don't. Research in Higher Education, 9, 199-242.
Feldman, K A. (1984). Class size and college students' evaluations of teachers and
courses: A closer look. Research in Higher Education, v21 n1 p45-116.
Feldman, K. A. (1986). The perceived instructional effectiveness of college teachers as related to
their personality and attitudinal characteristics. Research in Higher Education, 24,
139-170.
Feldman, K. A. (1987). Research productivity and scholarly accomplishment of college
teachers as related to their instructional effectiveness: A review and exploration.
Research in Higher Education; v26 n3 p227-98.
Feldman, K. A. (1988). Effective college teaching from the students' and faculty's view:
Matched or mismatched priorities? Research in Higher Education, 28, 4, 291-344.
Feldman, K. A. (1989). The association between student ratings of specific instructional
dimensions and student achievement: Refining and extending the synthesis of data from
multisection validity studies.
Feldman, K. A. (1989). Instructional effectiveness of college teachers as judged by
teachers themselves, current and former students, colleagues, administrators, and external
(neutral observers). Research in Higher Education, 30, 137-172.
Feldman, K. A. (1993). College students views of male and female college teachers: Part
Iievidence from students' evaluations of their classroom teachers. Research in Higher
Education, 34, 151-211.
Ferren, A., & Mussell, K. (1987). Strengthening faculty development programs through
evaluation. In J. Kurfiss, To improve the academy: Resources for student, faculty,
and institutional development (p. 133-143). Stillwater, OK: New Forum Press.
Filkelstein, M. J. (1984). Peer review: Documentary evidence. In Milman, J. (Ed.),
Handbook of Teacher Education (pp. 73-79). London: Sage publications.
Frey, P. W. (1976). Validity of student instructional ratings: Does timing matter? Journal
of Higher Education, 42, 3, 327-336.
Gage, N. L. & Needles, M. C. (1989). Process-product research on teaching: A review of
the criticisms. The Elementary School Journal, 89, 253-300.
Genova, W. J., Madoff, M. J., Chin, R. & Thomas, G. B. (1976). Mutual benefit
evaluation of faculty and administrators in higher education. Newton, MA: Ballinguer Publishing
Co.
![Page 10: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/10.jpg)
Gillmore, G. Kane, M. T., & Naccarato, R. W. (1978). The generalizability of student
ratings of instruction: Estimation of the teacher and course components. Journal of
Educational Measurement, 15, 1, 1-13.
Goodwin, L. D. & Stevens, E. A. (1993). The influence of gender on university faculty
members' perceptions of "good" teaching. Journal of Higher Education, 64, 166-185.
Greene, J. C., Caracelli, V. J., & Graham, W. E. (1989). Toward a conceptual framework
for mixed-method evaluation designs. Educational Evaluation and Policy Analysis, 11(3), 255-
274.
Greenwald, A. G. (1996). Validity and usefulness of student ratings of instruction.
American Psychologist, 52,11, 1182-1186.
Greenwald & Gillmore, (1996). No pain, no gain? : The importance of measuring course
workload in student ratings of instruction, University of Washington, Manuscript
submitted for publication.
Guba. E., & Lincoln, Y. (1998). Competing paradigms in qualitative research. In N.
Denzin & Y. S. Lincoln (Eds.). The landscape of qualitative research: Theories and issues. Sage
Publications, Thousand Oaks: CA.
Haskell, (1997). Academic freedom, tenure, and students evaluation of faculty: Galloping
polls in the 21st Century. Educational Policy Analysis Archives (On line), 5, 6,
February. Available: http://olam.ed.asu.edu/epaa/v5n6.html
Hattie, John, & Marsh, H. W. (1996). The relationship between research and teaching: A
meta-analysis. Review of Educational Research; v66 n4 p507-42 Win.
Hawley, R. C. (1977). Faculty evaluation: Some common pitfalls. Independent School
Journal, 5, 39-40.
Hogan, T. (1973). Similarity of student ratings across instructors, courses, and time.
Research in Higher Education; 1, 2, 149-154.
Howard, G. S., Conway, C. G., & Maxwell, S. E. (1985). Construct validity of measures
of college teaching effectiveness. Journal of Educational Psychology, 77, 187-196.
Hunter, J. E., Schmidt, F. L., & Jackson, C. B. (1982). Advanced meta-analysis:
Quantitative methods of cumulating research findings across studies. San Francisco: Sage.
Hunter, M. C. (1982). Mastery teaching/Madeline Hunter. Thousand Oaks, CA: Corwin
Press
Jacobsen, R. H. (1989). The impact of faculty incentive grants on teaching effectiveness.
Paper presented at the meeting of the American Educational Research Association, San
Francisco, CA.
Kant, I. (1975). This fellow was quite black. . . a clear proof that what he said was stupid.
In E.C. Eze. (Ed.), (1997). Race and the enlightenment: A reader. Cambridge, MA:
Blackwell.
Kinney, D. P. & Smith, S. P. (1992). Age and teaching performance. Journal of Higher
Education, 63, 282-302.
Knapper, C. K., Geis, G. L., Pascal, Ch. E. & Shore, B. M. (1977). If teaching is important...:The
evaluation of instruction in higher education. Canada: Clark, Irwin & Company Limited.
Kulik, J. A. & Kulik, C.C. (1974). Student ratings of instruction. Teaching Psychology, 1,
51-57.
Kulik, J. A. & McKeachie, W. J. (1975) “The evaluation of teachers in higher education.”
In F. N. Kerlinger (ed.), Review of Research in Education. Itasca, IL: Peacock,
Kyvik, S.; & Smeby, J.-C. (1994). Teaching and research. The Relationship between the
supervision of graduate students and faculty research performance. Higher Education,
![Page 11: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/11.jpg)
v28 n2 p227-39 Sep.
Lane, S., Parke, C.S., & Stone, C.A. (1998). A framework for evaluating the
consequences of assessment programs.” Educational Measurement: Issues and Practice, 17(2),
24-28.
Lennon, R. T. (1956). Assumptions underlying the use of content validity. Educational
and Psychological Measurement, 16, 294-304.
Licata, Christine M. (1986). Post-tenure faculty evaluation: Treat or opportunity?
Washington, DC: ASHE-ERIC.
Loevinger, J. (1957). Objective tests as instruments of psychological theory (Monograph),
Psychological Reports, 3, 635-694.
Longman, K. A. (1978). Faculty development in a period of retrenchment. Unpublished
doctoral dissertation, University of Michigan, MI.
Mabry, L. (1999). Portfolios plus: A critical guide to alternative assessment. Thousand
Oaks, CA: Corwin Press, Inc.
Magusson, K. (2000). Personal interview.
Mann, M. P. (1987). Developmental models of faculty careers: A critique of research and
theory. In J. Kurfiss, To improve the academy: Resources for student, faculty, and institutional
development (p.19-32). Stillwater, OK: New Forum Press.
Marlin, J. W. J. (1987). Student perception of end-of-course evaluations. Journal of
Higher Education, 58(6), 704-716.
Marsh, H. W. (1982). SEEQ: A reliable, valid, and useful instrument for collecting
students' evaluations of university teaching, British Journal of Educational Psychology, 52, 77,
95.
Marsh, H. W. (1984). Students' evaluations of teaching: Dimensionality, reliability,
validity, potential biases, and utility. Journal of Educational Psychology, 76, 707-754.
Marsh, H. W. (1987). Student’s evaluations of university teaching: Research findings,
methodological issues, and directions for future research. International Journal of
Educational Research, 11, 253-388.
Marsh, H. W. & Bailey, M. (1993). Multidimensional students' evaluations of teaching
effectiveness. Journal of Higher Education, 64, 1-18.
Marsh, Herbert W.; & Overall, J. U. (Spring, 1981). The relative influence of course level,
course type, and instructor on students' evaluations of college teaching. American
Educational Research Journal; v18 n1 p103-12.
Marsh, H. W., Overall, J. U., & Kesler, S. P. (1979). Validity of student evaluations of
instructional effectiveness: A comparison of faculty self-evaluations and evaluations by
their students. Journal of Educational Psychology, 71, 149-160.
McKeachie, W. J. (1971). Research on college teaching: Memo to the faculty. Ann Arbor
Michigan, MI: Center for research on Learning.
McKeachie, W. J. (1990). Research on college teaching: The historical background.
Journal of Educational Psychology, 82, 189-200.
McKeachie, W. J. (1997). Student ratings: The validity of use. American Psychologist,
52, 11, 1218-1225.
McKeachie, W. J., Isaacson, W. J. & Millholand, J. E. (1964). Research on the
characteristics of effective college teaching (Cooperative Research Rep. No. O E 850). Ann
Arbor,MI: The University of Michigan.
McKeachie, W. J., & Lin, Y. G. (1979). A Note on Validity of Student Ratings of
Teaching.Educational Research Quarterly, 4, 3, 45-47.
![Page 12: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/12.jpg)
Menges, R. J. (1991). Why hasn't peer evaluation of college teaching caught on? Paper
presented at the meeting of the American Educational Research Association, Chicago, IL.
Menges, R. J. (1987). Colleagues as catalyst for change in teaching. In J. Kurfiss, To
improve the academy: Resources for student, faculty, and institutional development (p. 83-93).
Stillwater, OK: New Forum Press.
Menges, R. J. (1998). Shortcomings of research on evaluation and improving teaching in
higher education. Paper presented at the Annual Meeting of the American Educational Research
Association, San Diego: CA, April.
Messick, S. (1980). Test validity and the ethics of assessment. American Psychologist, 35,
1012-1027.
Messick, S. (1989). Validity. In R. L. Linn (Ed.), Educational Measurement (3rd ed.). New
York: American Council on Education and Macmillan.
Messick, S. (October, 1994). Alternative modes of assessment: Uniform standards of
validity. Paper presented at a conference on Evaluating Alternatives to Traditional
Testing for Selection, Bowling Green: OH.
Messick, S. (1995). Validity of psychological assessment: Validation of inferences from
persons responses and performances as scientific inquiry into score meaning.
American Psychologist, 50(9), 741-749.
Messick, S. (1994). Alternative modes of assessment, uniform standards of validity.
Research Report.
Messick, S. L. (1989). "Validity". In R. L. Linn (Ed.), Educational Measurement (3rd
Edition). New York: American Council on Education & MacMillan.
Messick, S. L. "Validity". In R. L. Linn (Ed.), Educational Measurement (3rd Edition). New
York: American Council on Education and MacMillan, (1989).
Miller, R. I. (1972). Evaluating faculty performance. San Francisco, CA: Jossey- Bass
Inc.
Miller, R. I. (1974). Developing programs for faculty evaluation. San Francisco, CA:
Jossey-
Bass Inc.
Miller, R. I. (1979). The assessment of college performance: A handbook of techniques
and measures for institutional self-evaluation. San Francisco, CA: Jossey-Bass, Inc.
Miller, R. I. (1987). Evaluating faculty for promotion and tenure. San Francisco: Jossey
Bass Inc.
Moffett, B. S. (1997). Development of a peer evaluation model for clinical teaching
faculty. Paper presented at the Annual Meeting of the American Educational Research
Association, Chicago: IL, March.
Morehead, J. W. & Shedd, P. J. (1996). Student interviews: A vital role in the scholarship
of teaching. Innovative Higher Education, 20, 4, 261-269.
Moses, I. (1988). Academic staff evaluation and development. Queensland, Australia:
University of Queensland Press.
Moss, P.A. (1992). Shifting conceptions of validity in educational measurement:
Implications for performance assessment. Review of Educational Research, 62, 229-
258.
Moss, P.A. (1996) Enlarging the dialogue in educational measurement: Voices from
interpretive research traditions. Educational Researcher, 25(1), 20-28.
Moss, P.A. (1998). The of consequences in validity theory. Educational Measurement:
Issues and Practice, 17(2), 6-13.
![Page 13: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/13.jpg)
Murray, H.G., Rushton, J.P., & Paunonen, S.V. (1900). Teacher personality traits and
student instructional ratings in six types of university courses. Journal of Educational
Psychology, 82(2), 250.
Neal, J. E. (1988). Faculty evaluation: Its purposes and effectiveness (Report No. ED-RI-
88-062014). Washington, DC: ERIC Clearinghouse on Higher Education. (ERIC
Document Reproduction Service No. ED 308 800)
Newman, Y., & Newman, L. (1983). Characteristics of academic areas and students'
evaluation of instruction. Research in Higher Education, 19, 3, 323-334.
Nyquist, J. D. & Staton-Spicer, A. Q. (1987). Non-traditional intervention strategies for
improving the teaching effectiveness of graduate assistants. In J. Kurfiss, To improve
the academy: Resources for student, faculty, and institutional development (pp. 168-
183). Stillwater, OK: New Forum Press.
Ory, J. (1998). Teaching evaluation: Past, present and future. Paper presented at the
Annual Meeting of the American Educational Research Association, San Diego CA., April.
Ory, J. C., Braskamp, L. A., & Pieper, D. (1980) The congruency of student evaluative
information collected by three methods. Journal of Educational Psychology, 72, 181-185.
Ory, J. & Ryan, K. (2001). How do student ratings measure up to a new validity
framework? New Directions in Institutional Research, 109, Jossey-Bass Inc., Publishers, San
Francisco: CA.
Ory, J., & Wieties, (1991). A longitudinal study of faculty selection of ICES student
evaluation items. Paper presented at the annual meeting of the American Educational
Research Association, Chicago, April.
O'Toole, J., Van Alstyne, W. W. & Chait, R. (1979). Three views: Tenure. New Rochelle,
NY: Change Magazine Press.
Overall, J. U. & Marsh (1979-80?). Students' evaluations of instruction: A longitudinal
study of their stability. Journal of Educational Psychology, 72, 321-325.
Patton, M. Q. (1980). Qualitative Evaluation Methods. Beverly Hills, Sage Publications.
Powell, S. (1987). Faculty development needs as a function of status in the academic
guild. In J. Kurfiss, To improve the academy: Resources for student, faculty, and institutional
development (pp. 33-40). Stillwater, OK: New Forum Press.
Reckase, M.D. (1998) Consequential validity from the test developer’s perspective.
Educational Measurement: Issues and Practice, 17(2), 13-16.
Rosenshine, B. (1987). Explicit teaching. In D.C. Berliner, & B. Rosenshine, (Eds.), Talk
to teachers: A festschrift for N. L. Gage (pp. 75-92), New York: Random House.
Roush, D. C. (1983). Strategies for effective university teaching. Materials for Teaching-
Methodology Workshops of the Fullbright Exchange Program. (Available from the Latin
American Scholarship Program for American Universities, 25 Mt. Auburn
Street, Cambridge, MA 02138-6095).
Ryan, K. & Johnson, T. (1998). Democratizing evalution: Meanngs and methods from
practice. Paper presented at the Annual Meeting of the American Evaluation
Association, Chicago, IL, November.
Scriven, M. (1991). Evaluation Thesaurus. 4th, Sage Publications, Newburry Park: CA.
Scriven, M. (1993). The validity of student ratings: In teacher evaluation. Evaluation &
Development Group.
Scriven, M. (1994). A unified theory approach to teacher evaluation. Studies in
Educational Evaluation, 21, 111-129.
![Page 14: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/14.jpg)
Seldin, M. (1997). The teaching portfolio: A practical guide to improved performance and
promotion/tenure decisions. (2nd. Ed). Bolton, MA: Anker Publishing.
Seldin, P. (1993). How colleges evaluate professors 1983 versus 1993. AAHE Bulletin, 6-
8, 12.
Seldin, P. (1984). Changing practices in faculty evaluation. San Francisco: CA, Jossey-
Bass.
Shapiro, B. J. (1983). Probability and certainty in seventeenth-century England: A study
of the relationships between natural science, religion, history, law and literature.
Princeton, NJ. : Princeton University Press.
Shepard, L. Evaluating test validity. Review of Educational Research, 19, 405-450.
Shingles, R. D. (1977). Faculty ratings: procedures for interpreting student evaluations.
American Educational Research Journal, 14, 4, 459-70.
Shulman, L. S. (1986). Paradigms and research programs in the study of teaching: A
contemporary perspective. In M. C. Wittrock. (Ed.). Handbook of research on teaching.
American Educational Research Association, New York: NY.
Stake, R. E. (1995). The Art of Case Study Research. Sage Publications, Thousand Oaks:
CA.
Stake, R. E. (1996). Validity. CIRCE Publications. University of Illinois at Urbana-
Champaign. http://www.ed.uiuc.edu/CIRCE/Publications/Validity
Stake, R. E. (1999). Representing quality in evaluation. Paper presented at the meeting of
the American Educational Research Association. Montreal, Canada, April.
Stake, R. E. & Cisneros-Cohernour, E. J. (2000). Situational evaluation of teaching on
campus. New Directions for Teaching and Learning. Jossey-Bass Inc., Publishers, San
Francisco: CA.
Statham, A., Richardson, L., & Cook, J. A. (1991). Gender and university teaching: A
negotiated difference. Albany, NY: State University of New York Press.
Tagamory, H. T., & Bishop, L. A. (1995). Student evaluations of teaching: Flaws in the
instruments, Thought & Action, 11, 63-78.
Theall, M. (1997). On drawing reasonable conclusions about student ratings of
instruction: A reply to Haskell and to Stake. Education Policy Analysis Archives. 5,
http://olam.ed.asu.edu/epaa/v5n8c2.html
Turner, J. L. & Boice, R. (1987). Starting at the beginning: The concerns and needs of
new faculty. In J. Kurfiss, To improve the academy: Resources for student, faculty, and
institutional development (p. 41-55). Stillwater, OK: New Forum Press.
Washton, N. S. (1988). Developing a faculty checklist for self-evaluation for teaching
effectiveness. Paper presented at the meeting of the Professional and Organizational
Development Network in Higher Education, Keystone, CO.
Wergin, J. F., Smith, A. & Rolle, G.E. (1980, April). An empirical analysis of faculty
evaluation strategies: Implications for organizational change. Paper presented at the
meeting of the American Educational Research Association, Boston, MA.
Whitman, N. & Weiss, E. (1982). Faculty evaluation: The use of explicit criteria for
promotion, retention and tenure (Higher Education Report No. 2). Washington, DC:
AAHE-ERIC.
Whooley, J. E. (1990). Tenured faculty practices that do/could enhance the teaching
effectiveness of non-tenured faculty. Paper presented at the annual conference of the
National Council of States on In-service Education, Orlando, FL.
![Page 15: Examinando las orientaciones teóricas e implicaciones de adoptar un enfoque extranjero en la evaluación de la enseñanza en una universidad pública en México.](https://reader036.fdocuments.mx/reader036/viewer/2022071709/55cf91fe550346f57b928458/html5/thumbnails/15.jpg)
Wicks, S. (1992). Peer review and quality control in higher education. British Journal of
Educational Studies, 40, 57-69.
Wigington, H.; Tollefson, N., & Rodriguez, E. (1989). Students' ratings of instructors
revisited: Interactions among class and instructor variables. Research in Higher
Education, 30(3), 331-44
Wilson, R. C. (1990). Commentary: The evaluation of a faculty developer. Journal of
Educational Psychology, 82, 272-274.
Wilson, R. (2001). It's 10 a.m. do you know where your professors are? Faculty members
at Boston U. fume over plan to require them to be in their offices at least 4 days a week. The
Chronicle of Higher Education, section: The Faculty, p. A10 - A12, February 2.
Yen, W.M. (1998). Investigating the consequential aspects of validity: Who is responsible
and what should they do? Educational Measurement: Issues and Practice, 17(2), 5-6.