additional module moderation – Münster questionnaire for evaluation (MFE-ZMo)

Abstract:

The item battery documented here for evaluating moderation is an additional module of the “Münster Questionnaire for Evaluation”. The additional module has the abbreviation “MFE-ZMo”.

  • Language Documentation: deutsch
  • Language Items: German
  • Number of Items: 5
  • Reliability: Cronbachs Alpha = .86
  • Validity: Hinweis auf die konvergente und divergente Validität
  • Construct: Lehrevaluation
  • Catchwords: Lehre | teaching
  • Item(s) used in Representative Survey: nein
  • URL Website: Universität Münster Fach Psychologie
  • Status of Development: validiert

Instrument

Instruktion

Die hier dokumentierte Itembatterie zur Bewertung der Moderation als Zusatzmodul des “Münsteraner Fragebogen zur Evaluation”  (MFE) wird ohne eigene Instruktion präsentiert. Allgemeine Informationen zur Befragung erfolgen beim erstmaligen Zugriff auf das System (Verwendung der Daten, technische Voraussetzungen, u. ä.). Dabei werden auch demografische Merkmale der Teilnehmer erfragt. Üblicherweise wird die Itembatterie als Zusatzmodul direkt nach der Darbietung der Basismodule zur Evaluation von Seminaren (MFE-Sr) und Vorlesungen (MFE-Vr) vorgegeben.

Items

Nr. Items zu Moderation
1 Die Moderationen des/der Lehrenden waren gut strukturiert.
2 Der/Die Lehrende war engagiert.
3 Die Moderation des/der Lehrenden motivierte mich, mich einzubringen.
4 Der sprachliche Ausdruck des/der Lehrenden war verständlich.
5 Der/Die Lehrende war redesicher.
6 Der/Die Lehrende fasste schwierige Sachverhalte prägnant zusammen.
7 Der/die Lehrende gab nützliches Feedback zu Beiträgen der Studierenden.

Antwortvorgaben

7-stufiges Antwortformat mit den Optionen 1 = “stimme gar nicht zu”, 2 = “stimme nicht zu”, 3 = “stimme eher nicht zu”, 4 = “neutral”, 5 = “stimme eher zu”, 6 = “stimme zu” und 7 = “stimme vollkommen zu”. Zusätzlich steht die Antwortoption “nicht sinnvoll beantwortbar” zur Verfügung.

Auswertungshinweise

Wegen der Eindimensionalität der Items dieses Zusatzmoduls “Moderation” können die Antwortwerte aufsummiert oder gemittelt werden.

Theory

Die Evaluation der Lehre ist ein wichtiges Instrument zur Qualitätssicherung an Hochschulen. Nach Rindermann (1996) kann sie in verschiedenen Bereichen Verbesserungen initiieren: So kann sie die Lehrqualifikation der Lehrenden verbessern, Stärken und Schwächen auf Veranstaltungs-, Fach-, oder Universitätsebene aufdecken, Diskussionen zwischen Lehrenden und Studierenden unterstützen, die Mittelvergabe steuern und Weiterbildungsmaßnahmen veranlassen. Seit dem Wintersemester 2000/1 werden im Fach Psychologie an der Universität Münster strukturierte Evaluationsfragebögen eingesetzt. Seit dem Wintersemester 2003/4 wird die Lehrevaluation über eine webbasierte Darbietungsplattform online durchgeführt (Haaser, Thielsch und Moeck, 2007). Vorteile dieser Online-Erhebungsform sind große Zeitersparnisse bei Erhebung, Auswertung und Präsentation der Daten (vgl. z. B. Göritz, Soucek & Bacher, 2005, ; Haaser, Thielsch & Moeck, 2007; Thielsch & Weltzin, 2012). Außerdem konnte durch sie die Anzahl fehlender Werte durch entsprechend programmierte Rückmeldungen deutlich reduziert und das Feedback für Dozenten durch frei wählbare Vergleichsveranstaltungen wesentlich verbessert werden. Seit 2003 können zudem Zusatzmodule wie das hier beschriebene für eine individuell angepasste Lehrevaluation eingesetzt werden.

Für den deutschsprachigen Raum liegt bereits eine Reihe von Instrumenten zur Lehrevaluation vor. Eine Übersicht geben Schmidt und Loßnitzer (2010). Sie sind jedoch meist vergleichsweise lang und somit nur bedingt für eine internetgestützte Darbietung und gleichzeitige Evaluation unterschiedlicher Veranstaltungen geeignet. Speziell für Online-Erhebungen und Rückmeldungen werden eher kurze und ökonomische Skalen benötigt. Hohe Ökonomie, das heißt insbesondere eine möglichst geringe zeitliche Belastung von Studierenden durch die Befragung, war deshalb ein vorrangiges Ziel bei der Konstruktion der Münsteraner Itembatterien zur Lehrevaluation. Deshalb wurden ab 2003 nur noch die wichtigsten Fragen in allgemeine Basismodule zur Lehrevaluation aufgenommen. Spezifischere Themenbereiche können durch Zusatzmodule erfasst werden. Dadurch konnten die ursprünglichen Münsteraner Fragebögen zur Evaluation von Seminaren (MFE-S) und zur Evaluation von Vorlesungen (MFE-V), die bereits für ZIS 13 dokumentiert wurden, kurz gehalten werden. Lehrende können deshalb jetzt in einer Vorphase die Befragung zu ihrer Veranstaltung individuell um gewünschte Zusatzmodule ergänzen und somit deren Evaluation spezifischer auf ihre jeweilige didaktische Konzeption zuschneiden. Von besonderem Vorteil ist zudem, dass den Studierenden so nur Fragen vorgelegt werden können, die für die zu bewertende Veranstaltung auch sinnvoll zu beantworten sind. Da Lehrevaluationen typischerweise gegen Semesterende stattfinden, kollidieren diese zeitlich in den neuen Studiengängen mit der Prüfungsvorbereitung der Studierenden. Aufgrund der zeitlich angespannten Situation der Evaluierenden in dieser Phase (vgl. Bechler & Thielsch, 2012) ist daher eine zeitökonomische Befragungsweise besonders wünschenswert.

Scale development

Itemkonstruktion und Itemselektion

Die Itembatterien der zehn Zusatzmodule des “Münsteraner Fragebogen zur Lehrevaluation” (MFE) wurden auf der Basis einer Analyse von Merkmalen guter Lehre (Grabbe, 2003) und durch die Aufteilung eines umfangreicheren Fragebogenentwurfs zur Evaluation von Seminaren entwickelt, der am Fachbereich Psychologie der Universität Münster konstruiert wurde. Die abschließende Version des von Grabbe (2003) erstellten Seminarfragebogens sollte mit 29 Items acht Dimensionen der Lehrqualität möglichst detailliert erfassen. Es zeigte sich aber im Gespräch mit den Dozenten, dass der Fragebogen für die an der Universität angebotenen Seminare nicht immer alle als relevant erachteten Bereiche abdeckte, da unterschiedlichste Seminarformen angeboten werden, deren Besonderheiten kaum mit einem allgemeinen Fragebogen zu erfassen sind. Daher wurden alle Fragen, die sich auf eine bestimmte Veranstaltungsform beziehen, aus den allgemeinen Evaluationsinstrumentarien herausgenommen und in Zusatzmodule integriert. So entstanden die Zusatzmodule “Referate” sowie “Gruppenarbeit”. Sie können seit 2003 zusätzlich zum Seminarevaluationsfragebogen (MFE-Sr) eingesetzt werden. Außerdem wurden diese beiden Itembatterien auf Wunsch der Dozenten im gleichen Jahr um die Module “Basistexte”, “Diskussion”, “Exkursion”, “Hausaufgaben” und “Moderation” ergänzt, die gleichermaßen für die Evaluation von Seminaren als auch von Vorlesungen herangezogen werden können, sowie um die nur für eine Beurteilung von Seminaren vorgesehenen Zusatzmodule “computergestützte Lehre”, “Rollenspiele” und “Untersuchungen von Studierenden” (Moeck & Thielsch, 2004). In den folgenden Jahren wurden nur die Formulierungen einzelner Items geringfügig modifiziert.

Im Sommersemester 2010 wurden alle Zusatzmodule einer grundlegenden Itemanalyse und -revision unterzogen. Zur gleichen Zeit wurde die allgemeine Lehrevaluation revidiert. Dabei zeigte sich, dass zwei Items, die inhaltlich den Bereich Moderation mit abdecken, nicht optimal in die Skalen der allgemeinen Lehrevaluation passten. Diese Items waren aber von einigen der Dozenten sehr gewünscht worden. Die beiden Items wurden daher ersatzweise in das Zusatzmodul “Moderation” eingefügt (Items 2 & 5). Da für eine erneute psychometrische Prüfung der umformulierten Version noch keine ausreichenden Daten erhoben werden konnten, können entsprechende Ergebnisse erst in der nächsten ZIS Version berichtet werden. Im Folgenden können nun empirische Ergebnisse zur überarbeiteten Version dieses Zusatzmoduls berichtet werden.

Stichproben

Zwischen dem Wintersemester 2010/11 und dem Sommersemester 2012 wurden im Rahmen der Lehrevaluation 483 Bewertungen mit dem Zusatzmodul “Moderation” zur Seminar- und Vorlesungsevaluation erhoben. Davon erfolgten 95 (21.7%) durch Studenten und 341 durch Studentinnen (77.9%), zwei Personen machten keine Angabe zum Geschlecht. Die Befragten waren zwischen 18 und 55 Jahren alt (M = 22.7, SD = 4.0). Die Mehrheit (60.7%) studierte Psychologie im Bachelorstudiengang. 26.9% waren im Bachelorstudiengang Bildungsarbeit mit Kindern und Jugendlichen, 9.6% im Masterstudiengang Psychologie, die übrigen im Nebenfach Erziehungswissenschaften oder im Diplomstudiengang Psychologie.

Seit dem Wintersemester 2002/3 wird die Münsteraner Lehrevaluation am Fach Psychologie jeweils am Ende des Semesters durchgeführt. Für diese Erhebungen wurde eine Online-Plattform basierend auf PHP, kombiniert mit MySQL-Datenbanken, entwickelt (vgl. Haaser, Thielsch & Moeck 2007). Die Items des Zusatzmoduls “Moderation” können über diese optional von den Dozenten im Anschluss an die Itembatterien zur Basisseminarevaluation dargeboten werden.

Itemanalysen

Der KMO-Test zeigt mit einem MSA-Wert von .90 eine sehr gute Eignung des vorhandenen Datensatzes zur Durchführung einer Faktorenanalyse an. Eine explorative Faktorenanalyse (Hauptachsenanalyse mit obliquer Promax-Rotation) legt nach dem Kriterium Eigenwerte > 1 sowie der Inspektion des Screeplots eindeutig eine 1-Faktor Lösung nahe: Der Faktor klärt mit einem Eigenwert von 3.80 54.2% der Varianz auf. Alle sieben Items laden sehr deutlich (.65 < FL < .82) auf dem gemeinsamen Faktor.

Tabelle 1

Mittelwerte (M), Standardabweichungen (SD), Trennschärfen (T), Faktorladungen (FL) und Cronbachs Alpha (CA) bei Ausschluss des Items für die Skala Moderation (N = 438)

  M SD T FL CA
Item 1 5.91 1.18 .75 .81 .85
Item 2 6.52 0.91 .67 .71 .87
Item 3 5.32 1.52 .62 .65 .88
Item 4 6.29 1.00 .70 .77 .86
Item 5 6.27 1.03 .66 .73 .87
Item 6 5.71 1.23 .73 .78 .86
Item 7 5.72 1.38 .66 .69 .87

Anm. Die Berechnungen erfolgten mit SPSS

Itemkennwerte

Zur Beurteilung der psychometrischen Eigenschaften der einzelnen Items liegen Itemkennwerte (Tabelle 1) vor.

Quality criteria

Reliabilität

Für das Modul “Moderation” beträgt Cronbachs Alpha .86. Die interne Konsistenz des Moduls ist demnach als gut geeignet für die in der Lehrevaluation übliche Auswertung auf Veranstaltungsebene anzusehen.

Validität

Bereits Marsh (1984) weist auf die grundsätzliche Schwierigkeit hin, Lehrevaluationsinstrumente angemessen zu validieren, da sehr viele verschiedene Faktoren den Lehrerfolg beeinflussen (bspw. Lehrkompetenz, Vorwissen der Studierenden, Thema oder Veranstaltungstyp). Die meisten Instrumente, sowie die Itemsammlung von Grabbe (2003), auf der die hier vorgestellten Itembatterien aufbauen, können als Versuch angesehen werden, möglichst viele der für die Lehrqualität relevanten Aspekte zu erfassen. Das explizite Ziel der Zusatzmodule bestand nun aber darin einzelne thematisch zusammenhängende Itemblöcke als Modul herauszulösen. Eine Validierung an einem Gesamtkonstrukt Lehrqualität ist damit erschwert, da nur Teilaspekte betrachtet werden. Um dieses Problem zu umgehen, sollen konvergente und divergente Zusammenhänge zu anderen Indikatoren aus der Lehrevaluation aufgezeigt werden: Zu den Skalen aus den Lehrevaluationsbasismodul MFE-Sr (Dozent & Didaktik, Überforderung, Teilnehmer und Materialien) sowie den Fragen nach dem selbst eingeschätzten Lernerfolg, nach der Weiterempfehlung der Veranstaltung an andere Studierende und der Gesamtbeurteilung der jeweils zugehörigen Lehrveranstaltung (Einzelitems aus dem Lehrevaluationsbasismodul MFE-Sr). Die gleichen Zusammenhänge werden für das Lehrevaluationsbasismodul für Vorlesungen, MFE-Vr, ermittelt (ausgenommen der Slala “Teilnehmer”, die für Vorlesungen nicht erfasst wird).

Das erwartete Korrelationsmuster konnte bestätigt werden: Die Antwortmittelwerte für das Zusatzmodul MFE-ZMo sind positiv mit denen für die Skalen Dozent & Didaktik (Seminare: .78, Vorlesungen: .77), Teilnehmer (Seminare: .52) und Materialien assoziiert (Seminare: .75, Vorlesungen: .61) sowie mit dem selbst eingeschätzten Lernerfolg (Seminare: .62, Vorlesungen: .63), der Weiterempfehlungsbereitschaft (Seminare: .37, Vorlesungen: .29) und der Gesamtbeurteilung der jeweils zugehörigen Lehrveranstaltung (Seminare: .60, Vorlesungen: .74). Geringe bis mittlere negative Korrelationen zeigen sich mit den Antwortmittelwerten für die Skala Überforderung (Seminare: -.34, Vorlesungen: -.23). Ferner ist ein insgesamt positiver Zusammenhang des Moderationsmoduls zu Bewertungen von Dozent und Didaktik, Lernerfolgs- und Gesamteinschätzungen zu beobachten.

Ein weiteres wichtiges Validitätskriterium ist, ob das eingesetzte Zusatzmodul signifikant zwischen verschiedenen Veranstaltungen unterscheiden kann. Diese Fähigkeit eines Instruments kann als diskriminative Validität bezeichnet werden, d.h. als seine Fähigkeit, deutlich zwischen verschiedenen Zielobjekten zu differenzieren. Zur ihrer Untersuchung wurde eine ANOVA mit den bewerteten Veranstaltungen als unabhängiger Variable und dem Modulwert als abhängiger Variable berechnet. Nach dieser Analyse unterscheiden sich die Veranstaltungen mit mittlerer Effektstärke signifikant (F = 4.59; df = 22; p < .01; Eta-Quadrat = .20). Das Zusatzmodul ist somit sensitiv für Unterschiede zwischen den bewerteten Veranstaltungen.

Deskriptive Statistiken

Deskriptive Statistiken für Subskalen (Tabelle 2) und Items (Tabelle 1) liegen vor.

Tabelle 2

Mediane (Me), Mittelwerte (M), Standardabweichungen (SD) sowie Schiefe und Kurtosis für die Skala Moderation (N = 438)

  ME M SD Schiefe Kurtosis
Moderation 5.94 6.14 0.91 -1.70(.12) 4.49(.23)

Anm. Die Berechnungen erfolgten mit SPSS

Contact

  • Dr. Dipl.-Psych.  Meinald Thielsch, Westfälische Wilhelms-Universität Münster, Psychologisches Institut 1, Fliednerstr. 21, 48149 Münster, E-Mail: [email protected], Tel. 0251 83 34154, Webseite: www.uni-muenster.de/PsyEval.
  • B. Sc. Ina Stegemöller, Westfälische Wilhelms-Universität Münster, Institut für Psychologie, Fliednerstr. 21, 48149 Münster, Webseite: www.uni-muenster.de/PsyEval  
x