additional module basic texts – Münster questionnaire for evaluation (MFE-ZBa)

Abstract:

  • Language Documentation: deutsch
  • Language Items: German
  • Number of Items: 5
  • Reliability: Cronbachs Alpha = .79
  • Validity: Hinweis auf die konvergente und divergente Validität
  • Construct: Lehrevaluation
  • Catchwords: Lehre, Evaluation | teaching, evaluation
  • Item(s) used in Representative Survey: nein
  • URL Website: http://www.uni-muenster.de/PsyEva
  • Status of Development: validiert

Instrument

Instruktion

Die hier dokumentierte Itembatterie zur Bewertung von Basistexten ist ein Zusatzmodul des “Münsteraner Fragebogen zur Evaluation”  (MFE) und wird ohne eigene Instruktion präsentiert. Allgemeine Informationen zur Befragung erfolgen beim erstmaligen Zugriff auf das System (Verwendung der Daten, technische Voraussetzungen, u. ä.). Dabei werden auch demografische Merkmale der Teilnehmer erfragt. Üblicherweise wird die Itembatterie als Zusatzmodul direkt nach der Darbietung der Basismodule zur Evaluation von Seminaren (MFE-Sr) und Vorlesungen (MFE-Vr) vorgegeben.

Items

Nr. Items zu Basistexte
1 Die zu bearbeitenden Basistexte waren verständlich.
2 Die Basistexte hatten einen klaren Bezug zu den während der Sitzungen behandelten Themen.
3 Der/Die Lehrende beseitigte Verständnisschwierigkeiten, die beim Lesen der Basistexte auftraten.
4 Die zu den Basistexten gestellten Fragen (Aufgaben) haben mir geholfen, die Inhalte besser zu verstehen.
5 Das Lesen des Basistextes war eine sinnvolle Vorbereitung für die jeweilige Sitzung.

Antwortvorgaben

7-stufiges Antwortformat mit den Optionen 1 = “stimme gar nicht zu”, 2 = “stimme nicht zu”, 3 = “stimme eher nicht zu”, 4 = “neutral”, 5 = “stimme eher zu”, 6 = “stimme zu” und 7 = “stimme vollkommen zu”. Zusätzlich steht die Antwortoption “nicht sinnvoll beantwortbar” zur Verfügung.

Auswertungshinweise

Angesichts der offensichtlichen Eindimensionalität der Items der Skala können ihre Antwortwerte aufsummiert oder gemittelt werden.

Theory

Die Evaluation der Lehre ist ein wichtiges Instrument zur Qualitätssicherung an Hochschulen. Nach Rindermann (1996) kann sie in verschiedenen Bereichen Verbesserungen initiieren: So kann sie die Lehrqualifikation der Lehrenden verbessern, Stärken und Schwächen auf Veranstaltungs-, Fach-, oder Universitätsebene aufdecken, Diskussionen zwischen Lehrenden und Studierenden unterstützen, die Mittelvergabe steuern und Weiterbildungsmaßnahmen veranlassen. Seit dem Wintersemester 2000/1 werden im Fach Psychologie an der Universität Münster strukturierte Evaluationsfragebögen eingesetzt. Seit dem Wintersemester 2003/4 wird die Lehrevaluation über eine webbasierte Darbietungsplattform online durchgeführt (Haaser, Thielsch und Moeck, 2007). Vorteile dieser Online-Erhebungsform sind große Zeitersparnisse bei Erhebung, Auswertung und Präsentation der Daten (vgl. z. B. Göritz, Soucek & Bacher, 2005, ; Haaser, Thielsch & Moeck, 2007; Thielsch & Weltzin, 2012). Außerdem konnte durch sie die Anzahl fehlender Werte durch entsprechend programmierte Rückmeldungen deutlich reduziert und das Feedback für Dozenten durch frei wählbare Vergleichsveranstaltungen wesentlich verbessert werden. Seit 2003 können zudem Zusatzmodule wie das hier beschriebene für eine individuell angepasste Lehrevaluation eingesetzt werden.

Für den deutschsprachigen Raum liegt bereits eine Reihe von Instrumenten zur Lehrevaluation vor. Eine Übersicht geben Schmidt und Loßnitzer (2010). Sie sind jedoch meist vergleichsweise lang und somit nur bedingt für eine internetgestützte Darbietung und gleichzeitige Evaluation unterschiedlicher Veranstaltungen geeignet. Speziell für Online-Erhebungen und Rückmeldungen werden eher kurze und ökonomische Skalen benötigt. Hohe Ökonomie, das heißt insbesondere eine möglichst geringe zeitliche Belastung von Studierenden durch die Befragung, war deshalb ein vorrangiges Ziel bei der Konstruktion der Münsteraner Itembatterien zur Lehrevaluation. Deshalb wurden ab 2003 nur noch die wichtigsten Fragen in allgemeine Basismodule zur Lehrevaluation aufgenommen. Spezifischere Themenbereiche können durch Zusatzmodule erfasst werden. Dadurch konnten die ursprünglichen Münsteraner Fragebögen zur Evaluation von Seminaren (MFE-S) und zur Evaluation von Vorlesungen (MFE-V), die bereits für ZIS 13 dokumentiert wurden, kurz gehalten werden. Lehrende können deshalb jetzt in einer Vorphase die Befragung zu ihrer Veranstaltung individuell um gewünschte Zusatzmodule ergänzen und somit deren Evaluation spezifischer auf ihre jeweilige didaktische Konzeption zuschneiden. Von besonderem Vorteil ist zudem, dass den Studierenden so nur Fragen vorgelegt werden können, die für die zu bewertende Veranstaltung auch sinnvoll zu beantworten sind. Da Lehrevaluationen typischerweise gegen Semesterende stattfinden, kollidieren diese zeitlich in den neuen Studiengängen mit der Prüfungsvorbereitung der Studierenden. Aufgrund der zeitlich angespannten Situation der Evaluierenden in dieser Phase (vgl. Bechler & Thielsch, 2012) ist daher eine zeitökonomische Befragungsweise besonders wünschenswert.

Scale development

Itemkonstruktion und Itemselektion

Die Itembatterien der zehn Zusatzmodule des “Münsteraner Fragebogen zur Lehrevaluation” (MFE) wurden auf der Basis einer Analyse von Merkmalen guter Lehre (Grabbe, 2003) und durch die Aufteilung eines umfangreicheren Fragebogenentwurfs zur Evaluation von Seminaren entwickelt, der am Fachbereich Psychologie der Universität Münster konstruiert wurde. Die abschließende Version des von Grabbe (2003) erstellten Seminarfragebogens sollte mit 29 Items acht Dimensionen der Lehrqualität möglichst detailliert erfassen. Es zeigte sich aber im Gespräch mit den Dozenten, dass der Fragebogen für die an der Universität angebotenen Seminare nicht immer alle als relevant erachteten Bereiche abdeckte, da unterschiedlichste Seminarformen angeboten werden, deren Besonderheiten kaum mit einem allgemeinen Fragebogen zu erfassen sind. Daher wurden alle Fragen, die sich auf eine bestimmte Veranstaltungsform beziehen, aus den allgemeinen Evaluationsinstrumentarien herausgenommen und in Zusatzmodule integriert. So entstanden die Zusatzmodule “Referate” sowie “Gruppenarbeit”. Sie können seit 2003 zusätzlich zum Seminarevaluationsfragebogen (MFE-Sr) eingesetzt werden. Außerdem wurden diese beiden Itembatterien auf Wunsch der Dozenten im gleichen Jahr um die Module “Basistexte”, “Diskussion”, “Exkursion”, “Hausaufgaben” und “Moderation” ergänzt, die gleichermaßen für die Evaluation von Seminaren als auch von Vorlesungen herangezogen werden können, sowie um die nur für eine Beurteilung von Seminaren vorgesehenen Zusatzmodule “computergestützte Lehre”, “Rollenspiele” und “Untersuchungen von Studierenden” (Moeck & Thielsch, 2004). In den folgenden Jahren wurden nur die Formulierungen einzelner Items geringfügig modifiziert.

Im Sommersemester 2010 wurden alle Zusatzmodule einer grundlegenden Itemanalyse und -revision unterzogen.  Das Modul Basistexte wurde mittels einer explorativen Faktorenanalyse anhand von Daten aus dem Wintersemester 2008/9 und dem Wintersemester 2009/10 überprüft. Die Items wurden hierbei eindeutig einem Faktoren zugeordnet. In einer ersten Validitätsanalyse zeigten sich mittlere bis hohe  positive Korrelationen mit der Gesamtbeurteilung der jeweils zugehörigen Lehrveranstaltung (.47, p < .01) und dem selbst eingeschätzten Lernerfolg (.55, p < .01).

Stichproben

Zwischen dem Wintersemester 2010/11 und dem Sommersemester 2012 wurden im Rahmen der Lehrevaluation 242 Bewertungen mit dem Zusatzmodul “Basistexte” zur Seminar- und Vorlesungsevaluation erhoben. Davon erfolgten 55 (22.7%) durch Studenten und 186 durch Studentinnen (76.9%), eine Person machte keine Angabe zum Geschlecht. Die Befragten waren zwischen 18 und 49 Jahren alt (M = 22.2, SD = 3.8). Die Mehrzahl (70.2%) studierte Psychologie im Bachelorstudiengang, 23.6% waren im Bachelorstudiengang Bildungsarbeit mit Kindern und Jugendlichen, die übrigen 6.2% im Magisterstudiengang Psychologie oder im Nebenfach Erziehungswissenschaften.

Die Lehrevaluation wird seit dem Wintersemester 2002/3 jeweils am Ende eines Semesters durchgeführt. Für diese Erhebungen wurde eine Online-Plattform basierend auf PHP und kombiniert mit MySQL-Datenbanken entwickelt (Haaser et al., 2007). Die Items des Zusatzmoduls “Basistexte” können über diese optional von den Dozenten im Anschluss an die Itembatterien zur Basisseminarevaluation dargeboten werden.

Variablen und Auswertungsmethode

Die Dimensionalität der Antworten zu den Items wurde konfirmatorisch mit linearen Faktoranalysen und unter Rückgriff auf den konventionellen Maximum Likelihood Schätzer geprüft. Alle entsprechenden Analysen erfolgten mit AMOS.

Itemanalysen

Ein konfirmatorisches Modell (Tabelle 1), welches die Items auf Basis der vorausgegangenen Analysen einem erwarteten Faktor zuordnet, erzielt eine akzeptable Passung (Chi-Quadrat = 11.51, df = 5; TLI = .93, CFI = .98, RMSEA = .08).

Tabelle 1

Mittelwerte (M), Standardabweichungen (SD), Trennschärfen (T), Faktorladungen (FL) und Cronbachs Alpha (CA) bei Ausschluss des Items für die Skala Basistexte (N = 242)

  M SD T FL CA
Item 1 5.41 1.21 .52 .62 .77
Item 2 5.83 1.35 .64 .75 .73
Item 3 5.30 1.59 .45 .52 .79
Item 4 5.04 1.50 .62 .70 .73
Item 5 5.52 1.50 .64 .77 .73

Anm. Faktorladungen wurden mit AMOS ermittelt, die übrigen Berechnungen erfolgten mit SPSS

Itemkennwerte

Zur Beurteilung der psychometrischen Eigenschaften der einzelnen Items liegen Itemkennwerte (Tabelle 1) vor.

Quality criteria

Reliabilität

Für das Modul “Basistexte” beträgt Cronbachs Alpha .79. Die interne Konsistenz des Moduls ist demnach als ausreichend geeignet für die in der Lehrevaluation übliche Auswertung auf Veranstaltungsebene anzusehen. 

Validität

Bereits Marsh (1984) weist auf die grundsätzliche Schwierigkeit hin, Lehrevaluationsinstrumente angemessen zu validieren, da sehr viele verschiedene Faktoren den Lehrerfolg beeinflussen (bspw. Lehrkompetenz, Vorwissen der Studierenden, Thema oder Veranstaltungstyp). Die meisten Instrumente, sowie die Itemsammlung von Grabbe (2003), auf der die hier vorgestellten Itembatterien aufbauen, können als Versuch angesehen werden, möglichst viele der für die Lehrqualität relevanten Aspekte zu erfassen. Das explizite Ziel der Zusatzmodule bestand nun aber darin, einzelne thematisch zusammenhängende Itemblöcke als Modul herauszulösen. Eine Validierung an einem Gesamtkonstrukt Lehrqualität ist damit erschwert, da nur Teilaspekte betrachtet werden. Um dieses Problem zu umgehen, sollen konvergente und divergente Zusammenhänge zu anderen Indikatoren aus der Lehrevaluation aufgezeigt werden. Zur Beurteilung der Validität des Zusatzmoduls “Basistexte” wurden die Korrelationen des Skalenmittelwerts des Moduls mit denen der Skalen aus dem Lehrevaluationsbasismodul MFE-Sr (Dozent & Didaktik, Überforderung, Teilnehmer und Materialien) sowie denen für die Fragen nach dem selbst eingeschätzten Lernerfolg, nach der Weiterempfehlung der Veranstaltung an andere Studierende und der Gesamtbeurteilung der jeweils zugehörigen Lehrveranstaltung (Einzelitems aus dem Lehrevaluationsbasismodul MFE-Sr) berechnet. Die gleichen Vergleichswerte wurden mit dem Lehrevaluationsbasismodul für Vorlesungen, MFE-Vr, ermittelt (ausgenommen nur die Teilnehmerskala, die bei Vorlesungen nicht erfasst wird).Hierbei zeigte sich ein zu erwartendes Korrelationsmuster: Die Antworten zum Zusatzmodul MFE-ZBa korrelieren stark positiv mit denen zu den Skalen Dozent & Didaktik (Seminare: .63, Vorlesungen: .52), Teilnehmer (Seminare: .33) und Materialien (Seminare: .62, Vorlesungen: .45). Ebenfalls mittlere bis hohe positive Korrelationen ergeben sich mit dem selbst eingeschätzten Lernerfolg (Seminare: .56, Vorlesungen: .39), der Weiterempfehlungsbereitschaft (Seminare: .29), der Gesamtbeurteilung der jeweils zugehörigen Lehrveranstaltung (Seminare: .56, Vorlesungen: .35). Für die Skala Überforderung wurden mittlere bis hohe negative Korrelationen ermittelt (Seminare: -.53, Vorlesungen: -.40). Für den didaktisch guten Einsatz von Basistexten und den allgemeinen Einschätzungen zur Qualität einer Veranstaltung wurde ein deutlicher, meist positiver, Zusammenhang beobachtet. In dieses Bild passt auch die hohe negative Korrelation zur selbsteingeschätzten Überforderung: Gut ausgewählte Basistexte fördern die universitäre Lehre ohne die Teilnehmer zu überfordern.

Ein weiteres wichtiges Validitätskriterium ist, ob das eingesetzte Zusatzmodul signifikant zwischen verschiedenen Veranstaltungen unterscheidet. Diese Fähigkeit kann als diskriminative Validität beurteilt werden, d.h. als die Fähigkeit, deutlich zwischen verschiedenen Zielobjekten zu differenzieren. Zur Untersuchung dieser Eigenschaft wurde eine ANOVA mit den bewerteten Veranstaltungen als unabhängiger Variable und dem Modulwert als abhängiger Variable berechnet. Sie zeigte mit mittlerer Effektstärke signifikante Unterschiede zwischen den Veranstaltungen auf (F = 2.14; df = 15; p < .01; Eta-Quadrat = .12). Das Zusatzmodul ist somit sensitiv für Unterschiede zwischen den bewerteten Veranstaltungen.

Deskriptive Statistiken

Deskriptive Statistiken für Subskalen (Tabelle 2) und Items (Tabelle 1) liegen vor.

Tabelle 2

Mediane (Me), Mittelwerte (M), Standardabweichungen (SD) sowie Schiefe und Kurtosis für die Skala Basistexte (N = 242)

  ME M SD Schiefe Kurtosis
Basistexte 5.54 5.60 1.04 -0.87(.16) 0.86(.31)

Anm. Die Berechnungen erfolgten mit SPSS

Contact

  • Dr. Dipl.-Psych.  Meinald Thielsch, Westfälische Wilhelms-Universität Münster, Psychologisches Institut 1, Fliednerstr. 21, 48149 Münster, E-Mail: [email protected], Tel. 0251 83 34154, Webseite: www.uni-muenster.de/PsyEval.
  •          B. Sc. Ina Stegemöller, Westfälische Wilhelms-Universität Münster, Institut für Psychologie, Fliednerstr. 21, 48149 Münster, Webseite: www.uni-muenster.de/PsyEval  
x