Learning Analytics an Hochschulen – Chancen nutzen, Rechte wahren
Mit der zunehmenden Digitalisierung der Lehre entstehen zahlreiche Daten über Lernaktivitäten von Studierenden, beispielsweise aus Quizfragen, Online-Übungen oder der Nutzung digitaler Lernmaterialien. Die systematische Auswertung dieser Daten wird als Learning Analytics (LA) bezeichnet und bietet ein großes Potenzial, um das Lernen individuell zu fördern, Studierende gezielt beim Lernprozess zu unterstützen sowie die Qualität der Lehre insgesamt nachhaltig zu verbessern [1][2]. LA ermöglicht es Studierenden, ihren Lernfortschritt eigenständig nachzuvollziehen, Wissenslücken frühzeitig zu erkennen und passende nächste Lernschritte abzuleiten. Lehrende profitieren parallel dazu von anonymisierten Rückmeldungen über häufig auftretende Schwierigkeiten im Kurs, wodurch sie ihre Didaktik gezielt optimieren können [1][3]. Der BayStuRa unterstützt nachdrücklich den Einsatz von LA an bayerischen Hochschulen und formuliert im folgenden Leitlinien, wie LA sinnvoll und positiv eingesetzt werden kann. Wichtig sind hierbei Freiwilligkeit (Opt-in), Transparenz in der Datenerhebung und ‑verwendung, Fairness im Umgang mit Daten sowie strikte Datenschutzkonformität. Individuelle Analysen sind ausschließlich für die jeweiligen Studierenden bestimmt, beeinflussen niemals Prüfungen oder Noten und dienen einzig dem Ziel, Lernprozesse individuell zu verbessern. Auf diese Weise wird LA nicht nur akzeptiert, sondern als sinnvolle Ergänzung zur Verbesserung der Lehre geschätzt [1][2][3]. LA bietet reale Chancen, ohne die Autonomie der Studierenden zu unterlaufen. Zum einen macht es Lernprozesse sichtbar: Wer nachvollziehen kann, was wann bearbeitet wurde, wo Verständnisprobleme auftreten und welcher Inhalt als Nächstes sinnvoll ist, lernt gezielter und selbstbestimmter. Zum anderen ermöglicht LA wirksame, aber zurückhaltende Frühwarnungen, wenn etwa das Engagement erkennbar abreißt – gestaltet als Einladung zur Beratung. Drittens steigern aggregierte, nicht personenbezogene Rückmeldungen an Lehrende die didaktische Qualität, weil sie schnell anzeigen, an welchen Aufgaben oder Konzepten viele scheitern. Der empirische Forschungsstand weist – bei heterogener Evidenz – insgesamt auf kleine bis mittlere Leistungsgewinne hin, sofern Interventionen klar an Lernziele gekoppelt und pädagogisch begleitet werden [4][5]. Damit LA sinnvoll greift, braucht es geeignete Kontexte und Materialien. Besonders tragfähig ist LA in Formaten, in denen digitale, inhaltlich aussagekräftige Artefakte entstehen: Programmieraufgaben mit Online-Abgabe, Quiz und kurze Zwischenchecks in Flipped-Classroom-Settings, Videos mit eingebetteten Fragen oder Seminare mit Leseaufgaben und Leitfragen. Dort sind deskriptive (Was geschah?), diagnostische (Wo häufen sich Fehler?), vorsichtig prädiktive (Wo zeichnen sich Probleme ab?) und präskriptive Auswertungen (Was ist jetzt ein passender Lernschritt?) möglich. Vorausgesetzt sind sauber formulierte Lernziele, fachlich valide Aufgaben und Interaktionen, die mehr zeigen als nur Abruf und Klickzahlen. Dabei werden mehr Daten erhoben – aber zielgerichtet, zweckgebunden und in klarer Datenminimierung, nicht flächig und „auf Vorrat“ [2][6][7]. Akzeptanz entsteht hier durch ordentliche Information statt Black-Box-Gefühl. Studierende müssen vorab verständlich erfahren, welche Daten zu welchem Zweck erhoben werden, wie die Auswertung funktioniert, wer welche Sichten erhält, wie lange gespeichert wird und welche Rechte bestehen (Auskunft, Berichtigung, Widerruf). Internationale Leitfäden – etwa der Jisc-Kodex und die SURF-Roadmap – setzen hierfür Standards: Transparenz, partizipative Governance, dokumentierte Verhältnismäßigkeit und strikt formative Nutzung [1][2][3]. Ebenso klar sind die Grenzen. LA darf keinen Einfluss auf Prüfungen, Zulassungen oder sonstige Leistungsfeststellungen haben; vollautomatisierte Einzelentscheidungen mit erheblicher Wirkung sind auszuschließen. Somit ist notwendig, LA über informierte Einwilligungen, klare Satzungen und Datenschutz-Folgenabschätzungen zu implementieren; generalklauselartige Erlaubnisse reichen für die Tiefe typischer Analysen nicht aus. Dozierendenfeedback ist legitim, wenn es ausschließlich aggregiert, ab belastbaren Mindestkohorten und ohne Individualprofile erfolgt. Vergleichsrankings („Top 50 %“) und soziale Wettbewerbsanzeigen sind problematisch, weil sie Fehldeutungen und Druck erzeugen; zielführend sind Darstellungen, die den individuellen Lernfortschritt und nächste Schritte betonen. Internationale Debatten – etwa die norwegische Analyse der Dilemmata Daten, Lernen, Governance und Kompetenz – unterstreichen die Notwendigkeit vertrauensbildender Schutzmechanismen sowie Qualifizierung aller Beteiligten. Erwartungsstudien zeigen zudem europaweit ähnliche studentische Prioritäten: hohe Ansprüche an Ethik und Privatsphäre bei zugleich klaren Serviceerwartungen an nützliches, verständliches Feedback [2][5][8][9]. Forderungen Der BayStuRa befürwortet LA als freiwilliges, begleitendes Unterstützungssystem – und formuliert dafür Leitlinien: Freiwilligkeit und Selbstbestimmung. Teilnahme ausschließlich per Opt-in, jederzeit widerrufbar und folgenlos; LA unterstützt Lernentscheidungen, ersetzt sie jedoch nicht. Keine Prüfungsrelevanz: Weder Teilnahme noch Ergebnisse aus LA dürfen auf Noten, Zulassungen oder andere Leistungsentscheidungen durchschlagen. Kein Automatismus:Hinweise aus LA sind Anstoß für menschliche Beratung, nicht für vollautomatisierte Eingriffe [1][2]. Ordentliche Information der Studierenden. Vor Aktivierung informiert die Hochschule verständlich über Zweck und Nutzen, Datentypen und ‑quellen, Auswertungslogik, Empfängerrechte, Speicherfristen, Ansprechstellen sowie Rechte (Auskunft, Berichtigung, Widerruf). Unmissverständlich ist klarzustellen: Lehrende sehen keine personenbezogenen Lernverläufe; Rückmeldungen in Lehrteams erfolgen ausschließlich aggregiert [1][2][3]. Wo LA sinnvoll ist – und welche Auswertungen tragfähig sind. Hochschulen priorisieren bei der Einführung von LA Kurse mit bestehenden geeigneten digitalen Artefakten (z. B. Programmierpraktika, Kurse mit Online-Quiz, Flipped-Classroom-Formate, VHB-Angebote), auch wenn Pilotprojekte in anderen Bereichen unterstützt werden sollen. Zulässig sind Auswertungen, die sich an den Lernzielen orientieren; Modelle, die den Kurserfolg vorraussagen, müssen auf transparent interpretierbarer und verständlicher Datenbasis arbeiten und für den entsprechenden Kurs spezifisch zuverlässige Ergebnisse liefern. Lehrende bekommen hierbei Kursfeedback, können aber keine individuellen Ergebnisse einsehen oder sehen, wer teilnimmt, sondern nur als aggregierte Rückmeldungen ab bestimmten Kohortengrößen. [6][7]. Materialqualität und gezielte Datenerhebung. Lehrmaterial wird so aufbereitet, dass Lernziele erkennbar sind und Aufgaben fachlich valide auf diese Ziele verweisen. Interaktionen werden dort erhoben, wo sie didaktisch Sinn stiften. Hierfür braucht es mehr Daten – aber nur in dem Umfang, der für Feedback, Unterstützung und Kursverbesserung notwendig ist. Datenminimierung, Zweckbindung, Löschkonzepte und technische Zugriffsbeschränkungen sind verbindlich [2]. Rechts- und Governance-Rahmen. Jede Hochschule verankert LA in einer Satzung mit klaren Zwecken, Datenkategorien, Rollen, Schwellen, Speicherfristen, Interventionswegen sowie Beschwerde- und Widerspruchsverfahren; vor Inbetriebnahme erfolgt eine Datenschutz-Folgenabschätzung. Entsprechend hohe Schwellen gelten bei einer kursübergreifenden Implementierung. Bayern unterstützt durch bayernweite Musterregelungen in Abstimmung mit den Aufsichtsbehörden [2][10][11]. Niedrigschwellige Integration und Qualifizierung. LA wird zeitnah in Pilotprojekten eingesetzt, wo sowieso digitale Artefakte entstehen (u. a. VHB-Kurse), und hochschulweit über einen datenschutzgeprüften LMS-Baustein bereitgestellt, damit zusätzlicher Aufwand für Lehrende minimal bleibt. Studierende und Lehrende erhalten von den Hochschulen kurze, praxisnahe Schulungen zur Interpretation und zu Grenzen von LA sowie Hilfe bei der Implementierung; studentische Gremien wirken in Governance und Evaluation verbindlich mit [1][2][3][8][9]. Quellen [1] Jisc, Code of Practice for Learning Analytics. https://www.jisc.ac.uk/guides/code-of-practice-for-learning-analytics [2] SURF, Learning Analytics in 5 Steps – A Guide to the GDPR. https://www.surf.nl/files/2020–06/learning-analytics-in-5-steps.pdf [3] Tsai, Y.-S. et al., The SHEILA Framework: Informing Institutional Strategies and Policy Processes of Learning Analytics, Journal of Learning Analytics (2018). https://learning-analytics.info/index.php/JLA/article/view/6096 [4] A meta-analysis on the effect of learning analytics interventions on students’ academic performance, Journal of Research on Technology in Education
Learning Analytics an Hochschulen – Chancen nutzen, Rechte wahren Weiterlesen »