Wir betonen oft, dass der SOOC13 ein Experiment für alle Beteiligten ist und nicht nur für die Teilnehmer. Daher betreiben wir auch parallel auf verschiedenen Gebieten ein wenig Forschung an unserem cMOOC. Meine Aufgabe besteht dabei darin, mich ein wenig mit Learning Analytics zu beschäftigen und wie sich das ggf. für einen cMOOC im Blog-Kontext umsetzen lässt. Learning Analytics umfasst nach Siemens (2010): „[…] the use of intelligent data, learner-produced data, and analysis models to discover information and social connections, and to predict and advise on learning.“

Viele unserer Teilnehmer kennen und nutzen den Blog-Aggregator, den ich in einem früheren Beitrag schon etwas näher erläutert habe. Allerdings ist dieser nur ein kleiner Ausschnitt der Gesamtarchitektur, welche ich „SOOC13 Learning Analytics Architektur“ nenne. Grafisch lässt sich diese sehr schön mit folgender Abbildung illustrieren:

SOOC13 Learning Analytics Architektur
SOOC13 Learning Analytics Architektur

Der formale Aufbau ist im Prinzip einer vereinfachten Business-Intelligence-Architektur sehr ähnlich. Es gibt externe Quellen, was im SOOC13 die einzelnen öffentlichen News-Feeds der Teilnehmerblogs sind. Deren Daten werden mittels eines ETL-Prozesses in eine zentrale Datenbank geladen, was durch das WPRSS-Aggregator-Plugin von Jean Galea realisiert wird. Diese Daten werden dann für verschiedene Endbenutzerwerkzeuge verwendet. Der einzig größere Unterschied zur klassischen BI-Architektur ist die Datenbank. Für den SOOC13 kommt kein Data Warehouse zum Einsatz sondern eine operative Datenbank, nämlich die des Kursblogs.

Endbenutzerwerkzeuge haben wir derzeit zwei: den öffentlichen Blog-Aggregator, der die gesammelten Daten ausgibt und bei Bedarf wieder zu News-Feeds zusammensetzt, und das LA-Dashboard, was für die Auswertung der Daten zuständig ist. Das Dashboard soll später eine ganze Reihe von Analysen ermöglichen, mit denen sich dann z.B. die Frage beantworten lassen soll, von welchem Standort (Dresden, Siegen, Chemnitz) die aktiveren Teilnehmer kommen, und vieles weitere mehr. Davon sind wir leider noch ein gutes Stück entfernt und vollständig ist unsere Erfassung auch nicht, denn beispielsweise lassen sich noch keine Kommentare auf den Blogs erfassen und auswerten. Aber es ist u.a. bereits möglich, die Veröffentlichungsraten der Beiträge zu visualisieren:

Anzahl der veröffentlichten Blogbeiträge je Kalenderwoche
Anzahl der veröffentlichten Blogbeiträge je Kalenderwoche

An einer solchen Grafik lässt sich ablesen, wie die hoch die Zahl der veröffentlichten Beiträge ist und wie sie sich im Zeitverlauf verändert. In den Zeitraum des ersten Themenblocks (KW 20,21,22) fallen dabei 76 Veröffentlichungen, deren Verteilung doch recht unterschiedlich ist.

Daten zu analysieren und aufzubereiten ist die eine Seite, viel interessanter ist aber die Frage, was die Gastgeber aus solchen Statistiken herauslesen können und welche Rückschlüsse sich daraus für den Kurs ergeben. Das lässt sich derzeit nur sehr schwer und auch nur recht grob beantworten. Es wäre z.B. denkbar, dass der kleine Einbruch in KW21 eventuell daraus resultiert, dass in jener Woche in Dresden vorlesungsfrei war. Genauso gut könnte es aber auch an einem Mangel an relevanten Events (Live-Sessions, etc..) oder zu bearbeitenden Aufgaben im Verlauf des Themenblogs gelegen haben. Welche dieser Vermutungen richtig ist, lässt sich mit Hilfe statistischer Zahlen aber nicht beantworten.

Das zweite große Problem ist die Art der Betrachtung. Möglich sind im Wesentlichen nur quantitativ-zeitliche Aussagen oder vereinfacht ausgedrückt: Wer hat wann wie viele Beiträge geschrieben? Aktuell gibt aber es keine verlässlichen Mittel automatisch zu erkennen, was ein Teilnehmer inhaltlich geschrieben hat, ob er etwa einen Vortrag nun gut oder schlecht fand.  Für Twitter gibt es diese Art von Auswertungen bereits in ersten Ansätzen, bei Blogs übersteigt das aber (noch) die technischen Möglichkeiten.

Generell sehe ich in diesem LA-Konzept aber auch das Potenzial, dass die Gastgeber/Tutoren eines MOOCs die Teilnehmeraktivitäten einfacher erfassen können, die manuelle Meldung ihrer Aktivitäten für die Teilnehmer (fast) wegfallen könnte und damit letztlich eine Aus- und Bewertung von E-Portfolios etwas weniger zeitintensiv und komfortabler wird.