Schlagwort-Archive: Alexander Marbach

Aus den Teilprojekten (1): TP 2 Systemleistungsvergleich

Zwei Drittel unserer Projektlaufzeit sind um. Mittlerweile haben wir schon einige sehr interessante (Zwischen-)Ergebnisse vorzuweisen, die wir Ihnen und Euch natürlich nicht vorenthalten wollen. Daher werden wir bis zum offiziellen Projektende regelmäßig Einblicke in einzelne Projekte gewähren. Den Anfang macht das Teilprojekt 2,  der „Systemleistungsvergleich“. Im Teilprojekt werden aktuell verfügbare Videoportale verglichen, getestet und bewertet. Grundlage hierfür bietet die Bedarfserhebung aus dem Teilprojekt 1 (Features, Funktionen, Bedarfe). Testszenarien und Use Cases liefert das Teilprojekt 4, die Potentialanalyse. Ziel ist es, ein bis drei Plattformlösungen für die sächsischen Hochschulen zu priorisieren. Danach übernimmt das Teilprojekt 3, die Wirtschaftlichkeitsuntersuchung… (Teil-)Projektpartner sind die Hochschule Mittweida und die TU Chemnitz. Darüber hinaus ist die BPS GmbH eingebunden. Es berichtet Daniel Nenner aus Mittweida:

[Aktueller Stand]

Daniel Nenner – Wissenschaftlicher Mitarbeiter im TP 2

In den letzten Wochen intensivierten wir den Kontakt zu potentiellen Anbietern, sprachen mit ihnen über unsere Bedarfe an ein Videoportal und bemühten uns um passende Demo-Installationen. Zusammen mit der BPS Bildungsportal Sachsen GmbH wurden Testumgebungen konfiguriert, welche dem Teilprojekt für Testinstallationen zur Verfügung stehen. Für ein genaues Vorgehen beim Durchführen der Tests wurden Use-Cases und Testszenarien erarbeitet, anhand derer die Evaluation der Systeme durchgeführt wird. In Zusammenarbeit mit der Fakultät Medien der Hochschule Mittweida entstand eine Datenbasis (z.B. Audio- und Video-Material), die während den einzelnen Testläufen zum Einsatz kommt. Auf dieser Grundlage konnten die ersten Testinstallationen samt anstehender Evaluation durchgeführt werden.

[Evaluation]

Das Projektteam aus Mittweida und Chemnitz hat sich ein gemeinsames Vorgehen für die Evaluierung der Portallösungen erarbeitet.  Nacheinander werden folgende Schritte durchgeführt:

  1. Bereitstellen der Demo (On-Premise oder Cloud)
  2. Installation auf Serverumgebung (Windows oder Linux)
  3. Durchführung der Testszenarien
  • Bearbeitung durch einen wiss. Mitarbeiter, zwei wiss./stud. Hilfskräfte
  • Anwendung der Datenbasis
  • Festhalten der Testergebnisse, Fragen, Bemerkungen
  1. Kontakt zu Anbieter mit Möglichkeit zu Fragen und Probleme Stellung zu beziehen
  2. Wiederholung einzelner Tests bei
  • Erweiterung des Testsystems (z.B. durch zusätzliche Module)
  • Beschreibung schwer erreichbarer Funktionen

[erste Ergebnisse]

Zum aktuellen Zeitpunkt können 12 Anbieter von Videoportal- bzw. Video-Enterprise-Lösungen für den System- und Leistungsvergleich berücksichtigt werden (rechtliche und technische KO-Kriterien). Für Dreiviertel dieser Systeme ist die Evaluation abgeschlossen – damit stehen noch drei Portale aus.

Abgeschlossen (9)

  • Magma
  • Vbrick REV
  • Vidizmo Academy
  • MovingImage24
  • ViMP Corporate
  • Kaltura
  • MEDIAL
  • MediaSite
  • Panopto

Ausstehend (3)

  • Mediaplatform
  • OpenCast (Open-Source)
  • Lecture2Go (Open-Source)

Im bisherigen Vergleich der Anbieter sind wir auf einige Entwicklungen gestoßen, die zeigen, dass die Anbieter den Fokus ihrer Produkte auf teils sehr verschiedene Bereiche legen, die im breiten Feld der Video-Nutzung im Hochschulkontext berücksichtigt werden könnten. Zum Beispiel:

  • Medienserver / Video-Verteilung (Magma, MovingImage24)
  • Video-basiertes E-Learning (Vidizmo Academy)
  • Webcasting und Lecture Capture (VBRick REV, Kaltura)
  • Geschlossenes System (VBRick REV) vs. „offeneres“ System (ViMP Corporate)
  • Out-of-the-Box-Frontend (ViMP Corporate) vs. individuelle Entwicklung (MovingImage24)

Wie zu erwarten war, konnte bislang keine der bisher getesteten Videoportal-Lösungen alle relevanten Use-Cases und Kriterien erfüllen. D.h. erst eine Gewichtung der benötigten Funktionalitäten durch das Konsortium wird eine eindeutige Handlungsempfehlung ermöglichen.

[Ausblick]

In den letzten Monaten des Teilprojektes sollen die noch ausstehenden sechs Evaluierungen durchgeführt werden. Anschließend werden die Ergebnisse in Form einer Feature- und einer Bewertungsmatrix dargestellt. Ergebnisse und Handlungsempfehlungen werden u.a. im September im Rahmen der DeLFI-Konferenz (Potsdam) und im Rahmen des Workshop on E-Learning (Görlitz) präsentiert und zur Diskussion gestellt.