Das CoConUT-Framework und seine Komponenten
Unterstützung bei mobilen Feldstudien (31.01.2019)
Förderjahr 2018 / Stipendien Call #13 / ProjektID: 3148 / Projekt: Mental Resources and Context in Mobile Interaction

Ein wesentlicher Bestandteil meiner Dissertation ist das CoConUT-Framework. Es soll mobile Feldstudien auf Android-Smartphones unterstützen und bietet dafür verschiedene Komponenten.

Bereits in meinem letzten Blogbeitrag erläuterte ich die Vor- und Nachteile von mobilen Feldstudien. Heute möchte ich Euch das CoConUT-Framework vorstellen. Aus Forschungssicht beantwortet das Framework meine zweite Forschungsfrage: „How can mental resources and contextual factors be assessed during field studies?“.

Das Herzstück: CoConUT

Zentral hierbei ist die CoConUT-App, die aus dem Android Play Store heruntergeladen werden kann: Link. Die App sammelt mithilfe der im Smartphone eingebauten Sensoren Daten über die Umgebung und das Nutzungsverhalten. So geben beispielsweise die Anzahl der sichtbaren Bluetooth-Geräte, Aufenthaltsort per GPS oder die Lichtstärke über den Lichtsensor einigen Aufschluss über die Umgebung. Auch Informationen über das Nutzungsverhalten können erhoben werden: Die Frontkamera kann das Gesicht der Nutzer_innen während der Nutzung aufnehmen. Eine Screencast-Funktionalität kann mitschneiden, was auf dem Bildschirm passiert. Auch externe Geräte, wie z.B. ein Polar-Brustgurt, können angeschlossen werden, um Herzfrequenzdaten zu messen.

In meinen Kurzzeitfeldstudien (pro Sitzung < 1h) habe ich viele Sensordaten im 1-Sekunden-Rhythmus gemessen und darüber Informationen über den Kontext und Nutzungsverhalten abgeleitet. So sagt mir die Anzahl der sichtbaren Bluetooth-Geräte in der Nähe, wie viele Personen sich schätzungsweise in der Umgebung aufhalten. Die GPS-Daten liefern Auskunft über Geschwindigkeit der Nutzer_innen und lassen darauf schließen, ob diese gerade stehen, gehen oder mit einem Verkehrsmittel fahren. Dies sind nur einige Beispiele.

CoCoQuest, die Study Guide App

Da Onlinefragebögen keine Zeitstempel über Beginn und Abschluss eines Fragebogens oder einzelner Fragen bieten, haben wir eine einfache „Study Guide App“ namens CoCoQuest entwickelt. CoCoQuest führt die Nutzer_innen mittels Aufgabenstellungen und Fragebögen durch die Studie und loggt detailliert Zeitstempel mit. So können später die Fragebogeninhalte bzw. die Lösung der einzelnen Aufgaben mit den Sensordaten von CoConUT korreliert werden. Die App kann ebenfalls direkt aus dem Play Store installiert werden: Link

In Entwicklung: CoCoVis

Die Entwicklung eines Visualisierungs-Dashboards ist in Arbeit. Zwar bietet CoConUT die Möglichkeit, Daten unmittelbar nach einer Feldstudie auf dem Smartphone selbst zu visualisieren, allerdings sind die Visualisierungsmöglichkeiten auf dem kleinen Bildschirm begrenzt. Der Plan ist, auch interessierten Hobby-Feldforscher_innen die Möglichkeit zu geben, selbst gesammelte CoConUT-Daten auf einem größeren Bildschirm zu visualisieren.

Viel gelernt: CoCoBand & CoCoHat

Zwei „Testballone“ während der Entwicklungszeit waren das CoCoBand (Armband) zur mobilen Messung von Herzrate und Hautwiderstand und der CoCoHat (Hut) zur Erfassung von detaillierten Videodaten aus der Umgebung. Beides sollte mithilfe von Open-Source-Hardware (Arduino) und Open-Source-Code erzielt werden.

Diese beiden Projekte waren sehr lehrreich in vielfacher Hinsicht, allerdings kamen die Ergebnisse von der Qualität her in keinster Weise an bestehende Lösungen auf dem Markt heran. Zur Messung von Herzrate haben wir einen Polar-Brustgurt an die CoConUT-App angebunden und Videodaten werden mittlerweile ebenfalls in der CoConUT-App selbst, sowie mit GoPro-Kameras aufgenommen.

 

Mehr Infos zu dem Framework findet Ihr auf der CoConUT-Webseite!

Tags:

Feldstudien HCI MobileHCI Evaluation Ubiquitous Computing

Svenja Schröder

Profile picture for user svenja.schroeder

Skills:

HCI
,
Field Studies
,
Research
,
Psychology
CAPTCHA
Diese Frage dient der Überprüfung, ob Sie ein menschlicher Besucher sind und um automatisierten SPAM zu verhindern.