Das Smartphone der Zukunft klingelt. Es ist Bob, der einen Termin am nächsten Samstag vorschlägt. Ort? „Wo du möchtest“. Nach dem Auflegen schlägt das Smartphone vor, den Termin mit Bob einzutragen und schlägt auch gleich ein Restaurant vor, das beiden Personen beim letzten Treffen gefiel. Mit einem Tap ist der Termin geritzt. Zukunftsvision? Nein, Gegenwart!

In der Zukunft wird unser Smartphone mit unserem Smart TV, unserer Waschmaschine und unseren Kühlschrank reden können. Unsere Geräte werden uns immer besser kennen lernen und ihre stetig-anwachsende Wissensdatenbank füllen. Aktionen werden teilautomatisiert ausgeführt oder vorgeschlagen. Vorlieben des Nutzers werden berücksichtigt und bevorzugt vorgeschlagen. Lästige Formulare werden verkürzt oder auf eine geringere Anzahl an Auswahlmöglichkeiten reduziert.

Die Smart-Geräte werden endlich smart in der Zukunft. Die Theorie dahinter hört auf den Namen „Kontextadaption“ und bezeichnet die Anpassung des Verhaltens eines Systems an die jeweilige Situation, in der sich der Nutzer befindet 1 2. So weiß das Smartphone viel mehr über den Menschen, über seine Situation und über die Informationen, die der Mensch in der aktuellen Situation benötigt. Das Smartphone reichert das Wissen durch die Vernetzung von weiteren Geräten und Sensoren wie Smartwatches, Fitnessarmbändern, iBeacons, Wetterstationen, Personenwaagen, Haushaltsgeräten, elektrischen Zahnbürsten, Schlafmatten und vielen weiteren, mit Computern bestückten Geräten an. So entsteht ein allumfassendes Netzwerk aus Sensoren, die ganz genau wissen, in welcher physischen und psychischen Lage der Nutzer sich gerade befindet. Mit diesen Daten ist es nun möglich, dem Nutzer einen persönlichen Assistenten zu stricken, der bildlich geschrieben den Weg für den Nutzer ebnet, noch bevor der Nutzer ihn geht - und zwar still und heimlich. Das ist die Vision von Ubiquitous Computing - von allgegenwärtigen Computern.

Diese Zukunftsvision ist zu weit weg, um wahr zu werden? Die Forschung in der Informatik ist derzeit dabei, genau diese Vision zu erfüllen. Es gibt unzählige wissenschaftliche Paper, die sich mit dieser Vision befassen und die theoretische Umsetzung beschreiben. Bereits jetzt gibt es ein Framework für Android namens AWARE, welches diese Vision softwareseitig ermöglicht. Während die Theorie als auch die Software immer ausgereifter ist, verkleinert sich die Elektronik unserer Smart-Devices immer weiter, während sie auf der anderen Seite immer performanter wird. Einzig die Akkuleistung verschiedenster Geräte lässt noch zu wünschen übrig.

Die Interaktionsdesigner können bereits heute die Kontextadaption für intelligente, interaktive Services nutzen. So zeigt Google mit Google Now, wie man das Wissen des Nutzers für die spezifische Anzeige von Informationen anwenden kann. Auch ein interessantes Konzept für die App Viber zeigt, dass man das Interface durch die Nutzungsdauer anpassen und vereinfachen könnte. CarPlay von Apple oder Android Auto zeigt hingegen, dass auch die Benutzung sich grundlegend an ein neues Medium und an eine andere Situation anpassen kann. Apples Continuity Features illustrieren hingegen, wie wir auch in der nahen Zukunft geräteübergreifend mit Computern interagieren werden.

Allgemein kann man die Anpassungen des Verhaltens des Services in drei Kategorien zusammen fassen: in die Anpassung der Präsentation, des Inhalts oder der Interaktion. Vor allen der letzte Punkt beinhaltet noch viel Spielraum für Innovationen 3.

Anpassung der Präsentation

Eyes Free von Apple war ein Vorstoß im Automotive-Bereich: sobald sich der Nutzer im Auto befindet, sollte das Smartphone während der Fahrt nicht genutzt werden. Das in iOS 7 eingeführte Eyes Free Feature ermöglichte die Interaktion mit dem Smartphone über eine Taste am Lenkrad. Die Anpassung der Präsentation ist hierbei klein und doch wirkungsvoll: das Display bleibt auch während der Benutzung der Sprachsteuerung ausgeschaltet.

Dass die Interaktion über die Sprachsteuerung mit dem bisher vorwiegend-visuell gesteuerten Smartphone sich als sehr schwierig darstellt, haben sowohl Apple als auch Google gemerkt und daher die Anpassung der visuellen Präsentation im Fahrzeug via CarPlay bzw. Android Auto entwickelt.

Ein deutlich präsenteres Beispiel ist die Anpassung der Farben bei Navigationsgeräten und Navigations-Apps auf Basis der Umgebungshelligkeit. So wird die Farbdarstellung des User Interfaces und der Karte bei geringer Helligkeit deutlich dunkler und zum Teil sogar invertiert.

Ein anderes Beispiel ist die automatische Anpassung der Qualität bei einem Video Stream. Youtube macht es vor: während das Video gestreamt wird, wird zur Laufzeit die Qualität an den gegebenen Ressourcen - der Internetbandbreite - angepasst, ohne den Stream selbst zu unterbrechen.

Zusammenfassung

Zusammenfassend kann man also zwischen zwei Arten der Anpassung unterscheiden:

  • Die Auswahl des Mediums
  • Die Anpassung an das Medium

Durch die Auswahl des Mediums kann die bestmögliche und unterstützende Präsentation des Inhaltes zum gegebenen Kontext erzielt werden. So kann ein System für die darzustellende Information das situativ-bedingt bestmögliche Medium auswählen.

Die Anpassung an das Medium soll hingegen die Qualität der Präsentation an den verfügbaren Ressourcen anpassen. Bei einem Video- oder Audiostream kann so die Unterbrechung des Streams verhindert werden, indem die Qualität der Präsentation angepasst wird.

Wichtig ist dabei, dass durch die Anpassung die Information selbst nicht verfälscht oder unverständlich werden darf.

Anpassung des Inhalts

Google Now ist für diese Kategorie das wohl beste Beispiel: Basierend auf diverse Informationen des Nutzers wird die Reihenfolge als auch die Auswahl von Informationen direkt angepasst und in einer Karten-Optik angezeigt. Diese Technik kommt auch in Android Auto vor: nur nützliche und zur Situation passende Informationen werden nach ihrer Relevanz sortiert angezeigt.

Ein ähnliches Beispiel - ebenfalls mit der Zusammenarbeit mit Google - ist das Tourism Radio in Verbindung mit Google Glass. Die Vision zeigt, wie man basierend auf den Standort des Nutzers passende Touristeninformationen ausgeben lassen kann.

iBeacon und NFC sorgen für das nächste Beispiel: nicht nur Indoor-Navigation lässt sich mit den beiden Technologien umsetzen, sondern auch eine Steuerung der Informationsanzeige in einer App. Sobald ein Nutzer beispielsweise vor einem Ausstellungsstück in einem Museum steht und er die App des Museums benutzt, kann er so direkt Informationen zum Ausstellungsstück erhalten. Wer einen Gamification-Ansatz verfolgt, kann so auch eine Schnipseljagd via iBeacons umsetzen 4.

Zusammenfassung

Die Anpassung des Inhaltes kann man in zwei Bereiche unterteilen:

  • Die Reduktion und
  • Die Erweiterung von Informationen.

Die Reduktion beschäftigt sich vorwiegend mit der Filterung des vorhandenen Inhalts. Hier kann man nochmals zwischen den Kontext und den Nutzer unterscheiden:

  • Die Reduktion von Informationen ist dann angebracht, wenn der Nutzer die Informationen bereits kennt 5. So können die Beschriftungen von Hauptinteraktionselementen schrittweise durch Symbole ersetzt werden.
  • Die Reduktion auf Basis der Situation erfolgt dann, wenn die Informationen in der gegebenen Situation nicht notwendig sind. Beispielsweise benötigt der Nutzer nicht unbedingt Touristeninformationen zu einem Ort, wenn er nicht an diesem ist.

Die Erweiterung hingegen kommt dann zum Tragen, wenn die bisherigen Informationen nicht ausreichen. Das kann in zwei Fällen vorkommen:

  • Der Nutzer zeigt spezifisches Interesse oder benötigt spezielle Informationen
  • Die Situation erfordert relevante Informationen - wie eine Reisewarnung im derzeitigen Urlaubsland oder die digitale Boardkarte am Flugtag.

Die Anpassung des Inhalts ist wiederum vom Medium, von den vorhandenen Eingabemethoden und vom Benutzungskontext abhängig. So kann eine Smartwatch mit einem E-Ink Display keine vollwertigen Farbinformationen darstellen.

Anpassung der Interaktion

Diese Kategorie ist - bereits vom Namen - besonders für Interaktionsdesigner, aber auch für Product Owner interessant, denn Nutzer beurteilt einen Service sehr stark anhand der Interaktion mit diesem. Wenn ein Service frustriert oder begeistert, dann liegt es insbesondere daran, wie der Nutzer mit dem Service interagieren muss, um ihn zu nutzen.

Ein banales Beispiel ist Amazon’s 1—Click Button: dieser nutzt die bisher bekannten Informationen des Nutzers, um die notwendige Interaktion des Kaufprozesses drastisch zu verringern. Der Kontext? Banal: die Entscheidung eines bekannten (eingeloggten) Nutzers zum Kauf eines Produktes.

Ein deutlich komplexeres Beispiel ist die App ControlPlane. Mit dieser bestimmt der Nutzer selbst durch Evidenzquellen und Regeln, in welcher Umgebung (Kontext) er sich befindet. Basierend darauf kann dann ControlPlane vom Nutzer festgelegte Aktionen ausführen. So kann ich beispielsweise den Ton meines Macbooks in der Uni automatisch auf lautlos stellen lassen. :-)

Zusammenfassung

Die Anpassung der Interaktion ist - meiner Meinung nach - die unspezifischste der drei Anpassungsformen. Dennoch ist in diesem Bereich viel Optimierungsspielraum vorhanden. Hier kann man zwischen drei verschiedenen Anpassungsmöglichkeiten unterscheiden:

  • Die Reduktion von Interaktionen auf notwendige Aktionen durch
    • die Nutzung von bereits bekannten Informationen
    • Einschränkung von Auswahlmöglichkeiten
    • eine Prognose der zu erledigenden Aufgabe und damit das Vorschlagen statt Einfordern von Eingaben.
  • Die Anpassung der Eingabe an das System (beispielsweise durch die automatische Aktivierung der Sprachsteuerung beim Autofahren)
  • Das Ausführen von (Teil-) Aufgaben unter Berücksichtigung des Kontextes.

Mischformen

Die drei Kategorien sind nicht fest voneinander getrennt. Sie sind stark voneinander Abhängig und beeinflussen sich gegebenenfalls auch untereinander. So kann die Anpassung der Präsentation auch eine Anpassung der Interaktion herbeiführen, oder die Anpassung des Inhaltes auch die Auswahl des geeigneten Mediums beeinflussen.

Eine der Mischform ist die aktivitätsorientierte Adaption.

Aktivitätsorientierte Adaption

In erster Linie muss klargestellt werden, dass Aktivitäten meist als zielgerichtete Tätigkeiten sind. Wir verfolgen ein konkretes Ziel, wenn wir eine Aktivität ausführen - selbst, wenn uns nicht das Ziel bewusst ist. Interessant wird allerdings die Anpassung, wenn die Aktivität des Nutzers berücksichtigt wird und vielleicht sogar das System durch vergangene Aktivitäten die nächste Aktivität prognostizieren kann.

Bisher gibt es kaum Beispiele, die aktivitätsorientierte Anpassung in der Praxis zeigen. Eine Vision ist die Anfangs beschriebene Situation: nach dem Telefonat mit einer Person kann das System assistierend nun eine sinnvolle Aktion - in dem Falle das Eintragen des Termins in den Kalender - vorschlagen. Ähnlich kann auch eine Messenger-App bei bestimmten semantischen Konstellationen von Begriffen (wie „Treffen wir uns morgen um 8 im Café?") das Eintragen eines Termins vorschlagen.

Zusammenfassung

Die zielgerichtete Aktivität eines Nutzers kann durch die Berücksichtigung der Aktivität unterstützt werden, indem die prognostizierte, nächstmögliche Aktion vorgeschlagen oder automatisch durchgeführt wird.

"Die Berücksichtigung von Aktivitätskontext ist [also] kurzfristig von Interesse, um konkrete Nutzungsschwierigkeiten beim Umgang mit mobilen Geräten zu reduzieren, und langfristig, um dem Ziel des Ubiquitous Computing näher zu kommen."
Jan D. S. Wischweh 6

Durch die Berücksichtigung der Aktivitäten eines Nutzers kann die Interaktion auf ein notwendiges verringert werden. Die Folge ist eine natürlichere Interaktion mit dem Service.

Geräteübergreifende Adaption

Die Zahl der Computer pro Person steigt gerade durch die stetige Nutzung von Smartphones, Tablet-PCs, Smart TVs und zukünftig wohl auch Smartwatches. Da liegt es nahe, dass die Geräte sich untereinander kennen, um die Interaktion zwischen den Geräten zu vereinfachen.

Apple machte es mit AirPlay und macht es nun auch mit Continuity 7 als Klassenprimus vor: die vorhandene Vernetzung von Geräten kann nun dazu genutzt werden, um mehrere Geräte gleichzeitig zu nutzen, oder um bequem während der Bearbeitung einer Mail von einem auf das andere Gerät zu wechseln. Dafür nutzt Apple sowohl die Bluetooth- als auch die W-LAN Verbindung der Geräte aus, um zu bestimmen, welche Geräte gerade in der Nähe sind. Wenn beispielsweise ein iPhone in der Nähe eines Macbooks ist und beide Geräte die gleiche Apple-ID nutzen, so tauschen sich die Geräte untereinander aus.

Eine ähnliche Funktionalität bietet Samsung FLOW, bei der der Nutzer selbst über ein Dialogfenster das weiterreichen der derzeitigen Aktion auf ein anderes Gerät initiieren kann. So kann ich beispielsweise von meinem Smartphone ein Videoanruf auf mein Tablet weiterleiten.

Eine wunderbare Geräteübergreifende Adaption ist in Hamburg durch die Hamburger StadtRäder geglückt: Wenn ich mich einer StadtRad Ausleihstation nähere, werden mir sämtliche verfügbaren Stadträder angezeigt - in Abhängigkeit von ihrer Position zum Nutzer. Das Freischalten eines Stadtrades ist dann durch zwei Taps gelöst und das Fahrradschloss kann entfernt werden.

Zusammenfassung

Das Feld der Geräteübergreifenden Adaption ist ziemlich aktuell. iOS-Entwickler haben die Möglichkeit, in ihren Mac- und iOS-Apps das Continuity-Feature von Apple zu unterstützen. Ziel der Geräteübergreifenden Adaption ist es, die Aktion des Nutzers nahtlos an ein anderes Gerät zu übergeben. Eine Alternative dazu wäre, sämtliche verschiedene Geräteklassen - von Notebook, über Tablet bishin zum Smartphone auf ein Gerät mit verschiedenen Display- und Eingabeerweiterungen zu reduzieren - wie es beim Asus Transformer Book V der Fall ist. Der Zweckmäßigkeit dahinter darf allerdings bezweifelt werden.

Interessant wäre die Geräteübergreifende Adaption mit den bisherigen Smart TVs, wie es über Samsung FLOW visualisiert wird. Oder mit Bankautomaten, die keine Scheckkarte mehr, sondern nur noch mein Smartphone in der Nähe wissen müssen.

Fazit

Kontextadaptivität kann dabei helfen, die Bedienkomplexität zu verringern und die Gebrauchstauglichkeit zu erhöhen. Mehr sogar kann die Kontextadaptivität dabei helfen, die Freude bei der Benutzung zu erhöhen, indem Services sinnvolle, weiterführende Aktionen vorschlagen und damit assistierend und produktivitätssteigernd in den Alltag des Nutzers eingreifen.

Als Interaktionsdesigner wird man zukünftig sehr viel mehr zu tun haben, als nur die Position eines Buttons zu diskutieren. Das Feld von intelligenten, kontextadaptiven Services bietet viel Fläche für Innovationen. Und so ist es möglich, mit noch recht einfachen Funktionen und Anpassungen ziemlich viel Aufmerksamkeit und Eindruck zu schinden. Interessant ist vor allen die Reduzierung der Interaktionselemente auf Icons, nachdem der Nutzer die Elemente kennen gelernt hat.

Der Interaktionsdesigner der Zukunft wird sich viel mit aktivitätsorientierte, assistierende Applikationen beschäftigen müssen, die gegebenenfalls sogar geräteübergreifend funktionieren. Dafür muss der Interaktionsdesigner in Zukunft viel enger mit dem Entwickler zusammen arbeiten, denn die neuen, adaptiven Systeme sollten stets auf Machbarkeit überprüft werden.

Wichtig ist, dass frühzeitig mögliche Probleme der Benutzbarkeit verhindert werden und stets der zielführende Sinn von einzelnen Adaptionen beachtet wird.


Bearbeitungshinweis:

  • Am 30. Mai 2015 wurden einige Quellenverweise korrigiert und im Text direkt verlinkt.
  1. Anind K. Dey, Gregory D. Abowd: Towards a Better Understanding of Context and Context-Awareness (1999)
  2. Michael Robert Fahrmair: Kalibrierbare Kontextadaption für Ubiquitous Computing, Dissertation, Uni Hamburg (2005)
  3. Matthias Jöst: Adapting to the User, In: Ubiquitous and Pervasive Computing: Con- cepts, Methodologies, Tools, and Applications (2010), S. 1006–1020
  4. Apple, Inc.: Taking Core Location Indoors, WWDC (2014)
  5. Keith Cheverest, Nigel Davies, Keith Mitchell: Using Context as a Crystal Ball: Rewards and Pitfalls., In: Personal and Ubiquitous Computing 5 (2001), Nr. 1, 8-11.
  6. Jan D. S. Wischweh: Aktivitätsorienterte Kontextadaption für mobile Anwendungen, Diplomarbeit, Uni Hamburg (2009)
  7. Apple, Inc.: Handoff Programming Guide. (2014)