Viele Situationen sind für Menschen mit eingeschränkter Sehkraft eine große Herausforderung: was steht auf der Speisekarte? Wann und wohin fährt der nächste Zug? Viele Informationen sind heute nur visuell verfügbar. Mit NearSpeak können diese Daten über Sprache vermittelt werden. Reale Gegenstände werden mit Sprachnachrichten verknüpft, die automatisch in die Muttersprache des Nutzers übersetzt werden. Durch Näherungstechnologien in modernen Smartphones (NFC, iBeacon, QR Codes) werden kontextuell relevante Daten zur aktuellen Situation über das Internet abgerufen und direkt vorgelesen. Das entwickelte Framework besteht aus einer Content Management-Komponente in der Cloud - diese verwaltet Sprachnachrichten und optimiert deren Nutzung. Durch die Berührung eines entsprechenden Gegenstandes ruft die zugehörige mobile App die Daten aus der Cloud ab, um die Nachricht direkt mit einer Sprachsynthese-Engine hörbar machen.