Blog Category
Technical
Ist biped wirklich mit selbstfahrenden Autos vergleichbar?
biped ist eine kamerabasierte Assistenztechnologie für die Mobilität von Fußgängern, die für blinde oder sehbehinderte Menschen entwickelt wurde. Und sie hat viel mit selbstfahrenden Autos gemeinsam. Es integriert nämlich direkt die Software von Herstellern selbstfahrender Autos. Hier ein genauerer Blick auf die Ähnlichkeiten zwischen biped und selbstfahrenden Autos:
Warum benutzt biped nur Töne als Feedback?
Geräusche sind wahrscheinlich die wichtigste Information für blinde Nutzer, wenn sie sich orientieren. Zahlreiche Forschungsarbeiten haben in der Vergangenheit gezeigt, dass blinde und sehbehinderte Menschen außergewöhnlich gut in der Lage sind, den Ort der Geräuschquelle in ihrer Umgebung zu identifizieren. Warum also sollte jemand, der bei klarem Verstand ist, einem Blinden Geräusche vorspielen?
Wie filtert biped die relevanten Informationen?
Da biped 3D-Töne abspielt, um Sie vor den wichtigsten Elementen zu warnen, bleibt die entscheidende Frage, wie man die relevantesten Informationen herausfiltern kann. Und um ehrlich zu sein, ist das nicht einfach, und zwar aus mehreren Gründen: Jeder Nutzer ist anders und hat andere Schwellenwerte, die er als Überlastung empfindet, jeder Nutzer hat ein anderes Restsehvermögen und möchte andere Warnungen, was wichtig ist, hängt in der Regel von der Situation ab, und jede Situation ist anders.
Warum sind zukünftige Hilfstechnologien kamerabasiert?
Jahrzehntelang haben Unternehmen Ultraschall- oder Lasersensoren verwendet. Diese Sensoren wurden an Armbändern, Halsketten, Brillen, Blindenstöcken oder Schuhen angebracht. Die Art und Weise, wie man diese Sensoren trägt, kann keine Innovation hervorbringen. Die Grenzen sind schon längst erreicht. Ob man nun versucht, ein paar Sensoren zu gruppieren, an der Rückkopplung zu arbeiten oder sonst etwas, es gibt einfach nichts, was ein gutes Verständnis der Umgebung ermöglicht.
Pourquoi l'avenir des technologies d'assistance est basé sur les caméras ?
Pendant des décennies, les entreprises ont utilisé des ultrasons ou des capteurs laser. Ces capteurs ont été montés sur un bracelet, sur un collier, sur des lunettes, sur une canne blanche, sur des chaussures... L'innovation ne peut venir de la façon dont on porte ces capteurs. Les limites ont été atteintes depuis longtemps. Que vous essayiez de regrouper quelques capteurs, de travailler sur le retour d'information ou autre, il n'y a tout simplement rien qui vous permette de produire une bonne compréhension de votre environnement.
Comment biped filtre les informations pertinentes ?
Comme biped joue des sons 3D pour vous avertir des éléments les plus importants, la question clé reste de savoir comment filtrer les informations les plus pertinentes. Et pour être honnête, ce n'est pas simple, pour de multiples raisons : chaque utilisateur est différent et a des seuils différents qu'il considère comme une surcharge ; chaque utilisateur a une vision résiduelle différente et souhaite des avertissements différents, ce qui importe dépend généralement de la situation, et chaque situation est différente.
biped, est-il vraiment similaire aux voitures à conduite autonome ?
biped est une technologie d'assistance à la mobilité piétonne basée sur une caméra, développée pour les personnes non-voyantes ou mal-voyantes. Et il a de nombreux points communs avec les voitures autonomes. En effet, il intègre directement les logiciels des constructeurs de voitures autopilotées. Voici un aperçu des similarités entre le bipède et les voitures autonomes :
Is biped really similar to self-driving cars?
biped is a camera-based assistive technology for pedestrian mobility, developed for those who are blind or visually impaired. And it has a lot in common with self-driving cars. Indeed, it directly integrates software from self-driving car manufacturers. Here is a closer look at how biped and self-driving cars are similar:
Pourquoi biped n’utilise que des sons comme feedback?
Les sons sont probablement les informations les plus importantes pour les utilisateurs aveugles lorsqu'ils naviguent. De nombreux travaux de recherche ont montré par le passé que les aveugles et les malvoyants deviennent exceptionnellement doués pour identifier l'emplacement de la source d'un son qui les entoure. Alors pourquoi une personne saine d'esprit diffuserait-elle des sons dans les oreilles d'un aveugle ?
Why biped uses only sounds as a feedback?
Sounds are probably the most important information for blind users when they navigate. Numerous research papers have shown in the past that blind and visually impaired people become exceptionally good at identifying the location of the source of a sound around them. So why would someone in their right mind play sounds in a blind person’s ears?
How biped filters the relevant information?
As biped plays 3D sounds to warn you about the most important elements, the key question remains to know how to filter the most relevant information. And to be honest, this is not straightforward, for multiple reasons: every user is different and has different thresholds that they consider as an overload every user has different residual vision and wants different warnings, what matters usually depends on the situation, and every situation is different.
Why the future of assistive tech is camera-based?
For decades, companies have used ultrasounds or laser sensors. These sensors have been mounted on a wristband, on a necklace, on glasses, on a white cane, on shoes…Innovation cannot come from the way one wears these sensors. Limits have been reached long ago. Whether you try to group a couple of sensors together, work on the feedback or else, there is simply nothing that will allow you to produce a good understanding of your surroundings.