Warum sind zukünftige Hilfstechnologien kamerabasiert?
Jahrzehntelang haben Unternehmen Ultraschall- oder Lasersensoren verwendet. Diese Sensoren wurden an einem Armband, an Halsketten, Brillen, Blindenstöcken oder Schuhen angebracht. Die Art und Weise, wie man diese Sensoren trägt, kann keine Innovation hervorbringen. Die Grenzen sind schon längst erreicht. Egal, ob man versucht, mehrere Sensoren zu gruppieren, an der Rückkopplung zu arbeiten oder sonst etwas zu tun, es gibt einfach nichts, was es einem ermöglicht, ein gutes Verständnis für seine Umgebung zu entwickeln. Aber stellen Sie sich das folgende einfache Szenario vor: Sie gehen auf einem Bürgersteig, links von Ihnen befindet sich ein Gebäude, rechts von Ihnen eine Reihe von geparkten Autos, und ein paar Meter vor Ihnen geht jemand in dieselbe Richtung. Jedes Gerät, das mit Ultraschall oder Laser arbeitet, würde auf der linken Seite vibrieren, vor Ihnen vibrieren und auf der rechten Seite vibrieren.
Das Versprechen von Lidar
Sie haben vielleicht schon von Lidar-Sensoren gehört. Dabei handelt es sich im Grunde um 3D-Lasersensoren. Lidar-Sensoren werden von einigen Unternehmen, die im Bereich des autonomen Fahrens tätig sind, für die Navigation ihrer Fahrzeuge eingesetzt, einfach um Entfernungen zuverlässig abzuschätzen. Jedoch sind sie teuer und für Sensoren, die große Sichtfelder ermöglichen, nach wie vor recht sperrig. Lidars haben vielversprechendere Anwendungen als andere Sensoren, werden aber in der Branche des autonomen Fahrens nach und nach aufgegeben. Die Hauptgründe dafür sind im Wesentlichen, dass einfache Kameras mit Hilfe von künstlicher Intelligenz die Ergebnisse von Lidar annähernd erreichen können und dass das wahre Wissen über eine Szene im Bild liegt, welches eine Kamera aufnehmen kann und nicht in der Entfernung der Dinge in der Umgebung des Benutzers. Lidars haben außerdem bewegliche Teile und erfordern eine aufwändige Wartung.
Kameras sind die Zukunft
Intuitiv halten Kameras die Welt so fest, wie wir sie sehen. Mit Farben, Details und Kontrasten. Tesla-Autos nutzen für ihre selbstfahrenden Funktionen ausschließlich Kameras. Sie benötigen keine weiteren Sensoren, da die künstliche Intelligenz lernt, zu erkennen, was in der Umgebung des Benutzers wichtig ist und welche Maßnahmen zu ergreifen sind. Gehen ist eine Aktivität, bei der die künstliche Intelligenz nicht extrem schnell sein muss. Im schlimmsten Fall muss sie einen Fußgänger mit einer Geschwindigkeit von etwa 7 Stundenkilometern und ein Auto mit 50 Stundenkilometern bewältigen. Allerdings ist die Vielfalt der Objekte, die man als Fußgänger sehen kann, viel wichtiger als das, was ein Auto sehen kann: Selbstfahrende Autos nutzen die Scheinwerfer des Autos, um auch bei Nacht ein klares Bild zu erhalten. Dies war bei biped nicht möglich, da wir nicht wollen, dass das Gerät Licht erzeugt. Wir haben daher Infrarotsensoren eingebaut, die auf Nachtsicht spezialisiert sind. biped bietet darüber hinaus die Flexibilität, alle Ihre bevorzugten Smartphone-Funktionen auf ein freihändiges Gerät wie biped zu übertragen. In zukünftigen Updates wird biped in der Lage sein, Text zu erkennen, QR-Codes zu lesen oder sogar Gesichter zu erkennen. Wenn man bedenkt, wie viel Aufmerksamkeit heutzutage der künstlichen Intelligenz und auf Kameras gewidmet wird und die massive Umstellung von selbstfahrenden Autos auf ausschließlich kamerabasierte Systeme, glauben wir bei biped fest daran, dass die Zukunft der Hilfstechnologien mit intelligenten Rollstühlen oder Navigationsgeräten wie dem unseren kamerabasiert sein wird.