Handhabung | Was steht vorn, was hinten, wohin muss ich greifen? Damit Roboter das einschätzen können, arbeiten Forscher an Bilderkennungsmöglichkeiten.
Wer sich räumlich orientieren will, muss seine Umgebung wahrnehmen und das Wahrgenommene interpretieren. Maschinen sehen dank Kameratechnik und Bilderkennungsmethoden auf Basis zweidimensionaler Bilder. Die Interpretation des Gesehenen lässt so allerdings zu wünschen übrig, wie Vincent Lepetit vom Institut für Maschinelles Sehen und Darstellen der TU Graz erklärt: „2D-Bilder geben lediglich Informationen darüber, wo sich ein Objekt ungefähr befindet. Ein Roboter weiß so zum Beispiel nicht genau, wohin er greifen soll“.
Für eine Umgebungsbeschreibung in 3D reichte die verfügbare Rechenkapazität bislang nicht. „Erfreulicherweise ist die Rechnerleistung aber gestiegen, und das eröffnet uns neue Möglichkeiten “, so Lepetit. Er leitet das neue Christian-Doppler-Labor für semantische 3D Computer Vision, das im April an der TU Graz eröffnete. Christian-Doppler-Labors werden von der öffentlichen Hand und Unternehmen gemeinsam finanziert.
In den kommenden sieben Jahren wird Lepetit mit seinem Team, unterstützt von Qualcomm Technologies, an einer Bildbeschreibung in 3D arbeiten. Das Ziel: Roboter sollen sich selbstständig in einer reellen, unkontrollierten Umgebung zurechtfinden. Die Forschungsarbeit wird auf verschiedene Kameratypen und Sensoren setzen, die eine Umgebungs- und Lageerkennung ermöglichen, sowie auf Bewegungs- und Beschleunigungssensoren und Kompasse. Auch eine automatisierte Positionserkennung auf Basis von Bilddatenbanken wie Google Street View und Quellen wie Landkarten und Stadtpläne ist angedacht.
Unsere Webinar-Empfehlung
Erfahren Sie, was sich in der Medizintechnik-Branche derzeit im Bereich 3D-Druck, Digitalisierung & Automatisierung sowie beim Thema Nachhaltigkeit tut.
Teilen: