In contrast to panoptic segmentation (middle), amodal panoptic segmentation (bottom) predicts entire object instances including their occluded regions, e.g. cars and people, of the input image (top). (Illustrations: Berkeley DeepDrive; Abhinav Valada; Abhinav Valada)
In contrast to panoptic segmentation ( middle ), amodal panoptic segmentation ( bottom ) predicts entire object instances including their occluded regions, e.g. cars and people, of the input image ( top ). (Illustrations: Berkeley DeepDrive; Abhinav Valada; Abhinav Valada) - Freiburger Informatiker entwickeln wichtigen Schritt hin zur verbesserten Wahrnehmung komplexer urbaner Umgebung Wie können mobile Roboter Umgebung korrekt wahrnehmen und einschätzen - selbst wenn Teile der Umgebung durch andere Objekte verdeckt werden? Das ist eine zentrale Frage, die für autonomes Fahren gelöst werden muss, damit zum Beispiel auch in belebten Straßen von Großstädten ein sicheres Navigieren durch die Umgebung möglich wird. Während der Mensch sich die vollständige physische Struktur von Objekten vorstellen kann, selbst wenn diese teilweise verdeckt sind, verfügen die bisherigen Algorithmen der künstlichen Intelligenz (KI), die es Robotern und selbstfahrenden Fahrzeugen ermöglichen, ihre Umgebung wahrzunehmen, nicht über diese Fähigkeit. Roboter mit KI können sich zwar schon heute selbstständig in ihrer Umgebung zurechtfinden und durch sie navigieren, wenn sie gelernt haben, wie diese Umgebung aussieht. Allerdings ist die Wahrnehmung und korrekte Einschätzung von unbekannten, teilweise verdeckten Dingen und beweglichen Objekten oder Menschen bislang eine große Herausforderung. Einen großen Schritt zur Lösung dieses Problems haben nun der Freiburger Roboterforscher Abhinav Valada und Doktorand Rohit Mohan vom Robot Learning Lab der Universität Freiburg unternommen, den sie in zwei gemeinsamen Veröffentlichungen vorstellen.
TO READ THIS ARTICLE, CREATE YOUR ACCOUNT
And extend your reading, free of charge and with no commitment.