Powrót do listy wiadomości Dodano: 2005-12-19  |  Ostatnia aktualizacja: 2005-12-19
Nowy algorytm usprawnia widzenie u robotów
Nowy algorytm usprawnia widzenie u robotów
Nowy algorytm usprawnia widzenie u robotów
Poza filmami w stylu Matrix Revolutions (z 2003 roku), gdzie można zobaczyć fascynujące roboty przypominające ośmiornice manewrujące w ciasnych korytarzach z niezwykłą gracją, roboty na co dzień są zbyt niezdarne, aby szybko i z gracją omijać przeszkody. Jest to w znacznym stopniu spowodowane trudnością w ocenieniu na podstawie obrazu jak daleko znajdują się przeszkody. Niedawno naukowcy z Stanfordu opracowali algorytm, który umożliwia aproksymację odległości do obiektu.

„Wielu ludzi sądzi, że ocena odległości do przedmiotu przy widzeniu z jednej kamery jest niemożliwa” stwierdza profesor Andrew Ng, który zaprezentował swoje osiągnięcie na Neural Information Processing Systems Conference (konferencja na temat przetwarzania informacji w systemach neuronowych), na początku grudnia. „Sądzę, że ta praca pokaże na praktycznych przykładach, że jednopunktowa ocena odległości działa dobrze i może być przydatna w praktyce”

Gdy wyposaży się robota w cały zestaw czujników może on zyskać zdolność do poprawnego nawigowania między przeszkodami. Stanley – robot uniwersytetu Stanforda, który przejechał pustynny wyścig DARPA Grand Challenge w październiku, używał do orientacji w terenie dalmierzy laserowych, radaru i kamery wideo. Dzięki pracy Ng i jego studentów, roboty dotychczas zbyt małe, by móc udźwignąć tak wiele czujników lub nie ograniczane ze względów finansowych, obecnie będą mogły poruszać się pomiędzy przeszkodami wyposażone tylko w jedną kamerę.

Aby wyposażyć roboty w poczucie głębi, Ng i jego studenci Ashutosh Saxena and Sung H. Chung zaprojektowali oprogramowanie uczące się znajdować wskazówki na temat wzajemnej odległości obiektów na obrazie. Wskazówkami są zmiany w teksturze obiektu (obiekty o wyraźniejszej powierzchni są zapewne bliżej), krawędzie (linie, które się zbiegają są zapewne daleko np. krawędzie drogi oddalającej się od obserwatora) oraz rozmycie (im coś jest dalej tym jest mniej wyraźne).

Aby możliwie dokładnie zanalizować obraz, oprogramowanie rozbija go na części i analizuje każdą osobno oraz dokonuje analizy zależności pomiędzy sąsiadującymi sekcjami. Pozwala to wnioskować o relacjach zachodzących między obiektami. Oprogramowanie analizuje także obraz powiększony w różnych skalach, tak aby żaden szczegół mu nie umknął.

Dzięki algorytmowi ze Stanford, roboty będą mogły oceniać odległość wewnątrz i na zewnątrz pomieszczeń z dokładnością około 35%, w praktyce drzewo odległe o 30 metrów zostanie zidentyfikowane jako odległe od 20 do 40 metrów. Robot poruszający się z prędkością 40km/h i oceniający odległość 10 razy na sekundę z obrazu z kamery wideo będzie miał wystarczającą ilość czasu, aby wyminąć przeszkodę. Ng podkreśla, że jego metoda pozwala oceniać dokładniej odległość dalekich obiektów – w przeciwieństwie do tradycyjnych algorytmów stereowizji wymagających dwóch kamer.

Kategoria wiadomości:

Z życia branży

Źródło:
Physorg
urządzenia z xtech

Interesują Cię ciekawostki i informacje o wydarzeniach w branży?
Podaj swój adres e-mail a wyślemy Ci bezpłatny biuletyn.

Komentarze (0)

Możesz być pierwszą osobą, która skomentuje tę wiadomość. Wystarczy, że skorzystasz z formularza poniżej.

Wystąpiły błędy. Prosimy poprawić formularz i spróbować ponownie.
Twój komentarz :