Redpepper opracowało system złożony z robota wykorzystującego sztuczną inteligencję, dzięki której jest on w stanie wskazać popularnego Wally'ego na obrazku nawet w 4,45 sekundy. Wyposażony w gumową dłoń manipulator radzi sobie z tym zadaniem lepiej niż pięciolatki.
Agencja wykorzystała usługę Google AutoML Vision do szkolenia AI na bazie serii zdjęć, na których ukrywał się bohater. W oparciu o technikę drag and drop szkolenie systemu nie wymagało programowania.
Matt Reed, który kierował projektem wykorzystał do treningu 62 wizerunki Wally'ego oraz 45 pełnowymiarowych plansz. Dane te wystarczyły, aby zbudować odpowiedni model SI na bazie Google AutoML Vision.
Manipulator uArm Swift Pro sterowany jest za pośrednictwem Raspberry-Pi z wykorzystaniem zestawu do wizji maszynowej. Kamera robi zdjęcia stron w książkach „Gdzie jest Wally", używając bibliotek OpenCV. Następnie obrazy są wysyłane do Google AutoML. Kiedy sztuczna inteligencja uważa, że znalazła bohatera przynajmniej z 95-procentową pewnością, gumowa ręka od razu ją wskazuje.
Efekty prac Redpepper można zobaczyć na poniższym wideo.
(rr)
Kategoria wiadomości:
Nowinki techniczne
- Źródło:
- popularmechanics
Komentarze (0)
Czytaj także
-
Wichry zmian niekoniecznie przynoszą burzę
W niespokojnych czasach sukces odnoszą organizacje posiadające zdolność przystosowania się, kierowane przez liderów z wizją. Czy te same cechy,...
-
Hydrobox do pompy ciepła: zobacz czym jest i jak działa!
Pompy ciepła cieszą się coraz większą popularnością. I nic w tym dziwnego, bo pozwalają efektywnie ogrzewać nasze domy zieloną energią, a przy...