Naukowcy z IBM Research dokonali przełomu w dziedzinie algorytmów maszynowego uczenia się. Są oni bliscy osiągnięcia idealnej wydajności podczas skalowania systemu. Stworzone przez nich oprogramowanie DDL (distributed deep-learning) zapewnia prawie liniowe przyspieszenie prac wraz z każdym dodanym procesorem. Celem badaczy jest skrócenie czasu nauki algorytmów z dni i godzin do minut i sekund.
Oprogramowanie IBM automatyzuje i optymalizuje proces równoległego przetwarzania zadań przez setki GPU znajdujące się na dziesiątkach serwerów. Większość algorytmów przetwarzania danych tego typu opiera się wyłącznie o skalowalność względem wzrostu ilości GPU.
System DDL osiągnął 95-procentową efektywność skalowania podczas testu układu składającego się z 256 procesorów Nvidia Tesla P100. Dane te obliczono dla zadania opartego o rozpoznawanie obrazów. Niemal liniowe skalowanie osiągnięto już po 50 minutach ćwiczenia algorytmu. Wcześniejszy rekord wydajności na tym samym zestawie danych należał do Facebooka, który mógł pochwalić się 89-procentową skalowalnością po 60 minutach nauki.
Firma poinformowała również, że algorytm osiągnął 33,8% trafności rozpoznawania obrazów na zestawie ImageNet22k składającym się z 7,5 miliona grafik. Dotychczas z tymi danymi najlepiej radził sobie Microsoft, który po 10 dniach treningu rozpoznawał jeze skutecznością 29,8%. Nauka DDL trwała zaledwie 7 godzin.
Nowy algorytm IBM został udostępniony bezpłatnie w ramach platformy PowerAI.
(rr)
Kategoria wiadomości:
Nowinki techniczne
- Źródło:
- kopalniawiedzy
Komentarze (1)
Czytaj także
-
Przemysłowy modułowy panel dotykowy klasy premium z procesorem 10. generacji...
W obliczu rosnącego na całym świecie zapotrzebowania na przetwarzanie dużej ilości danych w czasie rzeczywistym w ciągle zmieniającej się erze...
-
Wciągarki łańcuchowe i linowe: Niezbędne narzędzia dla profesjonalistów i...
W dzisiejszym dynamicznie rozwijającym się świecie, gdzie prace remontowe, budowlane oraz hobbystyczne stanowią nieodzowną część życia wielu osób,...
drtytyu
Po co doskonali się rozpoznawanie obrazów przez komputer ? Funkcja rozpoznawania obrazów wyszukiwarki obrazów w internecie może zyskać większa doskonałość . Drugi temat to "boty" i CAPTCHA .Jeżeli wystarczało wpisanie kilku liter widocznych dla użytkownika na zamazanym tle żeby zapobiec działaniu na stronach internetowych tzw. botów czyli jakichś programów to teraz już nie wystarczy wpisanie tych liter albo cyfr tylko trzeba oglądać obrazki i według kryterium wyselekcjonować , czyżby boty zostały wyposażone w kamerki przez które rozpoznają CAPTCHA ? Przecież te osiągnięcia "deep learning" nie rozwiązują problemu "botów" tylko przeciwnie czynią "boty" skuteczniejsze . Całe to "deep learning" ."sztuczna inteligencja" to niewiadomo do której metafory bardziej pasuje --- góry rodzącej mysz , małpy z brzytwą , małpy piszącej na klawiaturze dramat Szekspira ?