
Fujitsu Laboratories pracuje nad rozwojem technologii oprogramowania, które wykorzystuje wiele procesorów graficznych w celu przyspieszenia procesu głębokiego uczenia maszynowego. Umożliwi to paralelizacja podobna do tej, z jaką mamy do czynienia w przypadku pracy z superkomputerami.
Konwencjonalna metoda przyspieszenia głębokiego uczenia opiera się o wykorzystanie wielu komputerów wyposażonych w równolegle połączone procesory graficzne i sieciowe. Według Fujitsu korzyści z takiego podejścia zanikają wraz ze zwiększaniem ilości wykorzystanych jednostek ze względu na równoczesne zwiększanie się czasu przeznaczonego na wymianę danych pomiędzy jednostkami.
Nowo opracowana technologia paralelizacji Fujitsu pozwala efektywnie współdzielić dane między komputerami we współpracy z popularnym środowiskiem deep-learningowym Caffe. Aby potwierdzić skuteczność swojego systemu, firma przetestowała technologię na platformie AlexNet. Okazało się, że szybkość uczenia z 16 i 64 procesorami graficznymi była odpowiednio 14,7 i 27 razy szybsza niż w przypadku wykorzystania pojedynczego GPU. Fujitsu twierdzi, że to najszybsza metoda głębokiego uczenia maszynowego na świecie, a wzrost wydajności w stosunku do wykorzystania 16 i 64 procesorów wyniósł odpowiednio 46% i 71%.
Dzięki tej technologii uczenie maszynowe, które trwało na jednym komputerze około miesiąca może być przeprowadzone równolegle na 64 procesorach graficznych w zaledwie jeden dzień. Japońska firma nadal pracuje nad poprawą systemu, chcąc skomercjalizować go jeszcze w tym roku.
(rr)
Kategoria wiadomości:
Nowinki techniczne
- Źródło:
- pacetoday

Komentarze (0)
Czytaj także
-
Jak poprawić stabilność oraz szybkość komunikacji między systemem SCADA, a...
Jesteś projektantem aplikacji SCADA? Zależy Ci, aby komunikacja ze sterownikami PLC była stabilna – niezależnie czy aplikacja jest mała i ma...
-
Kluczowa rola wycinarek laserowych w obróbce metali
Wycinarki laserowe zrewolucjonizowały przemysł obróbki metali, oferując niezwykłą precyzję i efektywność. Dowiedz się, dlaczego są one...
-
-
-
-
-
-