Naukowcy z Korea Advanced Institute of Science and Technology przedstawili nowe, inspirowane mózgiem podejście do treningu, które może zapewnić bardziej realistyczne szacunki ufności AI wobec swoich sądów.
Proponowana przez nich strategia, przedstawiona w artykule opublikowanym w czasopiśmie Nature Machine Intelligence, polega na krótkim szkoleniu sztucznych sieci neuronowych na losowym szumie i dowolnych wynikach, aby mogły one nauczyć się generować bardziej realistyczne szacunki niepewności przed rozpoczęciem nauki konkretnych zadań.
- Kalibracja niepewności, czyli dopasowanie ufności predykcji do dokładności, jest niezbędna do niezawodnego wdrożenia systemów uczenia maszynowego w rzeczywistych zastosowaniach - napisali Jeonghwan Cheon i Se-Bum Paik w swoim artykule - Jednak obecne modele często nie osiągają tego celu, generując odpowiedzi zbyt pewne siebie, niedokładne, a nawet sfabrykowane. Wykazujemy, że powszechnie stosowana metoda inicjalizacji w uczeniu głębokim - od dawna uważana za standardową praktykę - jest w rzeczywistości głównym źródłem nadmiernej pewności siebie.
Niedopasowanie między dokładnością prognoz systemu AI a stopniem jego pewności co do tych prognoz może być wysoce problematyczne. W przypadku narzędzi diagnostycznych opartych na AI, przeznaczonych do stosowania w placówkach medycznych, to niedopasowanie może prowadzić do błędnych diagnoz. W kontekście pojazdów autonomicznych może to prowadzić natomiast do wypadków i kolizji z innymi pojazdami.
- Aby rozwiązać ten problem, wprowadzamy strategię przygotowania inspirowaną rozwojem neurologicznym, która z natury rozwiązuje problemy związane z niepewnością bez konieczności przetwarzania wstępnego lub końcowego - napisali autorzy - W naszym podejściu sieci, zanim zostaną wystawione na działanie rzeczywistych danych, są najpierw krótko trenowane na losowym szumie i etykietach. Ta faza pozwala na optymalną kalibrację, zapewniając, że pewność siebie pozostaje dobrze dopasowana do dokładności przez cały okres treningu.
Podejście naukowców polega na wdrożeniu krótkiego etapu treningu, zanim model otrzyma rzeczywiste dane specyficzne dla konkretnego zadania. Na tym etapie modelowi sztucznej inteligencji prezentowane są całkowicie losowe informacje oraz wyniki lub odpowiedzi niezwiązane z tymi danymi. Po zakończeniu wstępnego treningu model jest szkolony w standardowy sposób na zbiorach danych istotnych dla zadania, którego wykonania się uczy.
Naukowcy wytrenowali model, stosując proponowane przez siebie podejście, a następnie porównali jego wydajność z wynikami modeli trenowanych przy użyciu standardowych metod uczenia maszynowego. Ich odkrycia okazały się bardzo obiecujące, ponieważ modele, które ukończyły trening rozgrzewkowy, wydawały się mniej podatne na nadmierną pewność siebie i uzyskiwały niższe wyniki w przypadku błędnych prognoz, natomiast odpowiednie wyniki w przypadku poprawnych odpowiedzi.
- Utworzone naszym sposobem sieci wykazują wysoką biegłość w identyfikacji nieznanych danych wejściowych, zapewniając solidne rozwiązanie do kalibracji niepewności - napisali Cheon i Paik.
W przyszłości strategia opracowana przez koreański zespół badawczy mogłaby zostać udoskonalona i zastosowana do szerszego zakresu modeli sztucznej inteligencji.
(rr)
Kategoria wiadomości:
Nowinki techniczne
- Źródło:
- techxplore
Komentarze (0)
Czytaj także
-
"Chiński producent nie dojechał" – jak uruchomiliśmy linię produkcyjną w 4...
Gdy producent z Chin milknie po dostawie maszyny... Import maszyn z Azji to dla wielu polskich zakładów kusząca perspektywa. Obietnica...
-
Kluczowa rola wycinarek laserowych w obróbce metali
Wycinarki laserowe zrewolucjonizowały przemysł obróbki metali, oferując niezwykłą precyzję i efektywność. Dowiedz się, dlaczego są one...
-
-
-
-
-
-
