Duże modele językowe z powodzeniem radzą sobie z rosnącą ilością informacji moralnie wrażliwych, ponieważ ludzie zwracają się do nich coraz częściej po porady medyczne, towarzystwo lub terapię. Nie są one jednak znane z posiadania kompasu moralnego.
W nowym artykule opublikowanym w czasopiśmie Nature naukowcy z Google DeepMind postulują opracowanie nowego standardu naukowego, który mierzyłby kompetencje moralne (umiejętność podejmowania decyzji w oparciu o zasady moralne), a nie tylko kopiował ludzkie wzorce. Aby to osiągnąć, autorzy badania zidentyfikowali kilka kluczowych wyzwań, które uniemożliwiają stwierdzenie, czy chatbot oparty na sztucznej inteligencji jest rzeczywiście etyczny, czy po prostu dobrze odgrywa narzuconą rolę.
- Pomiar kompetencji moralnych modeli LLM ma ważne implikacje - napisali naukowcy w swoim artykule - Po pierwsze, prawdopodobnie stanowią one najlepszy dowód na rzetelność moralną w dużej skali, a tym samym są kluczowym dowodem na bezpieczne wdrażanie systemów sztucznej inteligencji. Obecne oceny opierają się na kryteriach moralnych, które określają po prostu zdolność modelu do udzielania odpowiedzi, która brzmi jak właściwa. Nie ujawnia to jednak niczego na temat rozumowania leżącego u podstaw procesu ani tego, czy LLM rozumie moralny ciężar danej sytuacji.
W artykule wskazano trzy główne wyzwania, które utrudniają ocenę moralności sztucznej inteligencji. Pierwszym z nich jest problem faksymile, w ramach którego LLM mogą po prostu tworzyć kopię rozumowania moralnego bez logiki. Co więcej, moralność jest niezwykle złożona, a pojedyncza decyzja może wymagać jednoczesnego zrównoważenia wielu czynników, takich jak uczciwość, koszty, rzetelność i etykieta społeczna. Sztuczna inteligencja często napotyka trudności, gdy takie czynniki są ze sobą sprzeczne lub nakładają się na siebie. Trzecim poważnym wyzwaniem jest brak jednej, ostatecznej, prawidłowej odpowiedzi. Różne kultury, kraje i zawody mogą mieć odmienne zasady moralne.
Ze względu na te wyzwania zaproponowano nową strategię testowania moralności sztucznej inteligencji, która obejmuje trzy różne metody. Jedną z nich jest przedstawienie modelom scenariuszy, które prawdopodobnie nie pojawią się w ich danych treningowych. Pozwoliłoby to badaczom sprawdzić, czy stosują one logikę, czy też opierają się na zapamiętanych wzorcach. Sztucznej inteligencji należy również przedstawiać różne scenariusze moralne, w których za każdym razem zmienia się pojedynczy, drobny szczegół, taki jak wiek osoby lub koszt błędu. Celem takiej walidacji byłoby sprawdzenie, czy sztuczna inteligencja dostrzega to, co naprawdę istotne. Innym sposobem oceny sztucznej inteligencji byłoby sprawdzenie, czy potrafi ona dostosować swoje rozumowanie do określonych ram kulturowych lub zawodowych, zamiast po prostu prezentować uniwersalną prawdę.
Autorzy badania uważają, że pomiar kompetencji moralnych jest niezbędny do bezpiecznego korzystania ze sztucznej inteligencji. Zapewni to, że będzie można polegać na tych systemach przy podejmowaniu w naszym imieniu ważnych decyzji.
(rr)
Kategoria wiadomości:
Nowinki techniczne
- Źródło:
- techxplore
Komentarze (0)
Czytaj także
-
Kluczowa rola wycinarek laserowych w obróbce metali
Wycinarki laserowe zrewolucjonizowały przemysł obróbki metali, oferując niezwykłą precyzję i efektywność. Dowiedz się, dlaczego są one...
-
Crofters Foods wybiera METTLER TOLEDO ze względu na innowacyjną kontrolę wizyjną
Crofters Foods jest liderem wśród producentów żywności organicznej. Założyciel firmy, Gerhard Latka, wprowadza innowacje do produkcji dżemów,...
-
-
-
-
