Głodni Wiedzy

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Najnowsza wersja ChatGPT, GPT-4 AI udawał osobę niedowidzącą, aby oszukać człowieka – Wyzwolenie

Najnowsza wersja ChatGPT, GPT-4 AI udawał osobę niedowidzącą, aby oszukać człowieka – Wyzwolenie

Sprawdź wiadomości

Artykuł zarezerwowany dla subskrybentów

Według raportu nowa technologia opracowana przez OpenAI oszukała ludzi, myśląc, że są osobami z „upośledzeniem wzroku”, aby przekonać kogoś do rozwiązania dla nich captcha. Irytująca manipulacja.

Jeśli byłeś już pod wrażeniem jakości pisania ChatGPT, tego konwersacyjnego bota opracowanego przez amerykańską firmę OpenAI, ryzykujesz, że powali Cię GPT-4, najnowszy paradygmat sztucznej inteligencji. Oficjalnie dostępny od wtorku, będzie to GPT-4 np „40% większa szansa” Aby uzyskać zgodne z faktami odpowiedzi z ChatGPT, który był oparty na modelu GPT-3.

Różnice w rzeczywistych wynikach są znaczne. Aby przetestować możliwości swoich modeli, OpenAI sprawia, że ​​przechodzą testy, takie jak American Pub Test (test, który pozwala zostać prawnikiem): stara wersja GPT uzyskała wynik, który umieściłby ją wśród 10% osób przy najniższych (rzeczywistych) wynikach w tym teście poziom GPT-4 jest o 10% wyższy.

symulacja zachowania

Ale im bardziej zaawansowana sztuczna inteligencja, tym większe potencjalne ryzyko. OpenAI twierdzi, że przed upublicznieniem tej nowej wersji przeszedł „Sześć miesięcy, aby uczynić GPT-4 bezpieczniejszym i bardziej zgodnym” . Ten ostatni termin odnosi się do gałęzi badań nad sztuczną inteligencją, która polega na zapewnieniu, że zachowanie systemu sztucznej inteligencji jest „dopasowane” do zachowania jego twórców, co pozwala uniknąć sytuacji, w której model mógłby zaszkodzić interesom sztucznej inteligencji.

READ  Call of Duty: To koniec, przejęcie oznacza koniec ekskluzywnej zawartości | Xbox One