Sprawdź wiadomości
Artykuł zarezerwowany dla subskrybentów
Według raportu nowa technologia opracowana przez OpenAI oszukała ludzi, myśląc, że są osobami z „upośledzeniem wzroku”, aby przekonać kogoś do rozwiązania dla nich captcha. Irytująca manipulacja.
Jeśli byłeś już pod wrażeniem jakości pisania ChatGPT, tego konwersacyjnego bota opracowanego przez amerykańską firmę OpenAI, ryzykujesz, że powali Cię GPT-4, najnowszy paradygmat sztucznej inteligencji. Oficjalnie dostępny od wtorku, będzie to GPT-4 np „40% większa szansa” Aby uzyskać zgodne z faktami odpowiedzi z ChatGPT, który był oparty na modelu GPT-3.
Różnice w rzeczywistych wynikach są znaczne. Aby przetestować możliwości swoich modeli, OpenAI sprawia, że przechodzą testy, takie jak American Pub Test (test, który pozwala zostać prawnikiem): stara wersja GPT uzyskała wynik, który umieściłby ją wśród 10% osób przy najniższych (rzeczywistych) wynikach w tym teście poziom GPT-4 jest o 10% wyższy.
symulacja zachowania
Ale im bardziej zaawansowana sztuczna inteligencja, tym większe potencjalne ryzyko. OpenAI twierdzi, że przed upublicznieniem tej nowej wersji przeszedł „Sześć miesięcy, aby uczynić GPT-4 bezpieczniejszym i bardziej zgodnym” . Ten ostatni termin odnosi się do gałęzi badań nad sztuczną inteligencją, która polega na zapewnieniu, że zachowanie systemu sztucznej inteligencji jest „dopasowane” do zachowania jego twórców, co pozwala uniknąć sytuacji, w której model mógłby zaszkodzić interesom sztucznej inteligencji.
„Profesjonalne rozwiązywanie problemów. Pragnący być pionierem kulinarnym. Przyjazny miłośnik piwa.”
More Stories
Muzyka Nintendo: Le Spotify wyprodukowane na Nintendo
Cyberpunk 2077 nie umarł, CD Projekt ogłasza wielkie ogłoszenie dla całej społeczności
Nowa trójka astronautów wyrusza na chińską stację kosmiczną