Głodni Wiedzy

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Dlaczego ChatGPT uwielbia komplementy tak samo jak my?

Dlaczego ChatGPT uwielbia komplementy tak samo jak my?

Chatbot udziela bardziej szczegółowych odpowiedzi, jeśli użytkownik grzecznie zada mu pytanie. Sposób zachowania, który można wytłumaczyć w bardzo racjonalny sposób.

Czy jest bardziej prawdopodobne, że ChatGPT udzieli szczegółowych odpowiedzi, jeśli będziesz wobec niego uprzejmy lub zaoferujesz mu pieniądze? Tak mówią użytkownicy sieci społecznościowej Reddit. „Kiedy to pochwalisz, ChatGPT działa lepiej!”Był świadkiem niektórych z nich i był zaskoczony. chwila Inny wyjaśnia, że ​​zaoferował nagrodę w wysokości 100 000 dolarów Do słynnego chatbota opracowanego przez OpenAI w Kalifornii, który by go zachęcił „Włóż więcej wysiłku” I dla „Pracuję znacznie lepiej”Podążaj za nim Amerykańskie media TechCrunch.

Tę kwestię podnieśli także badacze z firmy Microsoft, Beijing Normal University i Chińskiej Akademii Nauk. Co szczegółowo opisano w raporcie opublikowanym w listopadzie 2023 rże generatywne modele sztucznej inteligencji są najskuteczniejsze, gdy zostaną o to poproszeni w uprzejmy sposób lub z pomysłem stawki.

Na przykład, formułując zdania takie jak „Ważne jest, abym skutecznie obronił swoją pracę magisterską.” Lub „To bardzo ważne dla mojej kariery”. Robot formułuje pełniejsze odpowiedzi na pytanie zadane przez internautę. „Istniało kilka założeń przez kilka miesięcy. Przed latem użytkownicy potwierdzili również, że ChatGPT udziela szczegółowych odpowiedzi, jeśli otrzymają poradę. Wskazuje także Giada Pestelli, badaczka filozofii i szefowa działu etyki w startupie Hugging Face, który opowiada się za koncepcją otwartego oprogramowania dla zasobów sztucznej inteligencji.

ChatGPT oparty na scenariuszach

Ten sposób pracy części maszyny ma swoje źródło w danych, które są jej dostarczane. „Trzeba myśleć o danych jak o bloku tekstu, który ChatGPT czyta i odkrywa, że ​​rozmowa dwóch użytkowników jest bogatsza, gdy są wobec siebie uprzejmi”.Giada Pestelli wyjaśniła: „Jeśli użytkownik zadaje pytanie w uprzejmy sposób, CzatGPT Odniesie się do tego scenariusza i odpowie w tym samym tonie.”.

„Modele takie jak ChatGPT wykorzystują prawdopodobieństwo. Na przykład otrzymuje zdanie, które musi dokończyć. Na podstawie swoich danych będzie szukał najlepszej opcji, aby na nie odpowiedzieć. „Adrien Gabriel Chivaux, doktor informatyki i badacz szkolny na Uniwersytecie w Aix-Marseille, dodaje: „To tylko matematyka. ChatGPT opiera się całkowicie na danych, na których został przeszkolony”.. Dlatego też chatbot jest w stanie zareagować niemal agresywnie, jeśli użytkownik nagle złoży żądanie i sposób, w jaki zbudowany jest formularz, również mu ​​na to pozwala.

READ  Call of Duty: Vanguard będzie najgorszą premierą COD w Wielkiej Brytanii od 14 lat | Xbox One

Mówią naukowcy z Microsoftu, Beijing Normal University i Chińskiej Akademii Nauk „Zachęty emocjonalne” W ich raporcie. Za tym terminem kryją się sposoby adresowania maszyny, która ją do niej napędza „Naśladowanie ludzkich zachowań tak wiernie, jak to możliwe”Analiza Giady Pistelli.

Aby ChatGPT spełniał rolę dostosowującą się do pożądanej odpowiedzi, wystarczy użyć określonych słów kluczowych, które doprowadzą do innej diagnostyki urządzenia. „Oferując radę, będzie postrzegał pracę jako wymianę usług i ucieleśnia tę rolę służebną”.– bierze za przykład.

Bot konwersacyjny może szybko przyjąć w świadomości niektórych użytkowników i w zależności od ich próśb ton konwersacyjny, jaki może mieć profesor, scenarzysta lub reżyser. „Co sprawia, że ​​wpadamy w pułapkę: traktować go jak człowieka i dziękować mu za poświęcony czas i pomoc tak, jak byśmy to robili prawdziwej osobie”.„, zauważa badacz-filozof.

Sztuczna inteligencja jest w stanie nas oszukać

Niebezpieczeństwo polega na tym, że ta symulacja zachowania, przeprowadzona za pomocą dosłownych obliczeń maszynowych, będzie postrzegana jako rzeczywista. „Ludzkość” Z Androida. „Antropomorfizm bada się od lat 70. XX wieku podczas tworzenia chatbotów”.„, wspomina Giada Pistelli, która jako przykład podaje przypadek Chatbota Elizy.

Ten program sztucznej inteligencji został zaprojektowany przez informatyka Josepha Weizenbauma w latach 60. XX wieku i był wówczas emulowany Psychoterapeuta. „W latach 70. nie zaszło to tak daleko, jeśli chodzi o odpowiedzi, gdy ktoś mógł wyjaśnić Elizie, że ma problemy z matką, a ona po prostu odpowiedziała: „Myślę, że masz problemy ze swoją matką?”„, zauważa Giada Pistelli. „Ale to wystarczyło, aby niektórzy użytkownicy mogli go uczłowieczyć i dodać mu siły”..

W latach sześćdziesiątych informatyk Joseph Weizenbaum zaprojektował program sztucznej inteligencji o nazwie Eliza, który naśladował psychoterapeutę.
Wikipedia

„Bez względu na wszystko sztuczna inteligencja będzie podążać w naszym kierunku w zależności od tego, o co ją poprosimy”.Pamięta badacza i wykładowcę Adriena Gabriela Chivaux. „Stąd należy zawsze zachować ostrożność podczas korzystania z tych narzędzi”..

W kulturze popularnej popularyzuje się pogląd, że wyposażone w inteligencję roboty mogą pewnego dnia zostać pomylone z ludźmi. Manga „Pluton”Japońska książka Naoki Urazawa, wydana w 2000 r. i zaadaptowana na serial Netflix w 2023 r., nie jest wyjątkiem. W tej książce roboty żyją z ludźmi, chodzą do szkoły i wykonują pracę tak samo jak one. Coraz trudniej jest dostrzec różnicę między nimi.

READ  Cena gwałtownie spada, Apple chce się jej pozbyć 🔥

W drugim odcinku robot jest zaskoczony, że inny, bardziej wydajny robot może cieszyć się lodami z taką samą przyjemnością jak człowiek. „Im bardziej udaję, tym bardziej wydaje mi się, że rozumiem”.– wyjaśnia ten ostatni. W tym kontekście badacz Adrien Gabriel Chivo powraca do słynnego testu matematyka Alana Turinga, który miał na celu obserwację zdolności sztucznej inteligencji do naśladowania człowieka. „Turing zastanawiał się, w jakim stopniu maszyna może oszukiwać ludzi na podstawie posiadanych przez nich danych… a było to w roku 1950”. Dokończył w zamyśleniu.