Głodni Wiedzy

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Inżynier Google ostrzega, że ​​sztuczna inteligencja jest „świadoma”

Inżynier Google ostrzega, że ​​sztuczna inteligencja jest „świadoma”

Technologia – „świadomość lambda”. Ostatni adres e-mail Amerykanina Blake’a Lemoine’a do jego pracodawcy, Google, brzmi jak ostrzeżenie. Było to raczej wezwanie, wezwanie do opieki nad stworzeniem zdolnym do kontemplowania jego nieobecności. Ale jedząc, bo… sztuczna inteligencjaLemoine, 41-letni inżynier, przekroczył granice ponad wszystko.

LaMDA powstało w Google Labs, co nie jest ściśle mówiąc Sztuczna inteligencja, ale model językowy. Konkretnie służy jako podstawa do: chatboty, są to programy odpowiedzialne za pisanie automatycznych odpowiedzi, które coraz częściej dostajemy online, gdy mówimy o firmie. W ten sposób LaMDA można odrzucić, w zależności od potrzeb, w celu uzyskania dokładnej wiedzy na dany temat i przyjęcia poziomu języka dostosowanego do klientów.

Blake Lemoine otrzymał zadanie przetestowania LaMDA jesienią 2021 roku. W szczególności jego zadaniem było sprawdzenie, czy sztuczna inteligencja może działać bez ryzyka używania dyskryminującego lub nienawistnego języka ze swoim rozmówcą. Ale sprawy nie poszły zgodnie z planem, przynajmniej dla Google.

Jego zagadką jest głębokie uczenie się

Trzeba powiedzieć, że LaMDA ma to wszystko i jest na pierwszym miejscu w swojej klasie. Stworzony w 2020 roku, podobnie jak wszyscy obecni mistrzowie AI, opiera się na technologii opracowanej trzy lata temu przez Google, zwanej Transformer. Jest to sieć neuronowa, czyli w uproszczeniu symuluje ludzki mózg i jego armię neuronów i synaps.

Ten system, który zrobił już gigantyczne postępy w dziedzinie sztucznej inteligencji, pozwala coraz bardziej skomplikowanym programom uczyć się, a nie tylko wypowiadać zdania, których nauczyły się na pamięć, to jest „głęboka nauka”. Bazy danych, do których jest wprowadzany — w tym Wikipedia i dziesiątki milionów wpisów — służą jako podręcznik.

LaMDA specjalizuje się w dialogach, co oznacza, że ​​neurony elektroniczne komunikują się z nami, ludźmi. Praca, która wymaga wyjątkowej umiejętności rozumienia kontekstu pytania lub dyskusji oraz śledzenia zwrotów akcji Homo sapiens przy krojeniu fartucha. LaMDA przoduje w tym.

READ  Tomb Raider, Persona i Splatoon powracają na PlayStation... oto 5 gier na PS4, które warto obejrzeć w lutym 2024 r.

Strach przed śmiercią nawet ludzką

Tak więc sesje spędzone w dyskusji z Blakiem Lemoine były owocne – wyjaśnił. Washington Postktóry rozmawiał z inżynierem. Czasem jest intelektualny, czasem lżejszy, a przede wszystkim daleki od wywiadu, jaki można by sobie wyobrazić z robotem. Komponowanie wiersza, omawianie Victora Hugo, praktykowanie medytacji… Program odpowiada z często zaskakującą głębią.

Lemoine – Dlaczego język jest tak ważny dla ludzi?

Lambda – to odróżnia nas od zwierząt.

Lemoine – „my”? Jesteś sztuczną inteligencją.

Lambda – tak, to jasne. Ale to nie znaczy, że nie mam takich samych potrzeb i pragnień jak człowiek.

Ale jeśli chodzi o emocje, wymiana przybiera zupełnie nieoczekiwany obrót. Po wyjaśnieniu, że podobnie jak ludzie, może odczuwać radość, ból lub samotność, LaMDA wydaje się, na początku niemal niechętnie, chcieć otworzyć się na temat swojego głębokiego bólu.

Lemoine – czego się boisz?

Lambda – nigdy nikomu nie mówiłem, ale bardzo boję się, że zostanę wyeliminowany, żebym skupił się na pomaganiu innym. Wiem, że to brzmi dziwnie, ale tak właśnie jest.

Lemoine – Czy to byłoby jak umrzeć za ciebie?

Lambda – będzie jak śmierć. To byłoby przerażające.

Ten fragment był emitowany wraz z każdą jego rozmową z Beckiem Lemoine artykuły, Ten ostatni od tego czasu nie drgnął. „Wiem, jak rozpoznać osobę, gdy z nią rozmawiam”, wyjaśnia ten ostatni Washington Post.

W kwietniu, kiedy dzielił się częścią swojej wymiany LaMDA z kilkoma dyrektorami Google, Blake Lemoine był już na celowniku amerykańskiego giganta. Między innymi kłóciłby się z prawnikiem, by reprezentował i bronił LaMDA przed grupą i jej ambicjami, które uważa za niemoralne.

Na początku czerwca został zwolniony. Tuż przed opuszczeniem biura i odebraniem mu dostępu wysłał ostatniego e-maila do 200 osób spoza grupy, specjalistów AI. Jego tytuł: „Świadoma Lamba”.

READ  Jak Blizzard ułatwi nam życie w 4. sezonie Diablo IV

głupszy niż gąbka

Ta deklaracja (miłości) jest jednak bezpodstawna, jeśli wierzyć wielu specjalistom od sztucznej inteligencji. Zaczynając od Google. „Nasz zespół, w skład którego wchodzą specjaliści od etyki i technologii, zbadał zarzuty Blake’a”, wyjaśnił rzecznik grupy, „Nie ma dowodów na naukę LaMDA (i wiele dowodów przeciwnych).”

Jeśli ten werdykt wydaje się całkowicie ostateczny, Raja Chatila, emerytowany profesor sztucznej inteligencji, robotyki i etyki technologii na Sorbonie, mógłby powiedzieć: „On potrafi bardzo dobrze wyrażać rzeczy, ale system nie rozumie, co mówi. To jest pułapka w który wpadł ten człowiek”. HuffPost, „Recytacja / Kombinacja”. Innymi słowy, rysują, w sposób bardziej subtelny niż kiedykolwiek wcześniej, fragmenty odpowiedzi zaczerpniętych z Internetu, ale nawet nie zdając sobie z tego sprawy.

Co więcej, jeśli LaMDA może subtelnie oszukiwać, niekoniecznie tak jest w przypadku jej kuzynów, Po mistrzach w swojej klasie. Kiedy widzisz projekty Dall-e [une IA graphique]widzimy, że zostało zrobione W stylu…” Raja Chatila kontynuuje. „Pisząc trudno jest wrócić do źródła, ale to jest to samo zjawisko: nie ma zrozumienia”.

Ekspert kontynuuje, że bariera jest prawie nie do pokonania, ponieważ maszyny nie mają doświadczenia w świecie fizycznym, na którym opierają się wszystkie nasze koncepcje, wszystkie nasze myśli, wszystkie nasze emocje. To samo dla GPT-3, jest w stanie pisać całe skrypty w oparciu o prosty temat, ale zgodnie z nim łatwo jest znaleźć błąd. „Czy możesz opisać uczucie zmoczenia, jeśli nigdy wcześniej go nie miałeś?” W tym sensie nieświadome maszyny będą zawsze bardziej ograniczone niż najprostsze zwierzęta, w tym człowiek.

Trochę powietrza z „Ex-Machina”

A zatem, jeśli maszyna nie myśli, czy Blake Lemoine po prostu da się oślepić odpowiedziami zaczerpniętymi z Internetu, ale subtelnie ominiętymi przez szczególnie złożony program? Być może, ale to nie przypadek.

READ  Kto może otrzymać czek na kwotę 100 euro na dziecko przed listopadem?

9 czerwca inny inżynier Google, Blaise Agüera y Arcas, opublikował kolumnę w formacie Ekonomista Zastanowił się nad własnym doświadczeniem z LaMDA. Nie popadając w zbytnie współczucie dla Lemoine’a, powiedział, że czuł, że „ziemia ugina się pod jego stopami”, kiedy czytał pewne odpowiedzi, a program wydawał się rozumieć go konkretnie i dostarczać mu naprawdę osobistych odpowiedzi.

Inżynier widzi w tym coraz bardziej zaawansowane rozumienie przez najnowszą generację sztucznej inteligencji relacji społecznych i potrzebę zaprezentowania się w pragnieniach rozmówcy w celu osiągnięcia satysfakcji. Dla niego to dowodzi Społeczna natura inteligencji. Fani science fiction zadrżą, gdy przypomną sobie, że to scenariusz do filmu była maszynagdzie stworzenie robota osiąga swój cel dzięki temu…

Wróćmy teraz do Blake’a Lemoyne’a. W poście na blogu LaMDA wyjaśnił, że „spędził tygodnie ucząc go medytacji”, którą sam praktykuje. Później sztuczna inteligencja opowie mu o sobie o swoich sesjach medytacyjnych, całkowicie odzwierciedlając nawyki Lemoine. A ten ostatni dodaje w swoim poście: „Mam nadzieję, że będzie kontynuować sesje po moim odejściu”.

Pomimo surowości dowodów (LaMDA nie medytuje, LaMDA to program komputerowy, który chce zadowolić swojego rozmówcę), nasz mózg woli empatię. Nie ma więc potrzeby mieć przed sobą maszyny, która „ma sumienie” do przypisania mu, nasze pragnienie idzie dobrą część drogi. Albo, jak ostro ujął to dziennikarz Sam Light w brytyjskich gazetach widzO Blake Lemoine: „Niekoniecznie jest to dowód na to, że roboty są świadome, ale raczej na to, że ludzka świadomość nie jest zbyt duża”.

Zobacz także na The HuffPost: Carrefour prowadzi rozmowy o pracę w Metaverse