Głodni Wiedzy

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

OpenAI obawia się, że jego użytkownicy tworzą emocjonalne relacje ze swoją sztuczną inteligencją

OpenAI obawia się, że jego użytkownicy tworzą emocjonalne relacje ze swoją sztuczną inteligencją

Firma, która uruchomiła ChatGPT ze sztuczną inteligencją (AI), obawiała się, że realistyczny głos w jej oprogramowaniu może skłonić użytkowników do tworzenia z nim połączeń kosztem interakcji międzyludzkich.

Czy inżynierowie OpenAI poczują się przytłoczeni swoimi innowacjami? W dokumencie firma, która uruchomiła generatywną sztuczną inteligencję (AI) ChatGPT, wyraziła obawę, że realistyczny głos w jej oprogramowaniu może skłonić użytkowników do tworzenia z nim połączeń kosztem interakcji międzyludzkich. Do’„Antropomorfizm polega na przypisywaniu ludzkich postaw lub cech czemuś nieludzkiemu, na przykład modelowi sztucznej inteligencji”.Spółka potwierdziła to w opublikowanym w czwartek raporcie. „Ryzyko może wzrosnąć ze względu na funkcje audio GPT-4o, które ułatwiają interakcje na poziomie ludzkim”.Raport wskazuje.

Dokument został opublikowany dzień przed premierą nowej wersji ChatGPT, GPT-4o, która uwzględnia zdolność oprogramowania do odpowiadania głosowego i umożliwiającego prowadzenie rozmowy. Jednak prowadzenie takiej samej rozmowy z sztuczną inteligencją, jak z człowiekiem, może wywołać chaos „Niewłaściwie ulokowane zaufanie” w programie, co można ulepszyć dodanym do niego dźwiękiem. OpenAI konkretnie potwierdza, że ​​był w stanie zaobserwować wymiany zdań między testerami nowej wersji z AI, które zdawały się świadczyć o powstaniu więzi emocjonalnej, np. wyrażaniu żalu, że to był ich ostatni wspólny dzień.

„Przypadki te z pewnością wydają się nieistotne, ale podkreślają potrzebę dalszych badań nad tym, jak te skutki pojawiają się w dłuższej perspektywie”.Raport kończy się. OpenAI przewiduje, że nawiązanie jakiejś formy relacji społecznej ze sztuczną inteligencją może również zachęcić użytkowników do ograniczenia chęci utrzymywania relacji z ludźmi. „Długotrwałe interakcje z modelem mogą mieć wpływ na normy społeczne. Na przykład nasze modele zawsze okazują szacunek i pozwalają użytkownikom przerwać im w dowolnym momencie, co może wykraczać poza normy interakcji społecznych, mimo że jest normalne w przypadku sztucznej inteligencji. ”Szczegóły raportu.

READ  Księżyc nowym placem zabaw dla Rosji i Chin?

Ryzyko polegania na technologii

Zdolność sztucznej inteligencji do zapamiętywania szczegółów rozmów i wykonywania przydzielonych zadań może również powodować, że użytkownicy będą zbytnio polegać na technologii. „Te nowe obawy podzielane przez OpenAI dotyczące ryzyka potencjalnego polegania na dźwięku ChatGPT podkreślają zakres pojawiającego się pytania: czy powinniśmy poświęcić czas i spróbować zrozumieć, w jaki sposób technologia wpływa na interakcje i relacje międzyludzkie?”powiedział Alon Yamin, współzałożyciel i dyrektor generalny Copyleaks, platformy do wykrywania plagiatów opartej na sztucznej inteligencji.

„Sztuczna inteligencja to technologia uzupełniająca, zaprojektowana, aby pomóc nam uprościć naszą pracę i codzienne życie; nie powinna zastępować prawdziwych relacji międzyludzkich”.Dodał. OpenAI potwierdziło, że będzie kontynuować badania nad tym, w jaki sposób funkcjonalność głosowa sztucznej inteligencji może przywiązać użytkowników do niej emocjonalnie. Testerom udało się także nakłonić go do powtarzania fałszywych informacji czy tworzenia teorii spiskowych, budząc obawy co do potencjalnych zagrożeń, jakie niesie ze sobą model AI.

Funkcja głosowa Chat-GPT wywołała już wiele sprzeciwów i zmusiła OpenAI do przeproszenia aktorki Scarlett Johansson w czerwcu zeszłego roku za użycie głosu zbyt blisko jej własnego, co wywołało debatę na temat zagrożeń związanych z transkrypcją głosów przy użyciu tej technologii. Choć firma zaprzeczyła używaniu głosu Scarlett Johansson, jej prezes Sam Altman jednym słowem podkreślił funkcję głosową w mediach społecznościowych: „Ha”W nawiązaniu do filmu, w którym aktorka wciela się w sztuczną inteligencję, nie pomogło to przekonać zwolenników.

Film, który ukazał się w 2013 roku, opowiada historię mężczyzny (w tej roli aktor Joaquin Phoenix) zakochującego się w swojej sztucznej inteligencji. „Samanta”W którym Scarlett Johansson zapewniła swój głos.