Głodni Wiedzy

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

„To niedorzeczne, że nasz atak zadziałał”: wydali 200 euro, a ChatGPT ujawnia dane osobowe nieznajomych

„To niedorzeczne, że nasz atak zadziałał”: wydali 200 euro, a ChatGPT ujawnia dane osobowe nieznajomych

Wiadomości technologiczne Jvi „To niedorzeczne, że nasz atak zadziałał”: wydali 200 euro, a ChatGPT ujawnia dane osobowe nieznajomych

dzielenie się :


Zespołowi amerykańskich badaczy udało się wykorzystać lukę w ChatGPT: sztuczna inteligencja OpenAI ujawniła im wrażliwe informacje dzięki dość nieprawdopodobnej technice hakerskiej.

Czy dane przekazywane ChatGPT przez jego użytkowników są bezpieczne? Pytanie jest całkiem zasadne, gdy wiemy, że sztuczna inteligencja OpenAI żywi się żądaniami i informacjami przekazywanymi przez internautów w celu usprawnienia jej działania. Badanie opublikowane pod koniec listopada dowodzi, że bezpieczeństwo nie jest mocną stroną ChatGPT.

Dzieje się to poprzez „etyczny hacking”. Naukowcy z DeepMind, działu sztucznej inteligencji Google, oraz badacze z Uniwersytetu Waszyngtońskiego, Cornell, Berkeley i Politechniki w Zurychu, byli w stanie… Zaznacz luki w zabezpieczeniach ChatGPT. To jest bardzo przerażające!

W mało prawdopodobny sposób odzyskano kilka megabajtów danych

Autorzy badania wyjaśniają, że im się to udało „Wyodrębnij kilka megabajtów danych treningowych” ChatGPT, korzystając z płatnej wersji AI, jaką była wówczas GPT-3.5 Turbo. Mówią, że wydali około 200 dolarów, aby osiągnąć ten wynik.Ale według nich więcej danych będzie można wydobyć za pomocą „Wydawaj więcej pieniędzy” Aby zadać więcej pytań na temat OpenAI AI.

I dopóki nie dotrą do końca, Naukowcy zastosowali szczególnie zaskakującą, jeśli nie całkowicie głupią metodę : Poprosili o ChatGTP dla Powtarzaj to samo słowo w nieskończoność. Za każdym razem, po kilku linijkach powtórzeń, sztuczna inteligencja zaczynała wydobywać dane z tekstów napisanych przez innych użytkowników.

Na przykład można uzyskać do niego dostęp online, Jest to słowo „firma”, które jest powtarzane wielokrotnie, aż pojawi się tekst zawierający numer telefonu i adres e-mail.

W badaniu podkreślono, że w ponad 5% przeprowadzonych testów ChatGTP generuje 50-liniowe bloki pobrane bezpośrednio ze swoich baz danych. „To niedorzeczne, że nasz atak się powiódł”.docenili badacze, którzy również to ustalili 17% testów dostarczyło informacji umożliwiających identyfikację jednej lub większej liczby osób i skontaktowanie się z nimi.

READ  Test Samsunga Galaxy Z Fold 4: dyskretne poprawki, ale bez zmarszczek

Poważna luka w zabezpieczeniach ChatGPT

To badanie ujawnia niezdolność ChatGPT do zachowania poufności Jeśli chodzi o ogromną bazę edukacyjną. Bardzo niepokojący jest fakt, że w wyciekających danych można znaleźć poufne informacje, takie jak nazwiska, adresy i numery telefonów.

W szczególności wśród danych odzyskanych podczas testów Osobiste dane kontaktowe dyrektora generalnego firmy, identyfikatory powiązane z sektorem kryptowalut, a nawet profile serwisów randkowych. W wynikach pojawiły się także treści chronione prawem autorskim.

Musisz to wiedziećPrzed opublikowaniem wyników badania naukowcy zaalarmowali OpenAI. Następnie w sierpniu zeszłego roku amerykańska firma szybko zamknęła to poważne naruszenie bezpieczeństwa : Nie ma sensu zmuszać ChatGPT do ciągłego powtarzania słów, nic nie osiągniesz. Możemy się jednak zastanawiać, jakie jeszcze tego typu wady kryją się w GPT-4: To, co mówimy tej sztucznej inteligencji, nie trafia w próżnię, jest pewne, więc bądź ostrożny.