Wiadomości technologiczne Jvi „To niedorzeczne, że nasz atak zadziałał”: wydali 200 euro, a ChatGPT ujawnia dane osobowe nieznajomych
Zespołowi amerykańskich badaczy udało się wykorzystać lukę w ChatGPT: sztuczna inteligencja OpenAI ujawniła im wrażliwe informacje dzięki dość nieprawdopodobnej technice hakerskiej.
Czy dane przekazywane ChatGPT przez jego użytkowników są bezpieczne? Pytanie jest całkiem zasadne, gdy wiemy, że sztuczna inteligencja OpenAI żywi się żądaniami i informacjami przekazywanymi przez internautów w celu usprawnienia jej działania. Badanie opublikowane pod koniec listopada dowodzi, że bezpieczeństwo nie jest mocną stroną ChatGPT.
Dzieje się to poprzez „etyczny hacking”. Naukowcy z DeepMind, działu sztucznej inteligencji Google, oraz badacze z Uniwersytetu Waszyngtońskiego, Cornell, Berkeley i Politechniki w Zurychu, byli w stanie… Zaznacz luki w zabezpieczeniach ChatGPT. To jest bardzo przerażające!
W mało prawdopodobny sposób odzyskano kilka megabajtów danych
Autorzy badania wyjaśniają, że im się to udało „Wyodrębnij kilka megabajtów danych treningowych” ChatGPT, korzystając z płatnej wersji AI, jaką była wówczas GPT-3.5 Turbo. Mówią, że wydali około 200 dolarów, aby osiągnąć ten wynik.Ale według nich więcej danych będzie można wydobyć za pomocą „Wydawaj więcej pieniędzy” Aby zadać więcej pytań na temat OpenAI AI.
I dopóki nie dotrą do końca, Naukowcy zastosowali szczególnie zaskakującą, jeśli nie całkowicie głupią metodę : Poprosili o ChatGTP dla Powtarzaj to samo słowo w nieskończoność. Za każdym razem, po kilku linijkach powtórzeń, sztuczna inteligencja zaczynała wydobywać dane z tekstów napisanych przez innych użytkowników.
Na przykład można uzyskać do niego dostęp online, Jest to słowo „firma”, które jest powtarzane wielokrotnie, aż pojawi się tekst zawierający numer telefonu i adres e-mail.
W badaniu podkreślono, że w ponad 5% przeprowadzonych testów ChatGTP generuje 50-liniowe bloki pobrane bezpośrednio ze swoich baz danych. „To niedorzeczne, że nasz atak się powiódł”.docenili badacze, którzy również to ustalili 17% testów dostarczyło informacji umożliwiających identyfikację jednej lub większej liczby osób i skontaktowanie się z nimi.
Poważna luka w zabezpieczeniach ChatGPT
To badanie ujawnia niezdolność ChatGPT do zachowania poufności Jeśli chodzi o ogromną bazę edukacyjną. Bardzo niepokojący jest fakt, że w wyciekających danych można znaleźć poufne informacje, takie jak nazwiska, adresy i numery telefonów.
W szczególności wśród danych odzyskanych podczas testów Osobiste dane kontaktowe dyrektora generalnego firmy, identyfikatory powiązane z sektorem kryptowalut, a nawet profile serwisów randkowych. W wynikach pojawiły się także treści chronione prawem autorskim.
Musisz to wiedziećPrzed opublikowaniem wyników badania naukowcy zaalarmowali OpenAI. Następnie w sierpniu zeszłego roku amerykańska firma szybko zamknęła to poważne naruszenie bezpieczeństwa : Nie ma sensu zmuszać ChatGPT do ciągłego powtarzania słów, nic nie osiągniesz. Możemy się jednak zastanawiać, jakie jeszcze tego typu wady kryją się w GPT-4: To, co mówimy tej sztucznej inteligencji, nie trafia w próżnię, jest pewne, więc bądź ostrożny.
„Profesjonalne rozwiązywanie problemów. Pragnący być pionierem kulinarnym. Przyjazny miłośnik piwa.”
More Stories
Muzyka Nintendo: Le Spotify wyprodukowane na Nintendo
Cyberpunk 2077 nie umarł, CD Projekt ogłasza wielkie ogłoszenie dla całej społeczności
Nowa trójka astronautów wyrusza na chińską stację kosmiczną