Niewłaściwy obraz mógł zostać przechwycony przy użyciu generatywnego programu AI.
Le Figaro z AFP
opublikowany aktualizować
Niewłaściwe zdjęcie przedstawiające eksplozję w pięciokątny W poniedziałek zrobiło się wirusowo na Twitterze, powodując spadki na rynkach przez około dziesięć minut i ponownie rozpalając debatę na temat ryzykasztuczna inteligencja (ja l).
Fałszywe zdjęcie, wygląda na zrobione za pomocą oprogramowaniaGeneratywna sztuczna inteligencja (zdolny do tworzenia tekstu i obrazów z prostego zapytania w prostym języku), zmusił Departament Obrony USA do odpowiedzi.
Ta zawartość jest niedostępna.
Ta zawartość jest niedostępna.
Źródło jest nieznane
„Możemy potwierdzić, że są to nieprawdziwe informacje i że Pentagon nie został dziś zaatakowanypowiedział rzecznik.
Interweniowali również strażacy w okolicy, w której znajduje się budynek (w Arlington, niedaleko Waszyngtonu), by zasygnalizować na Twitterze, że ani w Pentagonie, ani w pobliżu nie doszło do wybuchu ani wypadku. Wydawało się, że obraz ten spowodował kilkuminutową pauzę na rynkach, a S&P 500 stracił 0,29% od piątku przed wzrostem.
„Nastąpił spadek związany z tą błędną informacją, gdy urządzenia ją wykryłyPat O’Hare z Briefing.com zauważył, odnosząc się do oprogramowania do automatycznego handlu zaprogramowanego do reagowania na posty w mediach społecznościowych. „Ale fakt, że pozostał mierzony w odniesieniu do treści tej dezinformacji, sugeruje, że inni również uznali to za mętne.Dodał do Agence France-Presse. Narracja z konspiracyjnego ruchu QAnon była jedną z pierwszych, które przekazały fałszywy obraz, którego źródło jest nieznane.
Przeczytaj także – Mathieu Bouc Cottier: „Elegancka intryga i światowy QAnon”
Incydent ten ma miejsce po tym, jak szeroko opublikowano kilka fałszywych obrazów wyprodukowanych przy użyciu generatywnej sztucznej inteligencji, aby pokazać możliwości tej technologii, takie jak aresztowanie byłego prezydenta USA Donalda Trumpa lub papieża w tunice. Programy takie jak DALL-E 2, Midjourney i Stable Diffusion pozwalają hobbystom tworzyć przekonujące podróbki bez konieczności opanowania oprogramowania do edycji, takiego jak Photoshop.
Ale jeśli generatywna sztuczna inteligencja ułatwia tworzenie fałszywych treści, problem ich rozpowszechniania i rozprzestrzeniania – najniebezpieczniejszy element dezinformacji – spada na platformy, jak regularnie zauważają eksperci. „Użytkownicy używają tych narzędzi do tworzenia treści wydajniej niż wcześniej (…), ale nadal rozpowszechniają się one w sieciach społecznościowychSam Altman, prezes OpenAI (DALL-E, ChatGPT), powiedział podczas przesłuchania w Kongresie w połowie maja.
Ta zawartość jest niedostępna.
„Bacon ninja. Adwokat podróży. Pisarz. Nieuleczalny ekspert w dziedzinie popkultury. Zły maniak zombie. Ekspert od kawy przez całe życie. Specjalista od alkoholu.”
More Stories
Dlaczego zaangażowanie Korei Północnej budzi strach przed eskalacją w stosunkach z Koreą Południową
Stany Zjednoczone i Korea Południowa żądają od Pjongjangu wycofania swoich sił z Rosji
Rząd ogłasza trzydniową żałobę narodową, a liczba ofiar śmiertelnych sięga 72 ofiar