Głodni Wiedzy

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Fałszywe zdjęcie eksplozji Pentagonu staje się popularne

Niewłaściwy obraz mógł zostać przechwycony przy użyciu generatywnego programu AI.

Le Figaro z AFP

opublikowany aktualizować

Ta zawartość jest niedostępna.

Fałszywe zdjęcie przedstawiające eksplozję w Pentagonie na krótko stało się wirusowe na Twitterze. icholakov/stock.adobe.com

Niewłaściwe zdjęcie przedstawiające eksplozję w pięciokątny W poniedziałek zrobiło się wirusowo na Twitterze, powodując spadki na rynkach przez około dziesięć minut i ponownie rozpalając debatę na temat ryzykasztuczna inteligencja (ja l).

Fałszywe zdjęcie, wygląda na zrobione za pomocą oprogramowaniaGeneratywna sztuczna inteligencja (zdolny do tworzenia tekstu i obrazów z prostego zapytania w prostym języku), zmusił Departament Obrony USA do odpowiedzi.

Ta zawartość jest niedostępna.

Ta zawartość jest niedostępna.

Źródło jest nieznane

Możemy potwierdzić, że są to nieprawdziwe informacje i że Pentagon nie został dziś zaatakowanypowiedział rzecznik.

Interweniowali również strażacy w okolicy, w której znajduje się budynek (w Arlington, niedaleko Waszyngtonu), by zasygnalizować na Twitterze, że ani w Pentagonie, ani w pobliżu nie doszło do wybuchu ani wypadku. Wydawało się, że obraz ten spowodował kilkuminutową pauzę na rynkach, a S&P 500 stracił 0,29% od piątku przed wzrostem.

Nastąpił spadek związany z tą błędną informacją, gdy urządzenia ją wykryłyPat O’Hare z Briefing.com zauważył, odnosząc się do oprogramowania do automatycznego handlu zaprogramowanego do reagowania na posty w mediach społecznościowych. „Ale fakt, że pozostał mierzony w odniesieniu do treści tej dezinformacji, sugeruje, że inni również uznali to za mętne.Dodał do Agence France-Presse. Narracja z konspiracyjnego ruchu QAnon była jedną z pierwszych, które przekazały fałszywy obraz, którego źródło jest nieznane.

Przeczytaj także – Mathieu Bouc Cottier: „Elegancka intryga i światowy QAnon”

Incydent ten ma miejsce po tym, jak szeroko opublikowano kilka fałszywych obrazów wyprodukowanych przy użyciu generatywnej sztucznej inteligencji, aby pokazać możliwości tej technologii, takie jak aresztowanie byłego prezydenta USA Donalda Trumpa lub papieża w tunice. Programy takie jak DALL-E 2, Midjourney i Stable Diffusion pozwalają hobbystom tworzyć przekonujące podróbki bez konieczności opanowania oprogramowania do edycji, takiego jak Photoshop.

Ale jeśli generatywna sztuczna inteligencja ułatwia tworzenie fałszywych treści, problem ich rozpowszechniania i rozprzestrzeniania – najniebezpieczniejszy element dezinformacji – spada na platformy, jak regularnie zauważają eksperci. „Użytkownicy używają tych narzędzi do tworzenia treści wydajniej niż wcześniej (…), ale nadal rozpowszechniają się one w sieciach społecznościowychSam Altman, prezes OpenAI (DALL-E, ChatGPT), powiedział podczas przesłuchania w Kongresie w połowie maja.

Ta zawartość jest niedostępna.

READ  Co najmniej 41 osób zginęło w pożarze kościoła koptyjskiego w Kairze, według wstępnego raportu