Głodni Wiedzy

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Rozwiąż zespół odpowiedzialny za bezpieczeństwo potencjalnej super-AI

Rozwiąż zespół odpowiedzialny za bezpieczeństwo potencjalnej super-AI

Po odejściu menadżerów zespół OpenAI odpowiedzialny za bezpieczeństwo potencjalnej sztucznej superinteligencji (AI) został rozwiązany, a jego członkowie włączeni do innych grup badawczych w firmie. OpenAI potwierdziło tę informację w piątek, 17 maja Agence France-Presse, wyjaśniając, że zmiana struktury rozpoczęła się kilka tygodni temu. Twórca ChatGPT zapewnia, że ​​badacze odpowiedzialni za bezpieczeństwo modeli AI będą mogli współpracować z inżynierami opracowującymi te modele.

Jednak dwóch poprzednich menedżerów zespołu właśnie opuściło firmę gwiazdy Doliny Krzemowej. Jan Lake wyjaśnił w piątek X, że składa rezygnację ze stanowiska w związku z zasadniczymi nieporozumieniami z zarządem co do priorytetów firmy: innowacyjności czy bezpieczeństwa. „Dotarliśmy do punktu krytycznego”Zauważył inżynier, który stał na czele zespołu odpowiedzialnego za „hiper-alignment”, czyli zadbanie o to, aby przyszła „ogólna” sztuczna inteligencja, tak inteligentna jak człowiek, była zgodna z naszymi wartościami.

– powiedział Sam Altman, współzałożyciel i prezes firmy z siedzibą w San Francisco (Kalifornia). „To bardzo smutny widok [Jan Leike] Wyjechać „. „On ma rację, wciąż mamy wiele do zrobienia [pour la recherche sur l’alignement et la sécurité]Jesteśmy zdeterminowani, aby to zrobić.”Dodał, obiecując wkrótce dłuższą wiadomość.

Przeczytaj także historię: Materiał jest zastrzeżony dla naszych subskrybentów OpenAI: Źródła sprawy Sama Altmana

Na czele zespołu „superalignment” stał także Ilya Sutskever, współzałożyciel OpenAI, który we wtorek ogłosił swoje odejście. Dziesiątego, powiedział sobie „Jestem przekonany, że OpenAI zbuduje bezpieczną i użyteczną „ogólną” sztuczną inteligencję.”. Jako były główny naukowiec w firmie był członkiem zarządu, który głosował za zwolnieniem Sama Altmana w listopadzie 2023 r., zanim zmienił kurs.

„Działanie z grawitacją”

Dzięki ChatGPT OpenAI zapoczątkowało rewolucję generatywną AI (tworzenie treści na podstawie prostego żądania w języku potocznym), która ekscytuje Dolinę Krzemową, ale także niepokoi wielu obserwatorów i organów regulacyjnych, od Kalifornii po Waszyngton i Brukselę. Zwłaszcza, gdy Sam Altman mówi o stworzeniu „ogólnej” sztucznej inteligencji, czyli o zdolnościach poznawczych porównywalnych z ludzkimi.

13 maja OpenAI wprowadziło nową wersję ChatGPT, która może teraz prowadzić płynne, werbalne rozmowy z użytkownikami, co stanowi kolejny krok w kierunku bardziej osobistych i wydajnych asystentów AI.

Przeczytaj także | Materiał jest zastrzeżony dla naszych subskrybentów OpenAI: „Ambicja faraona Sama Altmana”

Jan Lek wezwał w piątek wszystkich pracowników OpenAI do… „Działanie z grawitacją” Co uzasadnia to, co budują. „Uważam, że powinniśmy poświęcić więcej czasu na przygotowanie się do stosowania modeli nowej generacji w odniesieniu do bezpieczeństwa, kontroli, bezpieczeństwa, cyberbezpieczeństwa, zgodności z naszymi wartościami, prywatności danych, wpływu społecznego i innych tematów”.Mężczyzna.

Świat z Agence France-Presse

Wykorzystaj tę zawartość ponownie