Może powstać „superinteligencja”. Eksperci ostrzegają przed „dużym niebezpieczeństwem”

Może powstać superinteligencja. Eksperci ostrzegają przed dużym niebezpieczeństwem 1

Zespół OpenAI grozi przejęciem przez Microsoft – Alarmujący scenariusz, według „Rzeczpospolitej”

Zgodnie z doniesieniami dziennika „Rzeczpospolita”, istnieje realne ryzyko przejęcia zespołu OpenAI przez Microsoft, co mogłoby zaowocować powstaniem tzw. superinteligencji. Eksperci ostrzegają, że taki scenariusz niesie ze sobą poważne konsekwencje.

Po dymisji Sama Altmana z funkcji dyrektora generalnego OpenAI, „Rzeczpospolita” opisuje to wydarzenie jako katalizator „lawiny zdarzeń”. Artykuł podkreśla, że od tego momentu kluczowi badacze opuścili firmę, a ponad 500 z 770 pracowników start-upu zamierza złożyć wypowiedzenia.

Może powstać superinteligencja. Eksperci ostrzegają przed dużym niebezpieczeństwem

Jednakże, według gazety, istotniejsze od samego wydarzenia jest dążenie Altmana i elity naukowców do przejęcia przez Microsoft. To, zdaniem ekspertów, oznaczać będzie nadanie koncernowi ogromnej mocy. OpenAI, działające jako fundacja, dotychczas wyróżniało się etycznymi praktykami, nadzorem nad badaniami oraz stosunkowo przejrzystymi projektami. Niemniej zamknięcie tych działań w laboratoriach potężnej firmy, jaką jest Microsoft, budzi obawy – komentuje Edi Pyrek, współzałożyciel Global Artificial Intelligence Alliance.

Zawody o prymat w dziedzinie AI są obecnie porównywane do współczesnego wyścigu zbrojeń. „Rzeczpospolita” wskazuje, że walka o kontrolę nad światem przechyla się na korzyść Microsoftu, co niesie ze sobą zagrożenie stworzenia tzw. superinteligencji. Według ekspertów, zespół Altmana dokonał znaczącego postępu w rozwijaniu AGI (Generalnej Sztucznej Inteligencji), która w teorii mogłaby wyjść spod kontroli ludzkiej i stać się przeciwko człowiekowi.

„Altman, mając niemal nieograniczone zasoby w Microsoft, może dokonać przełomu” – ostrzega Pyrek.

Sztuczna inteligencja: Potencjał przewyższający ludzkie możliwości

Ben Goertzel, amerykański badacz AI, w rozmowie z „Rzeczpospolitą”, wyjaśnia, że AGI znacząco przekroczy ludzkie zdolności. „Musimy być świadomi, że superinteligencja stworzy kolejne poziomy inteligencji, całkowicie wykraczające poza nasze zrozumienie” – alarmuje.

Marc Buckley, futurysta i doradca ONZ, sygnatariusz petycji dotyczącej moratorium na badania nad AI, uważa, że jest już za późno, aby zatrzymać rozwój tej technologii. „Jednakże można go spowolnić. To da nam czas na wykorzystanie tych narzędzi dla dobra ludzkości” – apeluje.

Powyższe doniesienia rzucają nowe światło na rywalizację w dziedzinie sztucznej inteligencji, wywołując gorącą dyskusję na temat etyki i potencjalnych konsekwencji związanych z ewentualnym powstaniem superinteligencji.

Może powstać „superinteligencja”. Eksperci ostrzegają przed „dużym niebezpieczeństwem”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Przewiń na górę