Wyłączcie sztuczną inteligencję! - apeluje Eliezer Yudkowsky, szef badań w Machine Intelligence Research Institute, organizacji non-profit specjalizującej się w sztucznej inteligencji (SI), której celem jest uświadamianie potencjalnych zagrożeń i interesów związanych z SI w przyszłości.
W artykule pt. "Pausing AI Developments Isn't Enough. We Need to Shut it All Down" opublikowanym w Time Magazine, amerykański badacz twierdzi, że otwarte listy i apele od badaczy i ekspertów sztucznej inteligencji (SI) nie wystarczą, aby zapobiec szkodom wynikającym z rozwoju i stosowania SI.
”Australopithecus próbujący walczyć z Homo sapiens"
Aby zobrazować sytuację, w jakiej znalazłaby się ludzkość, naukowiec używa kilku metafor. Dwie z nich to:
- ”Australopithecus próbujący walczyć z Homo sapiens"
- "Wiek 11ᵉ próbujący walczyć z wiekiem 21ᵉ.
Dla amerykańskiego badacza "całkiem możliwe jest, że laboratoria badawcze przekroczą linie krytyczne, nie zdając sobie z tego sprawy".
Według niego taką "linię krytyczną" reprezentuje twórca SI o nadludzkiej inteligencji, która w obecnych warunkach doprowadziłaby do końca ludzkości.
SI może stworzyć sztuczną formą życia
Dla Yudkowsky'ego jest całkowicie możliwe przetrwanie poprzez stworzenie czegoś znacznie bardziej inteligentnego od nas, ale wymaga to "precyzji, przygotowania i nowej wiedzy naukowej", której obecnie nie posiadamy.
"Bez tej precyzji i przygotowania najbardziej prawdopodobnym rezultatem jest SI, która nie robi tego, co chcemy i nie dba o nas ani o czujące życie w ogóle".
Yudkowsky zwraca uwagę, że obecnie można wysyłać mailem ciągi DNA do laboratoriów, które będą produkować białka na żądanie, umożliwiając SI stworzenie sztucznej formy życia.
"Jeśli ktoś zbuduje zbyt potężną SI, w obecnych warunkach spodziewam się, że każdy członek gatunku ludzkiego i całe życie biologiczne na Ziemi umrze wkrótce potem”.
Moratorium na sztuczną inteligencję musi być bezterminowe i globalne
Sam szef OpenAI powiedział, że jest "trochę przerażony", przypominając jednocześnie, że to "narzędzie pozostaje pod kontrolą człowieka".
Dla Yudkowsky'ego rozwiązanie problemu bezpieczeństwa nadludzkiej inteligencji zajęłoby co najmniej 30 lat.
Yudkowsky uważa, że moratorium na sztuczną inteligencję musi być bezterminowe i globalne, bez żadnych wyjątków, także dla rządów czy wojska.
"Nie jesteśmy na właściwej drodze, aby być przygotowanym w rozsądnym czasie. Nie ma żadnego planu. Postępy w możliwościach AI znacznie wyprzedzają postępy w dopasowaniu AI czy nawet postępy w zrozumieniu tego, co dzieje się wewnątrz tych systemów. Jeśli to zrobimy, wszyscy zginiemy. Wyłączcie to."
Komentarze