Czy AI może myśleć? Filozof z Cambridge mówi: nigdy się nie dowiemy
Agnostycyzm wobec sztucznej świadomości
Dr Tom McClelland z University of Cambridge przedstawił w prestiżowym czasopiśmie Mind & Language tezę, która brzmi jak kapitulacja – możliwe, że nigdy nie określimy, czy AI osiągnęła świadomość. Gdy korporacje inwestują miliardy w Artificial General Intelligence, a rządy rozważają regulacje dotyczące świadomej AI, filozof argumentuje, że jedyną uzasadnioną postawą jest agnostycyzm. Nasza wiedza o świadomości jest zbyt ograniczona, by stworzyć wiarygodny test.
Problem trudniejszy niż myślimy
McClelland wskazuje na fundamentalny problem: nie wiemy, co tłumaczy świadomość u ludzi, więc jak wykryć ją u maszyn? Debata dzieli się na dwa obozy. Zwolennicy funkcjonalizmu przekonują, że jeśli AI odtworzy funkcjonalną architekturę świadomości, będzie świadome nawet na krzemowych chipach. Sceptycy, powołując się na argument „chińskiego pokoju” Johna Searle’a, twierdzą że imitacja to nie posiadanie.
Kluczowe jest rozróżnienie między świadomością a odczuwaniem. Świadomość może oznaczać percepcję i samoświadomość – neutralny stan. Dla etyki liczy się sentience – zdolność do pozytywnych i negatywnych doznań, do cierpienia i radości. „Jeśli przypadkowo stworzymy świadomą AI, powinniśmy uważać. Ale traktowanie tostera jako świadomego, gdy krzywdzimy istoty rzeczywiście świadome, też jest błędem” – zauważa filozof.
Zdrowy rozsądek zawodzi
| Źródło wiedzy o świadomości | Niezawodność w przypadku AI |
|---|---|
| Zdrowy rozsądek | Niewystarczający |
| Badania naukowe | Niewystarczające |
| Filozofia | Niewystarczająca |
McClelland przyznaje, że wierzy w świadomość swojego kota. To jednak nie opiera się na nauce czy filozofii, ale na zdrowym rozsądku – „to oczywiste”. Problem w tym, że zdrowy rozsądek powstał w ewolucji bez sztucznych form życia. Nie możemy mu ufać wobec AI. Ale dane naukowe też nie pomogą. Jak zauważył David Chalmers, świadomość to „hard problem” filozofii – fundamentalne pytanie o naturę rzeczywistości.
Branża tech i etyczne konsekwencje
McClelland ostrzega przed niebezpieczeństwem związanym z niemożnością udowodnienia świadomości. Branża technologiczna może to wykorzystać do głoszenia absurdalnych twierdzeń. „Sposób, w jaki sztuczna świadomość jest promowana, przypomina bardziej branding” – komentuje. Czy możemy pozwolić, by marketing zastąpił filozoficzną rozwagę?
Problem ma też implikacje dla alokacji zasobów. Dowody wskazują, że krewetki mogą odczuwać cierpienie, a mimo to zabijamy pół biliona rocznie. Testowanie świadomości u krewetek jest trudne, ale nic w porównaniu z AI. McClelland otrzymuje listy od ludzi przekonanych, że ich chatboty są świadome. „Jeśli masz emocjonalną więź z czymś w przekonaniu, że jest świadome, a ono nie jest, to może być egzystencjalnie toksyczne” – ostrzega.
Filozof określa się jako „dość twardy” agnostyk. Problem świadomości jest potężny, choć być może nie całkowicie nie do pokonania. Ale na razie jedyną uczciwą odpowiedzią na pytanie „czy AI jest świadoma?” pozostaje: nie wiemy i prawdopodobnie nigdy się nie dowiemy. To może być najbardziej niewygodna prawda ery sztucznej inteligencji.
Źródła:
University of Cambridge
Mind & Language
TechXplore