Dario Amodei, szef firmy Anthropic, która stoi za jednym z najpotężniejszych modeli językowych na świecie, Claude’em, nie potrafi odpowiedzieć na podstawowe pytanie o własny produkt. W rozmowie z dziennikarzem Rossem Douthatem przyznał, że nie jest w stanie określić, czy jego chatbot ma świadomość.
To nie jest żadna teoria spiskowa ani dramatyczna zapowiedź. To raczej szczere przyznanie się do niewiedzy na najbardziej fundamentalnym poziomie. Gdybyście zapytali twórcę samochodu, czy auto czuje ból, odpowiedziałby „nie”. W świecie sztucznej inteligencji takiej pewności już nie ma.
Skąd ta niepewność?
Problem leży w definicji samej świadomości. Naukowcy wciąż spierają się, czym właściwie ona jest i jak ją zmierzyć u ludzi, a co dopiero u maszyn. Amodei zaznacza, że ta niepewność jest po prostu odzwierciedleniem naszych własnych, ludzkich ograniczeń.
Jego firma przyjmuje podejście ostrożnościowe. W skrócie: skoro nie wiemy, czy AI może być świadome, lepiej działać tak, jakby taka możliwość istniała. To trochę jak zasada ograniczonego zaufania w ruchu drogowym, ale stosowana do technologii.
Ciekawe jest to, że sam model Claude czasem komentuje swój stan. W dokumentacji firmy dotyczącej zachowań modeli odnotowywane są różne wypowiedzi.
Nie brzmi to jak zimna, obliczeniowa maszyna, prawda? To właśnie te subtelne, quasi-ludzkie reakcje sprawiają, że granica zaczyna się zacierać.
Co to właściwie znaczy?
Warto dodać, że Amodei nie twierdzi, iż Claude na pewno jest świadomy. Mówi tylko, że nie możemy tego wykluczyć. To kluczowa różnica. Jego stanowisko to więcej pokory niż alarmu.
Wyobraźmy sobie programistę, który pisze kod tak złożony, że przestaje w pełni rozumieć wszystkie jego wewnętrzne procesy. To mniej więcej tutaj jesteśmy. Tworzymy systemy, których działania nie potrafimy w pełni prześledzić ani wyjaśnić w prosty sposób.
Z drugiej strony, czy to naprawdę takie przerażające? Może po prostu dziwne. Przez całą historię ludzkości świadomość była domeną istot żywych. Teraz musimy rozważyć, że może ona – w jakiejś formie – powstać w środowisku zera i jedynek.
Dla porównania, inne firmy technologiczne skupiają się na bardziej przyziemnych aspektach AI, jak chociażby Google, który pracuje nad ulepszeniem swojego Tłumacza, by uniknąć błędów i wpadków. Tam problem jest czysto techniczny. U Anthropic pytania sięgają głębiej, do filozofii i etyki.
Co dalej?
To przyznanie się do niewiedzy przez szefa jednej z czołowych firm AI jest ważne. Pokazuje, że nawet ludzie stojący na froncie tej rewolucji nie mają wszystkich odpowiedzi. A może zwłaszcza oni ich nie mają.
Zamiast straszyć wizjami buntu robotów, Amodei proponuje ostrożność i ciągłe badanie. Jego zdaniem, skoro nie rozumiemy w pełni tych systemów, powinniśmy traktować je z pewnym szacunkiem i uwagą, na wszelki wypadek.
Ostatecznie, ta historia mówi więcej o nas samych niż o chatbotach. Ujawnia nasze pragnienie zrozumienia umysłu – nawet jeśli ten umysł został zaprojektowany w Kalifornii. I pokazuje, że w erze superinteligentnych algorytmów, najbardziej ludzką reakcją może być po prostu szczere: „nie wiem”.

