W programie „Gdzie jest Pan Cogito” na antenie TVP Info i Programu Pierwszego Polskiego Radia red. Małgorzata Raczyńska-Weinsberg rozmawiała o rozwoju sztucznej inteligencji z trzema naukowcami: fizykiem i informatykiem, dr hab. inż. Arkadiuszem Orłowskim z Katedry Sztucznej Inteligencji SGGW w Warszawie; etykiem, ks. dr hab. Andrzejem Kobylińskim z Katedry Etyki UKSW w Warszawie oraz prawnikiem, dr hab. Tomaszem Demendeckim z Katedry Postępowania Cywilnego i Międzynarodowego Prawa Handlowego UMCS w Lublinie.
Red. Raczyńska-Weinsberg rozpoczęła rozmowę od przywołana niedawnych doniesień izraelskiego portalu I24, który powołując się na rozmowę z pułkownikiem Tuckerem Hamiltonem poinformował o niezwykle niepokojącym incydencie, do którego miało dojść w czasie wirtualnych testów wykorzystania sztucznej inteligencji do kierowania dronami. System AI był punktowany za niszczenie zidentyfikowanych zagrożeń. Czasem jednak, mimo zidentyfikowania zagrożenia, operator nie pozwalał zniszczyć celu. Wówczas to, w celu osiągnięcia lepszego wyniku, system miał usiłować zlikwidować operatora. Doniesieniom tym zaprzeczył Departament Sił Powietrznych Stanów Zjednoczonych. Jego rzeczniczka przekazała, że „komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu”.
- „Teoretycznie – należy wierzyć tylko w wiadomości zdementowane. Ale w tym konkretnym przypadku wydaje mi się, że to jest jakiś rodzaj kaczki dziennikarskiej”
- ocenił prof. Arkadiusz Orłowski.
Wskazał, że takie zdarzenie raczej nie mogło mieć miejsca przy obecnym poziomie zaawansowania sztucznej inteligencji wykorzystywanej w dronach.
Informatyk podkreślił, że sam jest entuzjastą osiągnięć w dziedzinie sztucznej inteligencji i zwrócił uwagę, iż wiele związanych z nią obaw wynika z tego, że po prostu boimy się nowości, której nie znamy.
Ks. prof. Andrzej Kobyliński porównał sztuczną inteligencję do energii uzyskanej z rozszczepienia atomu, dzięki której możemy ogrzewać nasze domy, ale też możemy ją wykorzystać do niszczenia miast i państw.
- „Ten wielki potencjał jest także w sztucznej inteligencji. Może ona być wielkim darem Bożym – jak mówi papież Franciszek, ale może też być źródłem wielkich nieszczęść”
- powiedział.
Wskazał na ogromnie ważną rolę etyki, która musi wypracować normy i zasady określające funkcjonowanie sztucznej inteligencji. Podkreślił też, że pytanie o sztuczną inteligencję jest pytaniem o to, kto przejmie władzę nad światem, zarządzając systemami AI.
- „Ten spór o sztuczną inteligencję jest sporem o władzę nad światem. O to, kto będzie zarządzał kulturą, mediami, zasobami wiedzy. Te pytania są absolutnie fundamentalne”
- podkreślił.
Duchowny posłużył się przykładem komunizmu zauważając, że od tego, w jaki sposób twórcy sztucznej inteligencji stworzą algorytm dot. oceny komunizmu, później AI będzie tworzyć kolejne rozprawy na ten temat.
- „Poprzez sztuczną inteligencję tworzymy pewne modele wartościowania, oceny”
- zauważył.
- „Poprzez algorytmy nadajemy sztucznej inteligencji sposób wartościowania”
- dodał.
Filozof wskazał, że sztuczna inteligencja przyniesie ludzkości wiele dobrodziejstw, ale musi być we właściwy sposób kontrolowana, aby nie niosła też nieszczęść. Dlatego mniejsze obawy budzi sztuczna inteligencja rozwijana w państwach demokratycznych, gdzie jej rozwój podlega pewnej kontroli społeczeństwa. Znacznie większe niebezpieczeństwo wiąże się z rozwojem technologii w totalitarnych Chinach, gdzie takiej kontroli nie ma.
Prof. Orłowski zwrócił uwagę, że zagrożenie kryje się w tym, iż „mówimy o inteligencji, która tę wiedzę sama zdobywa. My nie piszemy dla niej algorytmów jak ma traktować komunizm”.
- „Tu jest też pewne zagrożenie. Jeżeli ta sztuczna inteligencja jest trenowana, czy uczona przez Chińczyków, jej pogląd na komunizm może być zupełnie inny niż w przypadku sztucznej inteligencji uczonej przez Amerykanów czy przez nas”
- powiedział uczony.
- „Kluczowym jest zrozumienie tego, że te sieci neuronowe, ta inteligencja na nich oparta sama zdobywa wiedzę. Dlatego kluczowa jest jakość danych, którymi karmimy tę sieć”
- podkreślił.
- „Projektujemy algorytmy, które pozwalają jej tę wiedzę zdobywać. Ale czego ona się nauczy, to już zależy od tego, na jakie dane natrafi”
- dodał.
Na zagrożenie zastępowania relacji ludzko-ludzkich relacjami człowiek - sztuczna inteligencja uwagę zwrócił prof. Tomasz Demendecki oceniając, że rodzi to niebezpieczeństwo „eliminowania się jako gatunku”.
- „Bez relacji na poziomie biologicznym nie jesteśmy w stanie podtrzymywać swojej populacji i tego nie zastąpi sztuczna inteligencja”
- zauważył, odnosząc się do coraz modniejszego np. w Japonii budowania mających imitować związek kobiety z mężczyzną związków człowieka ze sztuczną inteligencją.
Prawnik zwrócił w czasie programu również uwagę na to, że sztuczna inteligencja może w przyszłości – na wzór człowieka – dzielić w sobie dobro i zło.
- „My już tego procesu niestety nie zatrzymamy”
- ocenił.
Program dostępny jest TUTAJ.