W programie „Gdzie jest Pan Cogito” na antenie TVP Info i Programu Pierwszego Polskiego Radia red. Małgorzata Raczyńska-Weinsberg rozmawiała o rozwoju sztucznej inteligencji z trzema naukowcami: fizykiem i informatykiem, dr hab. inż. Arkadiuszem Orłowskim z Katedry Sztucznej Inteligencji SGGW w Warszawie; etykiem, ks. dr hab. Andrzejem Kobylińskim z Katedry Etyki UKSW w Warszawie oraz prawnikiem, dr hab. Tomaszem Demendeckim z Katedry Postępowania Cywilnego i Międzynarodowego Prawa Handlowego UMCS w Lublinie.

Red. Raczyńska-Weinsberg rozpoczęła rozmowę od przywołana niedawnych doniesień izraelskiego portalu I24, który powołując się na rozmowę z pułkownikiem Tuckerem Hamiltonem poinformował o niezwykle niepokojącym incydencie, do którego miało dojść w czasie wirtualnych testów wykorzystania sztucznej inteligencji do kierowania dronami. System AI był punktowany za niszczenie zidentyfikowanych zagrożeń. Czasem jednak, mimo zidentyfikowania zagrożenia, operator nie pozwalał zniszczyć celu. Wówczas to, w celu osiągnięcia lepszego wyniku, system miał usiłować zlikwidować operatora. Doniesieniom tym zaprzeczył Departament Sił Powietrznych Stanów Zjednoczonych. Jego rzeczniczka przekazała, że „komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu”.

- „Teoretycznie – należy wierzyć tylko w wiadomości zdementowane. Ale w tym konkretnym przypadku wydaje mi się, że to jest jakiś rodzaj kaczki dziennikarskiej

- ocenił prof. Arkadiusz Orłowski.

Wskazał, że takie zdarzenie raczej nie mogło mieć miejsca przy obecnym poziomie zaawansowania sztucznej inteligencji wykorzystywanej w dronach.

Informatyk podkreślił, że sam jest entuzjastą osiągnięć w dziedzinie sztucznej inteligencji i zwrócił uwagę, iż wiele związanych z nią obaw wynika z tego, że po prostu boimy się nowości, której nie znamy.

Ks. prof. Andrzej Kobyliński porównał sztuczną inteligencję do energii uzyskanej z rozszczepienia atomu, dzięki której możemy ogrzewać nasze domy, ale też możemy ją wykorzystać do niszczenia miast i państw.

- „Ten wielki potencjał jest także w sztucznej inteligencji. Może ona być wielkim darem Bożym – jak mówi papież Franciszek, ale może też być źródłem wielkich nieszczęść”

- powiedział.

Wskazał na ogromnie ważną rolę etyki, która musi wypracować normy i zasady określające funkcjonowanie sztucznej inteligencji. Podkreślił też, że pytanie o sztuczną inteligencję jest pytaniem o to, kto przejmie władzę nad światem, zarządzając systemami AI.

- „Ten spór o sztuczną inteligencję jest sporem o władzę nad światem. O to, kto będzie zarządzał kulturą, mediami, zasobami wiedzy. Te pytania są absolutnie fundamentalne”

- podkreślił.

Duchowny posłużył się przykładem komunizmu zauważając, że od tego, w jaki sposób twórcy sztucznej inteligencji stworzą algorytm dot. oceny komunizmu, później AI będzie tworzyć kolejne rozprawy na ten temat.

- „Poprzez sztuczną inteligencję tworzymy pewne modele wartościowania, oceny”

- zauważył.

- „Poprzez algorytmy nadajemy sztucznej inteligencji sposób wartościowania”

- dodał.

Filozof wskazał, że sztuczna inteligencja przyniesie ludzkości wiele dobrodziejstw, ale musi być we właściwy sposób kontrolowana, aby nie niosła też nieszczęść. Dlatego mniejsze obawy budzi sztuczna inteligencja rozwijana w państwach demokratycznych, gdzie jej rozwój podlega pewnej kontroli społeczeństwa. Znacznie większe niebezpieczeństwo wiąże się z rozwojem technologii w totalitarnych Chinach, gdzie takiej kontroli nie ma.

Prof. Orłowski zwrócił uwagę, że zagrożenie kryje się w tym, iż „mówimy o inteligencji, która tę wiedzę sama zdobywa. My nie piszemy dla niej algorytmów jak ma traktować komunizm”.

- „Tu jest też pewne zagrożenie. Jeżeli ta sztuczna inteligencja jest trenowana, czy uczona przez Chińczyków, jej pogląd na komunizm może być zupełnie inny niż w przypadku sztucznej inteligencji uczonej przez Amerykanów czy przez nas”

- powiedział uczony.

- „Kluczowym jest zrozumienie tego, że te sieci neuronowe, ta inteligencja na nich oparta sama zdobywa wiedzę. Dlatego kluczowa jest jakość danych, którymi karmimy tę sieć”

- podkreślił.

- „Projektujemy algorytmy, które pozwalają jej tę wiedzę zdobywać. Ale czego ona się nauczy, to już zależy od tego, na jakie dane natrafi”

- dodał.

Na zagrożenie zastępowania relacji ludzko-ludzkich relacjami człowiek - sztuczna inteligencja uwagę zwrócił prof. Tomasz Demendecki oceniając, że rodzi to niebezpieczeństwo „eliminowania się jako gatunku”.

- „Bez relacji na poziomie biologicznym nie jesteśmy w stanie podtrzymywać swojej populacji i tego nie zastąpi sztuczna inteligencja”

- zauważył, odnosząc się do coraz modniejszego np. w Japonii budowania mających imitować związek kobiety z mężczyzną związków człowieka ze sztuczną inteligencją.

Prawnik zwrócił w czasie programu również uwagę na to, że sztuczna inteligencja może w przyszłości – na wzór człowieka – dzielić w sobie dobro i zło.

- „My już tego procesu niestety nie zatrzymamy”

- ocenił.

Program dostępny jest TUTAJ.