Pichai udzielił wywiadu dla CBS, w którym opowiedział o swoich obawach związanych ze sztuczną inteligencją, które mają spędzać mu sen z powiek. Szef Google'a przekonuje, że jeśli nowe technologie będą niewłaściwie wdrażane, mogą okazać się „bardzo szkodliwe”. Dlatego zaapelował o stworzenie globalnych ram, które uregulują rozwój sztucznej inteligencji. Powinny one jego zdaniem wzorować się na rozwiązaniach przyjętych w przypadku broni jądrowej.
Jedną z przestrzeni, w której AI może być skrajnie niebezpieczna w ocenie szefa Google jest dezinformacja.
- „Z AI będzie możliwe łatwo stworzyć wideo, w którym Scott (Pelley, prowadzący wywiad w CBS – przyp. red.) mówi coś albo ja mówię coś, czego nigdy nie powiedzieliśmy. I mogłoby to wyglądać realistycznie. Ale na skalę społeczną może to spowodować wiele szkód”
- przestrzegł.
Przyznał też, że sam Google nie do końca rozumie, w jaki sposób uruchomiony przez niego chatbot Bard udziela odpowiedzi.
- „Jest pewien aspekt tego, który wszyscy w tej dziedzinie nazywają „czarną skrzynką”. Nie rozumiesz w pełni. I nie możesz do końca powiedzieć, dlaczego ona powiedziała to albo dlaczego się pomyliła”
- powiedział.
Sundar Pichai stwierdził, że społeczeństwo nie jest gotowe na szybki rozwój sztucznej inteligencji.
Podobny apel kilka tygodni temu wystosował właściciel Twittera Elon Musk i ponad 1000 osób zajmujących się zaawansowanymi technologiami. O uregulowanie kwestii związanych ze sztuczną inteligencją do światowych przywódców zaapelowała też grupa zajmujących się tymi kwestiami posłów do Parlamentu Europejskiego.
