W rozmowie z PAP ekspert przypomniał, że twórcy coraz bardziej popularnych czatbotów zbierają wiele danych na temat swoich użytkowników.

- „Firmy uczą swoje modele AI na treściach, które znajdują w internecie, m.in. w social mediach. Na tej podstawie oraz danych, którymi dzielimy się z czatbotem, jesteśmy przez daną firmę zazwyczaj profilowani, aby odpowiedzi czatbota były bardziej do nas dopasowane”

- wyjaśnił.

- „Firmy zbierają więc informacje na podstawie promptów, które wpisujemy (zapytań – PAP), w których mogą być dane np. o języku jakim się posługujemy, wyglądzie w przypadku zdjęć, o poglądach, sytuacji rodzinnej, problemach itp. Inne firmy dodatkowo proszą o dostęp do informacji z naszego urządzenia, np. kontaktów, lokalizacji. Chiński DeepSeek zbierał też sposób pisania na klawiaturze, z którego można wyciągnąć sporo danych, np. wiek, bądź to czy jesteśmy danego dnia zmęczeni lub niewyspani”

- dodał.

Zwrócił też uwagę na przypadki, w których „jesteśmy kuszeni oddaniem swoich danych w zamian za darmowy dostęp do czatbota, lepszy model itp.”.

- „Czyli tak naprawdę oddajemy naszą prywatność za pewne korzyści”

- podkreślił.

Rozmówca PAP wskazał, że wszystkie te dane mogą dostać się w niepowołane ręce w wyniku błędu lub ataku hakerskiego.

- „Jedna z największych wpadek, która miała miejsce dwa lata temu, to pomylenie indeksów użytkowników ChatGPT przez firmę OpenAI. Skutkowało to sytuacją, w której po zalogowaniu się na swoje konto, dana osoba miał historię rozmów innej osoby. Problem dotknął 1,2 proc. użytkowników, ale w praktyce to miliony osób”

- przypomniał.

Zwrócił też uwagę na niebezpieczeństwo związane z przejęciem konta, w przypadku którego cybeprzestępca uzyskuje dostęp do historii konwersacji i wszystkich danych udostępnionych czatbotowi.

Chrobok opowiedział też o zagrożeniu związanym z profilowanymi reklamami.

- „Wyobraźmy sobie, że mamy gorszy dzień albo zmagamy się z depresją, otyłością, czy innym problemem i reklamodawcy wykorzystują te informacje, aby wpłynąć na nasze decyzje zakupowe, które niekoniecznie będą dla nas korzystne. Wchodzimy tutaj w szary świat manipulacji. To co, uważamy, że byłoby dla nas dobre, niekoniecznie jest dobre dla twórców modeli AI i firm, które optymalizują zysk”

- zauważył.

Zwrócił ponadto uwagę, że modele AI „nie są neutralne”, a „każdy model to pewna bańka informacyjna”.

- „Przykładowo chiński DeepSeek ma negatywny sentyment (ton generowanej treści - PAP) przy wypowiedziach o amerykańskich żołnierzach, a modele OpenAI zupełnie odwrotnie”

- wskazał.

W związku z tym ekspert, zachęcając do korzystania ze sztucznej inteligencji, która „może pomóc odnaleźć się na rynku pracy, czy usprawnić samą pracę”, zachęca też do edukacji o zagrożeniach i „higieny AI”.