W rozmowie z PAP ekspert przypomniał, że twórcy coraz bardziej popularnych czatbotów zbierają wiele danych na temat swoich użytkowników.
- „Firmy uczą swoje modele AI na treściach, które znajdują w internecie, m.in. w social mediach. Na tej podstawie oraz danych, którymi dzielimy się z czatbotem, jesteśmy przez daną firmę zazwyczaj profilowani, aby odpowiedzi czatbota były bardziej do nas dopasowane”
- wyjaśnił.
- „Firmy zbierają więc informacje na podstawie promptów, które wpisujemy (zapytań – PAP), w których mogą być dane np. o języku jakim się posługujemy, wyglądzie w przypadku zdjęć, o poglądach, sytuacji rodzinnej, problemach itp. Inne firmy dodatkowo proszą o dostęp do informacji z naszego urządzenia, np. kontaktów, lokalizacji. Chiński DeepSeek zbierał też sposób pisania na klawiaturze, z którego można wyciągnąć sporo danych, np. wiek, bądź to czy jesteśmy danego dnia zmęczeni lub niewyspani”
- dodał.
Zwrócił też uwagę na przypadki, w których „jesteśmy kuszeni oddaniem swoich danych w zamian za darmowy dostęp do czatbota, lepszy model itp.”.
- „Czyli tak naprawdę oddajemy naszą prywatność za pewne korzyści”
- podkreślił.
Rozmówca PAP wskazał, że wszystkie te dane mogą dostać się w niepowołane ręce w wyniku błędu lub ataku hakerskiego.
- „Jedna z największych wpadek, która miała miejsce dwa lata temu, to pomylenie indeksów użytkowników ChatGPT przez firmę OpenAI. Skutkowało to sytuacją, w której po zalogowaniu się na swoje konto, dana osoba miał historię rozmów innej osoby. Problem dotknął 1,2 proc. użytkowników, ale w praktyce to miliony osób”
- przypomniał.
Zwrócił też uwagę na niebezpieczeństwo związane z przejęciem konta, w przypadku którego cybeprzestępca uzyskuje dostęp do historii konwersacji i wszystkich danych udostępnionych czatbotowi.
Chrobok opowiedział też o zagrożeniu związanym z profilowanymi reklamami.
- „Wyobraźmy sobie, że mamy gorszy dzień albo zmagamy się z depresją, otyłością, czy innym problemem i reklamodawcy wykorzystują te informacje, aby wpłynąć na nasze decyzje zakupowe, które niekoniecznie będą dla nas korzystne. Wchodzimy tutaj w szary świat manipulacji. To co, uważamy, że byłoby dla nas dobre, niekoniecznie jest dobre dla twórców modeli AI i firm, które optymalizują zysk”
- zauważył.
Zwrócił ponadto uwagę, że modele AI „nie są neutralne”, a „każdy model to pewna bańka informacyjna”.
- „Przykładowo chiński DeepSeek ma negatywny sentyment (ton generowanej treści - PAP) przy wypowiedziach o amerykańskich żołnierzach, a modele OpenAI zupełnie odwrotnie”
- wskazał.
W związku z tym ekspert, zachęcając do korzystania ze sztucznej inteligencji, która „może pomóc odnaleźć się na rynku pracy, czy usprawnić samą pracę”, zachęca też do edukacji o zagrożeniach i „higieny AI”.