Platforma Obywatelska opublikowała wczoraj spot, w którym zestawiła kilka wypowiedzi premiera Mateusza Morawieckiego ze zdaniami mającymi rzekomo pochodzić z wiadomości przejętych przez hakerów ze skrzynki ministra Michała Dworczyka. Fragmenty te czyta sam premier Mateusz Morawiecki, ponieważ Platforma wygenerowała jego głos w technologii deepfake za pomocą Sztucznej Inteligencji. Dopiero kilka godzin po publikacji spotu politycy opublikowali dopisek, w którym przyznali, że „lektor (został – red.) wygenerowany przez AI”. W ten sposób PO stworzyła u odbiorców wrażenie, że rzeczywiście słyszą wypowiedź szefa rządu.

- „Wrzucenie deepfake z premierem przez największą partię opozycyjną, bez oznaczania tego jako treść syntetyczna, jest strzeleniem sobie w stopę. Bez względu na poglądy polityczne”

- podkreśla w mediach społecznościowych dr Łukasz Olejnik, ekspert w zakresie cyberbezpieczeńśtwa.

- „Nieładnie. Treści wygenerowane przez AI powinny być oznaczone, a szczególnie już takie jak te”

- napisał z kolei publikujący na temat Sztucznej Inteligencji Michał Podlewski.

Głos zabrała również prof. Aleksandra Przegalińska-Skierkowska.

- „Uważałabym jednakowoż, że kiedy powstaje klon głosu, to należy to oznaczać w samym poście, żeby było jasne, że to nagranie powstało z wykorzystaniem AI. Trzymajmy się najlepszych standardów w dobie generatywnej sztucznej inteligencji”

- napisała badaczka rozwoju nowych technologii.

Platforma Obywatelska nic nie robi sobie jednak z krytyki i dalej dezinformuje. Dziś rano opublikowała kolejny spot, choć tym razem zaznaczając w opisie (nie samym nagraniu), że wykorzystano AI.