Штучний інтелект, пропаганда і сучасні технології: як вберегтись від російських фейків
Про це повідомляє агентство AFP.
Новий закон ЄС про штучний інтелект зосереджений на використанні ШІ, який може становити високий ризик для приватних та державних секторів.
В Україні використання штучного інтелекту, а зокрема діпфейків, після повномасштабного вторгнення збільшилось у декілька разів. Російські пропагандисти використовують ШІ, аби розповсюдити неправдиву інформацію нібито від представників української влади.
То як відрізнити використання ШІ та чи можемо ми перейняти досвід ЄС? Про це в ексклюзивному інтервʼю для “FM Галичина” розповіла засновниця проєкту "Нота єнота", фактчекерка Альона Романюк.
Як Росія використовує штучний інтелект в своїй пропаганді проти України?
Російські діпфейки часто видають себе за українських політиків та впливових людей
Насправді використовує достатньо потужно. Думаю, що найближчим часом у нас з'явиться велика кількість нових діпфейків. Росія з початку лютого 2022-го року робила діпфейки на Володимира Зеленського. Влітку, наприклад, і восени 2023-го були діпфейки про Валерія Залужного, який тоді був головнокомандувачем. А у червні 2022-го року мери п'яти європейських столиць мали розмову із “київським міським головою Віталієм Кличком”, але реальний Віталій Кличко не мав жодної розмови із цими мерами. Як таке можливо? За допомогою технології діпфейк та нейромереж створили в режимі реального часу маску Віталія Кличка. Команда російських пропагандистів запустила всю цю історію, виходила на зв'язок від імені команди Київської міської ради, Київської міської державної адміністрації із мерами Берліну, Мадриду, Варшави. І мери мали пряму розмову, прямий дзвінок з цим діпфейком, а після цього виходили пресрелізи або повідомлення в соціальних мережах, і тільки міська очільниця Берліну зрозуміла, що щось не так.
Тобто всі інші повірили?
Абсолютно повірили. Очільниця Берліну зрозуміла, що щось не так, коли умовний Віталій Кличко, тобто людина, яка говорить, як Віталій Кличко, виглядає як Віталій Кличко, почала просувати російські наративи про те, що українські біженці якісь не такі, що вони сидять на виплатах в Німеччині, що вони дуже негативно впливають на економіку Німеччини і так далі. І тут вона припинила розмову, вийшла на посольство і попросила уточнити, чи дійсно у неї була розмова з Віталієм Кличком. Виявилось, що ні. Зрозуміла вона не з зображення, а з контексту розмови. Якісні фальшивки дуже складно відрізнити від реальної людини. Тому треба аналізувати, що людина говорить і як вона це говорить.
Як пересічний глядач може зрозуміти, що на екрані діпфейк, а не реальна людина?
Вберегти себе від фейків можна, варто лише почистити інформаційні сміттярки і читати й дивитись перевірені медіа
По-перше, відписатися від різних інформаційних сміттярок, як, наприклад, анонімні телеграм-канали, різні незрозумілі групи у Facebook, якісь ноу-нейм сайти. Тобто нам важливо, щоб люди читали і дивилися якісні медіа, де працюють журналісти і за кожним медіа стоїть конкретна людина. Ось це важливо, тому що журналісти професійно перевіряють інформацію, і вони мають кваліфікацію та розуміння того, як відрізнити діпфейк від правди.
Друге, на що ще потрібно звертати увагу, це на лінію між обличчям та шиєю. У діпфейків – це як маска. Вона буває дещо розмитою, може відрізнятися колір. Якщо ми говоримо в режимі онлайн з людиною і ми не впевнені, що це справжня людина, то треба попросити її повернути голову. Маска зазвичай не так добре повертається, і ми побачимо все те, що відрізняється.
Зараз багато діпфейків відомих українських ведучих у Facebook, рекламують всяке, мовляв, "Це препарат, який поверне вам зір" чи "препарат, який зробить так, щоб ваші ніжки не боліли". Це, власне, те, що називається ліпсинг. Тобто відео справжнє, але ця людина ніколи такого не говорила. За допомогою нейромереж був записаний і відтворений голос, який звучить дійсно дуже схоже. Ба більше, навіть губи рухаються майже в такт. Але якщо ми уважно придивимось, то побачимо, що є цей розсинхрон з губами, і це теж видає фейки.
Є й фотографії, які згенерував штучний інтелект. Насамперед треба звертати увагу на руки, бо на щастя, штучний інтелект ще не навчився їх відтворювати дійсно правдиво.
Вже навчився і робить краще. Насправді на фотографіях, згенерованих нейромережею, треба звертати увагу на деталі. Коли я спростовувала одну фейкову фотографію, яка була створена за допомогою діпфейку, то мочка вуха була взагалі не чітка, а сережка була намальована на шиї. Треба дивитися на зіниці, тому що часто їх не роблять такими круглими, як вони є в людини, а трохи дивної форми, так би мовити.
В Євросоюзі вже починають регулювати штучний інтелект, зокрема, вже є якісь перші законодавчі ініціативи. Чи можемо ми щось таке запровадити в Україні і чи допоможе це?
Питання регулювання штучного інтелекту в Україні – це питання часу
Ініціативи, які впроваджуються на рівні Європейського Союзу, які стосуються авторського права, свободи слова, так чи інакше імплементуються в Україні. І тому питання регулювання штучного інтелекту – це питання часу.
Як ви оцінюєте роботу держави щодо спростування діпфейків? В нас є Центр протидії дезінформації. Наскільки він ефективний?
Насправді Центр протидії деформації спростив роботу фактчекерам, тому що вони спростовують і перевіряють фейки, тому у нас роботи стало трохи менше, і це тішить. Знову ж таки, це ще й підкріплення авторитету держави. Проте є кілька нюансів, про які я говорила представникам Центру протидії дезінформації. Вони просто подають інформацію як факт, що таке росіяни використовували, а варто людям пояснити контекст. Тобто є сенс це робити, якщо ми робимо якусь аналітичну підбірку, або якщо ми щось роз'яснюємо, або якщо ми даємо якийсь контекст. А просто цитата, я вважаю, це не дуже добре. І знову ж таки, нам не вистачає стратегічного поширення українських наративів. Цим займається Центр стратегічних комунікацій при Мінкульті. Але, як на мене, дуже багато в цьому плані роблять українські ютубери.
Редакція не завжди поділяє думки, висловлені спікерами.
Читайте також: Ситуація, в якій зараз опинилася Україна, – це штрафне коло за минулорічні помилки