Напишете дума/думи за търсене

Дип фейк – как да го разпознаем

Фалшивата тревога, или така нареченото в България пускане на партенки, има всички предпоставки да придобие притеснителни размери заради убедителната сила на социалните мрежи. Вече дори не е задължително да се казваш Таско, за да раздухаш чрез фейсбук истерия, че водата в София е отровна. Говорим за нещо много по-сериозно - новото поколение фалшиви новини.

Дипфейк е една от последните страховити прищявки, идващи не от политическите тролове, а от порно средите. Става дума за клипове, коит се правят с помощта на deep learning алгоритъм, който заменя лицето на героя във видеоклипа с нечия друга физиономия. Това само по себе си не звучи толкова зловещо, но създателят на софтуера го е направил с конкретната цел да използва знаменити личности в порнографски сцени. Просто отвратително!

Вярно е, че технологичната революция върви ръка за ръка с порното. Навремето именно огромната експлозия от съдържание за възрастни показа по един категоричен начин необятните възможности на интернет за разпространение на информация.

Новите платформи предоставят лесен начин да вземеш лицето на някоя любима актриса и да го интегрираш върху тялото на някоя порноактриса и така да се получи един убедителен сексвидеоклип, който да изглежда почти истински. Интернет вече е наводнен от подобни фалшификати. Проблемът стана толкова голям, че Twitter, Pornhub и Reddit вече предприеха стъпки, за да ги забранят.

Този софтуер има се използва и за по-благородни цели в киноиндустрията. Например, ако даден актьор умре по време на снимки, филмът може да бъде довършен от дубльор, като компютърът наслагва образа на починалия. Някои все още живи холивудски звезди вече са подписали лиценз за използване на физиономията ми посмъртно. Но не трябва да се забравя, че технологиите могат да доведат до сериозни главоболия, ако не бъдат използвани правилно и тази страна не бива да бъде подценявана.

В момента разработването на цифрови фалшификати върви с пълна скорост. Подобна умишлена злоупотреба с технологията може сериозно да навреди не само на Холивуд, но и на световната политика. Почти същият метод е разработен от Niessnerlab и се използва за създаване на видеоклипове, в които са използвани лицата на американски президенти и всякакви известни личности.

Преди няколко години сенаторът от Вирджиния Марк Уорнър вече изрази своите притеснения.

"Идеята, че някой може да постави лице на един човек върху тялото на друг, ще бъде ежедневие за всеки, който иска да се намеси в политическия процес", каза той пред CBS. Сенаторът се притеснява, че технологията скоро ще бъде достатъчно добра, за да заблуди гласоподавателите и да се намеси сериозно в бъдещето на демокрацията.

Вече има доста убедителни фалшификати, които са се появили на в американската социална мрежа Reddit. Група маниакални фенове на Никълъс Кейдж например използват технологията, за да вмъкнат любимеца си във всеки филм, който някога е правен. Други го правят с Джон Траволта. Има и някои страховити фалшиви видеоклипове с известни политици.

Когато т.нар. дипфейкове се комбинират с някои от съвременните аудио технологии може да се произведе изключително убедителен фалшификат, напълно достатъчен, за да заблуди всеки неспециалист.

Adobe например създава "Photoshop for audio", който позволява един диалог да бъде толкова лесно редактиран, колкото и снимка. Канадският стартъп на име Lyrebird предлага услуга, която позволява да бъде фалшифициран гласа на някой друг само с няколко минути звук.

Вече можеш да накараш от домашния си компютър президентът на САЩ да каже каквото поискаш. Всъщност именно такова нещо се случи, когато от сайта BuzzFeed качиха в YouTube клип на Барак Обама, в който темпото и тембъра на гласа му са синхронизирани с тези на режисьора Джордан Пийл. Във видеото бившият президент на САЩ изрича думи, които реално никога не би казал, но въпреки това клипът има над четири и половина милиона гледания.

Големият въпрос е как да се предпазим от тази нова вълна и можем ли изобщо да го направим?

Д-р Мерташ Харанди, учен, който изследва тези нови технологии казва, че изходът е неясен. Ако се вгледате в клипа, може и да видите, че движенията на устните не съвпадат напълно с речта. Зъбите трудно се визуализират по най-реалистичния начин, но технологията ще се подобри и то много бързо, казва той.
Фалшивите видеоклипове биха могли да покажат как политици вземат подкупи, използват расови епитети или се занимават с прелюбодеяние, предполагат американските преподаватели по право Боби Чесни и Даниел Ситрон в блога Lawfare. Дори нискокачественото фалшиво видео, което се използва в критичен момент, като например в навечерието на избори, би могло да има отражение.

В такива случаи публичното доверие може лесно да се разклати, без значение колко надеждно е било опровергано всичко в последствие.

Американските политици, които изглеждат първите потенциални жертви на дипфейка вече настояват за конкретни мерки и регулации. Конгресменът Ро Ханна предлага американската агенция за съвременни изследвания в областта на отбраната да съзаде сигурен интернет протокол за удостоверяване на образ и звук чрез биометрични данни.

Но как изобщо бихме могли да удостоверяваме съдържанието на всяка новина в интернет?

Няма лесен отговор на този въпрос.
Някои разсъждават, че би могло да се добавя пръстов отпечатък към изображението, качено от смартфона, например. Но да разчитаме на отпечатъка си като символ на истината би било твърде лош сценарий за бъдещето. А и изглежда твърде ненадеждна защита. След като новите технологии могат да манипулират картина и звук защо някой да не се научи бързо как да извади пръстовия отпечатък и да го използва в новото съдържание, което иска да получи. Успехът на подобно начинание е почти гарантиран.

Всъщност, за да се направи убедително дипфейк видео, се изискват много време и усилия. Освен това то не може да се приложи за всеки човек, защото трябват много кадри. Затова и знаменитостите са най-уязвими. Но какно вече стана ясно, технологиите се развиват и в бъдеще фалшив образ ще може да се синтезира като се използват и по-малко изображения. А тези образи могат да идват отвсякъде. Ако сте качвали във фейсбук стотици ваши снимки през последните години, сега имате за какво да се притеснявате.
Разпространението на дип фейк новини заплашва да разруши доверието, върху което се гради съвременното общество. Пазарът на идеи е заплашен от зараза с особено опасна форма на лъжа. В следствие на това хората могат да станат по-склонни да пренебрегват истински факти.
При всички положения капацитетът за създаване на убедителни фалшификати (и удобният софтуер, който позволява почти всеки да използва този капацитет) ще се разпространява бързо в световен мащаб. Дори и да не е замислен по такъв начин, всеки технологичен напредък, може да се окаже удобен инструмент в ръцете на широк кръг от хора, между които и някои недобронамерени ползватели.

Докато се тревожим за проблеми като човешкото клониране и изкуствения интелект биха се отразили на бъдещето на човечеството, около нас се появяват все нови и нови технологии, които нито са сложни, нито толкова скъпи, а напротив - стават все по-достъпни за хора с лоши цели.
Ето защо, ако видите провокативно видео, трябва да си зададете въпроса: откъде идва това? Дали други сайтове или медии са го потвърдили? Дали изглежда истинско? Вече всичко е възможно и нищо свято не остана в настъпващата ера на дипфейка.

ПОКАЖИ КОМЕНТАРИТЕ
X