Живеем в епохата на информацията, която е достъпна като водата от чешмата. Но каква е нейната достоверност и може ли да сме сигурни, че всичко прочетено е истина? Истина или предизвикателство ни предлага Изкуственият интелект? От тази статия, публикувана в Britannica, ще разберем, че напредъкът на технологиите не винаги е с положителна конотация. Пример за това са така наречените „deepfake news“ или фалшиви новини.
„Deepfakes“ са синтетични медии, включително изображения, видеоклипове и аудио, генерирани от технологията на и AI, които изобразяват нещо, което не съществува в реалността или събития, които никога не са се случвали.
Терминът „deepfake“ съчетава „deep“ – взет от технологията за дълбоко обучение на AI (вид машинно обучение, което включва множество нива на обработка) и „fake“ – адресирайки, че съдържанието не е истинско. Използва се за синтетични медии от 2017 г., когато модератор на „Reddit“ създава „subreddit“, наречен „deepfakes“ и започна да публикува видеоклипове, които използват технология за смяна на лица, за да се вмъкват прилики на знаменитости в съществуващи порнографски видеоклипове.
В допълнение към порнографията, примери за големи фалшификати, които са широко разпространени, включват изображение на папа Франциск в пухено яке, снимка на бившия президент на САЩ Доналд Тръмп в бой с полицията, видео на главния изпълнителен директор на Facebook Марк Зукърбърг, държащ реч за престъпната сила на компанията и видеоклип на кралица Елизабет, която танцува и изнася реч за прогреса на технологията. Нито едно от тези събития не са се случвали в реалния живот.
Deepfakes се произвеждат с помощта на два различни алгоритъма за дълбоко обучение на AI: един, който създава възможно най-добрата реплика на реално изображение или видео и друг, който открива дали репликата е фалшива и ако е, докладва за разликите между нея и оригинала. Първият алгоритъм произвежда синтетично изображение и получава обратна връзка за него от втория алгоритъм и след това го коригира, за да изглежда по-реално. Процесът се повтаря толкова пъти, колкото е необходимо, докато вторият алгоритъм не открие фалшиви изображения.
В изкуствено създадените видеоклипове гласът на конкретен човек може да бъде репликиран чрез подаване на AI модел с реални аудио данни от лицето, като по този начин го обучава да ги имитира. Често фалшивите видеоклипове се създават чрез презапис на съществуващ запис на човек, който говори с ново генерирано от AI аудио, имитиращо гласа на това лице.
Deepfakes често се свързват с престъпни мотиви, включително създаване на дезинформация и генериране на объркване относно политически важни въпроси. Те са използвани за унижение, сплашване и тормоз и са насочени не само към знаменитости, политици и изпълнителни директори, но и към обикновени граждани.
Появиха се обаче и някои положителни употреби на deepfakes. Единият е осведоменост за социални проблеми. Например футболистът Дейвид Бекъм участва в кампания за повишаване на осведомеността относно маларията, в която бяха създадени видеоклипове, показващи го как говори на девет различни езика, разширявайки обхвата на посланието. Светът на изкуството също намери положителни приложения за технологията deepfake. Изложба, наречена „Дали живее“ в музея на Дали в Сейнт Питърсбърг, Флорида, включваше видео в реален размер на художника Салвадор Дали, който предава цитати от негови интервюта и писмена кореспонденция с глас, който имитира неговия. Появиха се и няколко хумористични deepfakes. Един акаунт в TikTok е изцяло посветен на deepfakes на Киану Рийвс с видеоклипове, вариращи от хумористични снимки на романтични връзки до танци в TikTok.
Образованието и медицината са две допълнителни области, които могат да се възползват от технологията deepfake. В класната стая преподавателите могат да използват фалшификати на исторически речи, за да предложат вълнуващи и ангажиращи уроци. Използването на технология deepfake в здравеопазването може да подобри точността, с която туморите се забелязват при сканиране с магнитен резонанс, което ги прави по-лесни за лечение. Например, тъй като туморите или аномалиите са сравнително редки в общата популация, е трудно да има достатъчно изображения от тях, за да бъдат подавани към програма за изкуствен интелект. Deepfake изображенията позволяват такива AI програми да бъдат обучени да разпознават по-голям брой аномалии, като по този начин подобряват тяхната дългосрочна точност. Използването им позволява също така да се провеждат изследвания, като се използват синтезирани данни вместо данни от реални пациенти, което позволява на изследователите да избегнат злоупотреби относно поверителността.