ЗАСТРАШУЈУЋА МАНИПУЛАЦИЈА: Ево зашто ускоро нећете моћи да верујете НИ СОПСТВЕНИМ ОЧИМА! (ВИДЕО)

Нова врста видео и аудио алатки за едитовање снимака омогућује стварање реалних новинарских вести, као што је сада већ познати, лажни говор Барака Обаме.

У доба Фотошопа, филтера и друштвених медија, навикли смо да виђамо монтиране слике – субјекти постају тањи и глаткији или, у случају „Снепчета“, трансформисани у штенад.

Међутим, постоји нова врста алата за видео и аудио манипулацију, која је омогућена напредком у вештачкој интелигенцији и компјутерској графици, што ће омогућити реалне снимке јавних личности који се појављују и кажу – било шта. Трамп проглашава своју склоност водним спортовима, Хилари Клинтон описује украдену децу коју држи закључану у њеном подруму, Том Круз коначно признао оно што смо сумњичили… да је обожавалац цртаћа „Мој мали пони“.

Ово је будућност лажних вести. Дуго нам је говорено да не верујемо у све што читамо, али ускоро ћемо морати да доводимо у питање све што видимо и чујемо.

За сада постоји неколико истраживачких тимова који раде на хватању и синтетизацији различитих визуелних и аудио-садржаја људског понашања.

Софтвер развијен на Универзитету Стенфорд је у стању да манипулише видео-снимцима јавних личности како би омогућио другој особи да изговара речи у реалном времену. „Фејс2Фејс“ снима израз лица другог лица док разговарају у веб камеру, а затим их директно пребацују на лице особе у оригиналном видео-запису. Истраживачки тим демонстрирао је своју технологију луткама видео снимака Џорџа Буша, Владимира Путина и Доналда Трампа.

Истраживачки тим на Универзитету у Алабами у Бирмингему радио је на гласу, док је канадски стартуп Лиребрд развио сличне могућности.

Ове технологије још нису доведене до савршенства. Изрази лица на снимцима понекад делују помало неприродно, а гласови звуче роботизовано.

Међутим, за неко време, нове технологије ће моћи врло верно да реконструишу звук или изглед особе, до те мере да људи неће моћи да уоче разлику. С обзиром на ерозију медија и све више оглашавања на друштвеним медијима, таквих снимака ће бити све више.

Да би се открила превара људи треба да гледају и на сенке и осветљења иза људи који говоре на снимку, као и пропорције елемената у кадру, синхронизацију аудио-записа.

Овакви снимци могу да буду и врло опасни, јер би могли да послуже као окидачи за политичке и дипломатске катастрофе. Рецимо да Трамп објави рат Северној Кореји.

– Ако неко гледа снимак Трампа, на којем изгледа као Трамп и говори као Трамп, он ће мислити да је то Трамп – објашњавају стручњаци за „Гардијан“.

 

Извор: Guardian / D.K. / Blic.rs