Како да знате да гледате видео настао помоћу вештачке интелигенције

Видео

Аутор фотографије, Reuters

    • Аутор, Томас Џермејн
    • Функција, ББЦ технологија
  • Време читања: 8 мин

Друштвене мреже преплављене су видео снимцима насталим уз помоћ вештачке интелигенције.

Постоји једна ствар која их све одаје и може да вам помогне да их препознате - да ли видео изгледа као да је снимљен 'дигитроном'?

Готово је.

Бићете обманути.

Вероватно већ јесте били.

Видео-генератори вештачке интелигенције постали су толико добри да ј наш однос према камерама почео да се мења.

Ево најбољег могуће сценарија: превариће вас, изнова и изнова, све док вам не буде доста свега и почнете да доводите у питање сваку ствар коју видите.

Добро дошли у будућност.

Али, за сада, има неколико знакова упозорења који их одају, па можете лако да их потражите.

Једна ствар међу њима се истиче.

Ако видите снимак са лошим квалитетом слике, зрнасту, замућену слику - можда гледате садржај вештачке интелигенције.

„То је једна од првих ствари које проверавамо", каже Хани Фарид, професор компјутерских наука на Калифорнијском универзитету у Берклију, пионир на пољу дигиталне форензике и оснивач компаније за откривање дипфејкова ГетРеал Сецуритy.

Тужна истина је да ће алатке за снимање видеа помоћу вештачке интелигенције на крају постати још боље, тако да ће овај савет ускоро постати потпуно бескористан.

То би могло да се деси већ за неколико месеци или ће му можда требати више година.

Тешко је рећи.

Жао ми је.

Али ако се препустите нијансама са мном на тренутак, овај савет би могао да вас спасе од док не научите да промените начин на који доживљавате истину.

Будимо сасвим јасни.

Ово није никакав доказ.

Није вероватније да ће снимци прављени уз помоћ вештачке интелигенције изгледати лошије.

Најбоље АИ алатке могу да избаце предивне, исполиране снимке.

А ни снимци ниског квалитета нису нужно прављени уз помоћ вештачке интелигенције.

„Ако видите нешто изразито лошег квалитета, то не значи аутоматски да је лажно. Не значи да иза таквог нечега стоји зла намера", каже Метју Стем, професор и шеф Мултимедијалне и информатичке безбедносне лабораторије на Универзитету Дрексел, у Америци.

Уместо тога, поента је у томе да су мутни, пикселизовани видео снимци настали помоћу вештачке интелигенције најсклонији томе да вас преваре, макар за сада.

То је знак да треба мало више да обратите пажњу на оно што гледате.

„Водећи генератори садржаја из текста у видео као што је Гуглов Вео и ОпенАИ-јева Сора и даље производе ситне недоследности", каже Фарид.

„Али то нису више шест прстију или збркан текст. Суптилније је од тога", додаје.

Чак и данашњи најнапреднији модели често уводе проблеме као што су неприродно глатка текстура коже, необични или променљиви обрасци косе и одеће, или мали предмети у позадини који се померају на немогуће или нереалистичне начине.

Све то врло лако може да вам промакне, али што је слика јаснија, већа је вероватноћа да ћете приметити те индикативне грешке које прави вештачка интелигенција.

То је оно што чини видео снимке нижег квалитета толико изазовним.

Кад тражите од вештачке интелигенције нешто што изгледа као да је снимљено на старом телефону или на сигурносној камери, на пример, то може да прикрије артефакте који би иначе могли да послуже људима као сигуран знак.

Вештачка интелигенција и даље додаје разна изобличења видео снимцима, али их је теже запазити

Аутор фотографије, Serenity Strull/ Getty Images

Потпис испод фотографије, Вештачка интелигенција и даље додаје разна изобличења видео снимцима, али их је теже запазити

У последњих неколико месеци, неколико АИ видеа високог профила преварили су огроман број људи.

Сви су имали нешто заједничко.

Лажни, али слатки видео дивљих зека како скачу по трамболини стекао је 240 милиона прегледа на ТикТоку.

Милиони других људи лајковало је снимак двоје људи како се заљубљују једно у друго у њујоршкој подземној железници, али су делили разочарање кад се испоставило да је снимак лажан.

Лично сам поверовао да је вирални видео америчког свештеника у конзервативној цркви који држи изненађујуће левичарску проповед - прави.

„Милијардери су једина мањина које треба да се плашимо.

„Они имају моћ да униште ову земљу!", грмео је јужњачким акцентом.

Био сам запањен.

Јесу ли наше политичке границе заиста постале толико порозне?

Нису.

Био је то још један рад вештачке интелигенције.

илустрација

Аутор фотографије, Serenity Strull/ Getty Images

Сваки од ових видеа изгледао је као да је снимљен дигитроном.

АИ зеке?

Приказане су као снимак са сигурносне камере настао ноћу.

Пар у подземној железници?

Виде се пиксели.

Свештеник? Видео је изгледао као да је превише зумиран.

А испоставља да су ти снимци имали и неке друге карактеристике.

„Три ствари на које треба да обратите пажњу су резолуција, квалитет и дужина снимка.

„У највећем броју случајева, АИ видео снимци су веома кратки, још краћи од типичних видеа на ТикТоку или Instagramу, који су око 30 до 60 секунди дуги.

„Огромна већина видеа које ми траже да верификујем трају шест, осам или 10 секунди", каже Фарид.

То је зато што је генерисање видеа уз помоћ вештачке интелигенције скупо, тако да већина алатки постиже максимум са кратким снимцима.

Плус, што је видео дужи, већа је вероватноћа да ће га вештачка интелигенција упрскати.

„Можете да залепите више видеа вештачке интелигенције један за други, али приметићете рез отприлике на сваких осам секунди."

Друга два фактора, резолуција и квалитет, сродни су, али различити.

Резолуција се односи на број или величину пиксела на слици, док је компресија процес који смањује величину видео фајла одбацујући његове детаље, често остављајући мутне ивице.

Штавише, Фарид каже да су снимци ниског квалитета су толико привлачни да их креатори намерно замућују.

„Ако желим да преварим људе, шта урадим? Генеришем лажни видео, затим смањим резолуцију, да не разазнајте све ситне детаље.

„А онда додам компресију која додатно заклони било какве могуће артефакте.

„То је уобичајена техника", додаје.

илустрација

Аутор фотографије, Serenity Strull/ Getty Images

Проблем је у томе што, док читате ово, технолошки гиганти троше милијарде долара да учине вештачку интелигенцију још реалистичнијом.

„Иако су ти визуелни трагови сада распознатљиви, ускоро више неће бити", каже Стем.

„Очекујем да ће ови визуелни трагови нестати из снимака у року од две године, макар они најочигледнији, зато што су већ практично ишчезли из слика генерисаних помоћу вештачке интелигенције.

„Просто више не можете да верујете властитим очима."

То не значи да је истина унапред изгубљена битка.

Кад истраживачи као што су Фарид и Стем верификују неки садржај, имају напредније технике на располагању.

„Кад генеришете или модификујете видео, он за собом оставља мале статистичке трагове које наше очи не могу да виде, као што су отисци прстију на месту злочина.

„Присуствујемо настанку техника које могу помоћи да се потраже и разоткрију ти отисци прстију", каже Стем.

Понекад распоред пиксела у лажном видеу може бити другачији него у правом, на пример, али фактори попут ових нису стопроцентно поуздани.

Технолошке компаније такође раде на новим стандардима за верификацију дигиталних информација.

Суштински гледано, камере могу да уграде информације у фајл истог тренутка кад створе слику да би помогле да се докаже да је она права.

На исти начин, АИ алатке могу аутоматски да додају сличне детаље њиховим снимцима и сликама да би доказале да су ове лажне.

Стем и други кажу да би ови напори могли бити од велике помоћи.

Право решење, према експерту за дигиталну писменост Мајку Колфилду, јесте да сви почнемо да размишљамо другачије о ономе што виђамо онлајн.

Тражење трагова које вештачка интелигенција оставља за собом није „трајан" савет, зато што се ти трагови непрестано мењају, каже он.

Уместо тога, Колфилд каже да морамо да одустанемо од идеје да видео снимци или слике значе било шта ван контекста.

„Мој став је да ће видео углавном постати донекле као текст, на дуже стазе, где је провенијенција [порекло видеа], а не површинске одлике, оно што је кључно, и могли бисмо већ да почнемо да се навикавамо на то", каже Колфилд.

Никада не погледате парче текста и одмах претпоставите да је тачно само зато што га је неко записао.

Ако постоји било каква сумња, одете да истражите извор те информације.

Видео снимци и слике су другачији, зато што је било теже лажирати их и манипулисати њима.

С тим је сада свршено.

Једино што је сада важно је одакле је стигао тај садржај, ко га је поставио, који је контекст и да ли га је верификовао поверљиви извор.

Питање је када (или да ли) ћемо сви прихватити ту чињеницу.

„Ако ми дозволите да будем мало грандиозан, мислим да је ово највећи изазов за безбедност информација у 21. веку.

„Али овај проблем је тек неколико година стар.

„Број људи који ради на његовом решавању релативно је мали, али је у рапидном порасту.

„Биће нам потребна мешавина решења, образовања, интелигентних политика и технолошких приступа. Нисам спреман да престанем да се надам", каже Стем.

Ако имате предлог теме за нас, јавите се на [email protected]