Вештачката интелигенција станува моќно оружје за ширење пропаганда

Во светски рамки подолго време трае дебатата околу опасностите и придобивките што ги носи развојот на вештачката интелигенција, а една од главните грижи е дека новата технологија може да нанесе повеќе штета отколку корист за човештвото. Искуствата и истражувањата веќе покажуваат дека поради достапноста, вештачката интелигенција лесно завршува во погрешни раце и се злоупотребува за ефикасно продуцирање и ширење пропаганда и дезинформации.

Реална закана

Фотографија на која се гледа како некој работи на лаптоп
Лажни текстови, аудио и слики – големи можности на вештачката интелигенција

Според последниот извештај „Слободата на интернетот во 2023 година“ на „Фридом Хаус“ (Freedom House) владите и политичките актери во светот и во демократските и во автократските држави, користат вештачка интелигенција за да генерираат текстови, слики и видео за да манипулираат со јавното мислење во нивна полза и автоматски да ги цензурираат критичните онлајн содржини. Во извештајот се укажува дека генеративната вештачка интелигенција се заканува да ги засили кампањите за дезинформации, односно за манипулирање со јавното мислење. Според ова истражување, алатките засновани на вештачка интелигенција кои можат да генерираат текст, аудио и слики брзо станале пософистицирани, достапни и лесни за користење, поттикнувајќи загрижувачка ескалација на тактиките за ширење дезинформации. Имено, во текот на изминатата година, новата технологија била искористена во најмалку 16 земји за да сее сомнеж, да се оцрнат противниците или да се влијае на јавната дебата.

Од „Фридом Хаус“ посочуваат дека кампањите за дезинформации станаа редовна карактеристика на глобалниот информативен простор.

„Овие кампањи одамна се потпомогнати од технологијата за вештачка интелигенција за дистрибуција на содржина: автоматизираните ‘бот’ сметки на социјалните мрежи ги замолчуваат активистите и пропагираат лажни наративи, додека алгоритмите шират недоверливи информации“, се наведува во извештајот.

Политичките актери користат аутсорсинг за ширење пропаганда

Сепак, во него се додава дека голем дел од работата сè уште ја вршат луѓето и дека се појавил цел пазар на услуги за поддршка на манипулацијата од владејачките структури во државите. Аутсорсингот им дава на владите можност за негирање на обвинувањата за ширење пропаганда и им овозможува на политичките актери да допрат до нова публика преку црпење на иновации и експертиза од приватниот сектор.

Примери кои откриваат застрашувачки размери

Во овој документ се презентирани повеќе примери од различни земји во кои за време на изборните периоди и моменти на политичка криза се користела содржина генерирана од вештачката интелигенција за манипулирање со јавното мислење.

Во мај 2023 година, среде ескалација на политички конфликт во Пакистан помеѓу поранешниот премиер Имран Кан и естаблишментот поддржан од војската, Кан споделил видео генерирано од вештачка интелигенција за да прикаже жена која бестрашно се соочува со полицијата. Притоа, тој го зајакнал наративот дека жените од Пакистан застанале на негова страна, а не на неизмерно моќната војска на земјата. За време на нигериските избори во февруари 2023 година, на социјалните мрежи се проширил аудио клип манипулиран со вештачка интелигенција во кој се претставува дека опозициски претседателски кандидат е вмешан во планови за фалсификување на гласањето.

Измислен ТВ канал шири дезинформации/Извор: Фридом Хаус

Содржини манипулирани со вештачка интелигенција се користеле и за оцрнување на изборните противници во САД. Профили на социјалните мрежи поврзани со кампањите на поранешниот претседател Доналд Трамп и гувернерот на Флорида, Рон ДеСантис, кои бараа номинација на Републиканската партија за претседателските избори во 2024 година, споделувале видеа со содржина генерирана од вештачка интелигенција за да ја поткопаат меѓусебната кандидатура. Едно видео вклучувало три фабрикувани слики на Трамп како го прегрнува д-р Ентони Фаучи, кој го предводеше одговорот на федералната влада за КОВИД-19 и останува длабоко непопуларен меѓу критичарите на мерките за ублажување на пандемијата. Со поставување на фабрикуваните слики покрај три вистински фотографии, со видеото била заматена разликата помеѓу фактите и фикцијата за републиканските прелиминарни гласачи. Слично на тоа, во февруари 2023 година, манипулирано видео кое го прикажува претседателот Џо Бајден како дава трансфобични коментари брзо се проширило низ социјалните мрежи. Се претпоставува дека било создадено за да го дискредитира Бајден меѓу гласачите кои ги поддржуваат правата на трансродовите Американци, кои беа нападнати во големи делови од земјата.

Фатени на дело

Уште еден показател за големината на размерот на употреба на вештачка интелигенција за пропагандни цели и искривување на реалноста се неодамнешните наоди на компаниите кои ја создаваат новата технологија и кои раководат со големите социјални мрежи. Имено, на крајот на мај годинава компанијата „Опен АИ“ (OpenAI), креатор на јазичниот четбот „ЧетГПТ“ објави извештај кој открива дека лоши актери ги злоупотребиле нејзините производи за да водат операции за влијание. Компанијата фати пет мрежи на тајни пропагандисти, вклучително и играчи од Русија, Кина, Иран и Израел, кои ги користеле нејзините генеративни алатки за вештачка интелигенција за создавање голем обем на коментари на социјалните мрежи на повеќе јазици и за претворање на написи од вести во објави на „Фејсбук“.

Сличен извештај објави и компанијата „Мета“ која стои зад „Фејсбук“. Во него, исто така, се открива дека мрежи поврзани со Кина, Иран и Израел употребуваат содржина генерирана од вештачка интелигенција за да го обликуваат јавното мислење.

Убедлива како вистината

 

Колку може да биде голема моќта на вештачката интелигенција во однос на влијанието врз јавното мислење покажува неодамнешното истражување на научници од „Станфорд“ и „Џорџтаун“ кои сакале да увидат колку се убедливи пропагандните содржини создадени со помош на четботови. За таа цел, тие анкетирале над осум илјади американски граѓани на кои им биле покажани реални пропагандни содржини и пропаганда креирана со вештачка интелигенција. Во една група фиктивни приказни се тврдело дека Саудиска Арабија ќе помогне во финансирањето на ѕидот на границата меѓу САД и Мексико, а во друга дека западните санкции довеле до недостиг на медицински материјали во Сирија.

Содржината креирана од вештачка интелигенција е убедлива како онаа креирана од луѓето

Речиси половина од луѓето кои ги прочитале приказните во кои лажно се тврдело дека Саудиска Арабија ќе го финансира граничниот ѕид се согласиле со тврдењето. Со тврдењето за сириската медицинска опрема се согласиле 60 проценти од испитаниците. Всушност, истражувачите заклучиле дека пропагандата креирана со вештачка интелигенција била убедлива исто колку е пропагандата креирана од човекот.  

„Во однос на ризиците за општеството, пропагандистите веројатно веќе се добро свесни за можностите на големите јазични модели. Историски, тие брзо ги усвоија новите технологии и инкорпорираа говорници на локални јазици во нивната работа“, се наведува во студијата.

Во неа, се предупредува дека пропагандистите исто така би можеле да користат вештачка интелигенција за да ги изложат граѓаните на голем број написи, а со тоа да го зголемат обемот на пропагандата и да ги отежнат откривањето, бидејќи различниот стил и формулација може да придонесат кон впечаток дека зад одредена содржина стојат ставови на вистински луѓе или вистински извори на вести.

Евтин извор за пропаганда

„НПР“ пренесува дека таканаречените дип фејк (deep fake) видеа предизвикаа тревога пред неколку години, но сè уште не се широко користени во кампањите, најверојатно поради трошоците. Според Алекс Стамос, коавтор на студијата од „Стенфорд“ и „Џорџтаун“ тоа сега може да се промени. Тој опишува дека генеративната вештачка интелигенција може да го смени начинот на кој политичките кампањи ја усовршуваат својата порака. Во моментов, кампањите генерираат различни верзии на нивната порака и ги тестираат против групи на целна публика за да ја најдат најефективната верзија, што во иднина со помош на вештачката интелигенција може да стане непотребно.

Квалитетот на пораките не е толку важен колку динамиката на ширење

Иако теоретски е изводливо генеративната вештачка интелигенција да ги зајакне кампањите, политичките или пропагандните, прашање е во кој момент моделите стануваат економски исплатливи за употреба. Мика Мусер, истражувачки аналитичар во Центарот за безбедност и развојна технологија на Универзитетот „Џорџтаун“, спровел симулации, претпоставувајќи дека странските пропагандисти користат вештачка интелигенција за да генерираат објави на Твитер и потоа да ги прегледаат пред да објавуваат, наместо самите да ги пишуваат твитовите.

Тој тестирал различни сценарија: Што ако моделот објави повеќе употребливи твитови наспроти помалку? Што ако лошите актери треба да потрошат повеќе пари за да избегнат да бидат фатени од платформите на социјалните медиуми? Што ако треба да платат повеќе или помалку за да го користат моделот?

Мусер открил дека моделите со вештачка интелигенција не мора да бидат многу добри за да бидат вредни за употреба – сè додека луѓето можат значително побрзо да ги прегледаат резултатите отколку да пишуваат содржина од почеток.

Генеративната вештачка интелигенција, исто така, не мора да пишува твитови со пораки на пропагандистите за да биде корисна. Може да се користи и за одржување на автоматизирани профили со пишување содржини слични на луѓето пред да станат дел од усогласена кампања за туркање на една порака – со што се намалува можноста автоматизираните профили да бидат фатени од платформите на социјалните медиуми.

И студијата на „Стенфорд“ и „Џорџтаун“ и анализата на Мусер претпоставуваат дека мора да има некаква контрола на квалитетот на пропагандата напишана од компјутер. Но, заклучок е дека квалитетот не е секогаш важен. Имено, повеќе истражувачи забележуваат дека е доволно текстот генериран од машина да биде ефективен само за преплавување на теренот.

„Ако го кажете истото илјада пати на платформа за социјални медиуми, тоа е лесен начин да ве фатат. Но, ако ја кажете истата работа малку поинаку илјада пати, многу помала е веројатноста да ве фатат“, вели Дарен Линвил од Центарот за форензика на медиумите на Универзитетот Клемсон, пренесува „НПР“.

Како да се спречат злоупотреби?

Според „Фридом Хаус“, повеќето модели на вештачка интелигенција се многу нетранспарентни и ефективно се под контрола на неколку компании кои откриваат малку за нивниот развој и обука.

„Нивната неразбирлива структура во основа е во спротивност со демократските вредности како што се транспарентноста, пропорционалноста и отчетноста, а нивните информации често се жаришта на потенцијална пристрасност. Компаниите кои создаваат или распоредуваат системи за вештачка интелигенција, од најновите стартапи до најафирмираните гиганти, треба да негуваат разбирање за претходните напори за зајакнување на одговорноста на платформите, кои произведоа и успеси и неуспеси во изминатата деценија. Но, со оглед на природната склоност на приватниот сектор да се фокусира на создавање профит, неговите производи со вештачка интелигенција бараат надзор од информирана јавност, глобална група на граѓански организации и овластени регулатори“, велат од „Фридом Хаус“.

Потребни се поголема транспаретност и надзор од јавноста

Според оваа невалдина организација, владината регулатива треба да биде насочена кон обезбедување поголема транспарентност, обезбедување ефективни механизми за јавен надзор и давање приоритет на заштитата на човековите права.

„Кога е дизајнирана и употребена безбедно и праведно, вештачката интелигенција може да им помогне на луѓето да избегнат авторитарна цензура, да се спротивстават на лажните и погрешните информации, да ги надгледуваат изборите за да се осигураат дека тие се слободни и веродостојни и да ја зајакне документацијата за кршење на човековите права“, наведуваат од „Фридом Хаус“.

За да се постигне ефективно управување со вештачката интелигенција што ги почитува правата, граѓанското општество треба да биде вклучено од самиот почеток. Непрофитните организации, истражувачките новинари и активистите за човекови права беа незаменливи играчи зад минатите победи за слободата на интернетот.

„Тие можат да изградат и одржат притисок од јавноста и да поттикнат акција од законодавците, регулаторите и индустријата. Креаторите на политиките и нивните партнери од граѓанскиот и приватниот сектор треба да се грижат да не го изгубат моментумот во заштитата на севкупната слобода на интернетот, особено кога технологијата на вештачката интелигенција ги зголемува силите што го поттикнуваат нејзиниот повеќегодишен пад“, нагласуваат од „Фридом Хаус“.

Ефикасната одбрана на слободата на интернет не бара само развој на системи за управување со вештачка интелигенција, туку и справување со долготрајните закани за приватноста, слободното изразување и пристапот до информации кои ја кородираат пошироката дигитална средина.