Повече от 60 страни, представляващи половината от световното население – 4 милиарда души, ще гласуват през 2024 г. на президентски, парламентарни и местни избори.
В САЩ и Русия ще има президентски избори, които до голяма степен ще оформят световната политика за следващите няколко години напред, а и изхода от войната в Украйна.
Или – задълбочаването ѝ.
Тези избори ще варират от масови – многодневните парламентарни избори в Индия (най-големите в света тази година) и президентските избори в Индонезия, които ще са най-големите еднодневни избори през 2024 г., до изборите за Европарламент и важните и за България президентски избори в Северна Македония.
Една от основните заплахи пред за честното провеждане на тези избори са пропагандата чрез дезинформация, подпомагани от изкуствения интелект.
Дезинформацията е поставена на първо място сред 10-те най-големи рискове тази година, се посочва в доклада на Global Risks за 2024 година.
Според констатациите в него лесните за използване интерфейси на широкомащабни AI-модели са довели до „експлозия на фалшифицирана информация“ и така нареченото „синтетично“ съдържание – от сложно клониране на глас и deep fake-видеа до фалшиви уебсайтове.
Докладът също така предупреждава, че дезинформацията на изборите тази година може да дестабилизира обществата чрез дискредитиране и поставяне под въпрос на легитимността на правителствата.
Възможните заплахи, на които можем да станем наблюдатели по време на изборите в световен план, ще идват от автоматизирани обаждания и насочени
автоматизирани текстови съобщения с невярна информация, улеснени от изкуствен интелект, целящи да променят поведението на избирателите.
Поддръжниците на изкуствения интелект пък са на мнение, че същата генеративна технология (GenAI), която се възприема като заплаха за подкопаване на демокрациите, може също да помогне в борбата с престъпните сили, които се стремят да го направят.
Фактът, че половината от населението на планетата ще гласува през тази година означава, че всяка дезинформация може да се усилва експоненциално в своето количество и разнообразие.
Това е заплаха за много избори, които ще се проведат – имаме сред тях ядрени сили.
Едни от най-големите демокрации и мощни държави в света ще гласуват по едно и също време в свят, в който информацията, разпространена сред една публика, може да се разпростре сред публика в друга държава и така да повлияе на изборите там“, коментира в интервю за BBC Бен Ансел, професор в университета в Оксфорд.
По думите му генерирани от изкуствен интелект новинарски бюлетини преживяват бум в държави като Бангладеш например.
В Пакистан пък наскоро бившият премиер Имран Кан, който понастоящем е в затвора,
се обърна към поддръжниците на забранената си партия с помощта на изкуствен интелект –
в социалните мрежи беше изпратено съобщение с неговия образ и глас.
В Пакистан използването на дийпфейк би бил много ефективен начин за разделението на населението, което е съставено от мюсюлмани и хиндуисти“, обяснява проф. Ансел.
Изкуственият интелект подпомага и разрастването на феномен в социалните мрежи, който отдавна е изместил „информационния балон“. Става въпрос за така наречената
„заешка хралупа“ (rabit hole),
където потребителите се информират единствено за нещата, от които се интересуват.
Пример за „продукт“ на rabit hole е движението QAnon в САЩ, което разпространява предимно конспиративни теории.
„Вашите съмнения и възгледи се подсилват като в ехо стая и вие сте напълно убеден в твърденията, които се разпространяват“, обяснява проф. Ансел начина, по който работи този феномен.
Този подход може да бъде използван и по време на избори, създавайки ефекта на „отрицателната пристрастност“. С други думи, вместо да гласувате за конкретен кандидат по убеждение и за конкретни политически идеи и ценности, вие гласувате с отрицателен вот за опонента му, когото не само не харесвате, но и мразите.
Това става по начин, по който заешката хралупа или ехо стаята подсилват информацията, по начин, който е много по-ефективен, като ви прави емоционални. Вие започвате да смятате не само, че отсрещната страна не е права, вие смятате, че тя е и неморална“, обяснява още професорът.
Професор Стюард Ръсел, който изучава изкуствения интелект от близо 45 години, смята, че инструментите, с които изкуствения интелект борави през последните няколко години,
„пораждат притеснение по отношение на приложението им“.
„Най-популярното сред хората е ChatGPT, който позволява интеракция и разговор. Това може да стане чрез текст или глас, защото сега системите са способни да възпроизведат много реалистична човекоподобна реч“, обяснява проф. Ръсел пред BBC.
По думите му т.нар. генеративен изкуствен интелект може да произведе съдържание като например цели параграфи от книги, видео, истории, картини и образи, но дори и да организира кампании, стига да зададем параметрите.
„Една форма на дезинформация, която е много ефективна, е видео, което показва как твоят политически опонент прави неща, които всъщност той не е направил, но вие искате да накарате останалите хора да повярват, че го е направил. Можете също да генерирате много реалистично изглеждащи новини, дори цели уебсайтове, и да изпращате съобщения директно на хора“, пояснява Ръсел.
Това, което отличава дезинформацията, генерирана чрез изкуствен интелект, от „конвенционалната“ дезинформация, която можем да видим, чуем или прочетем в традиционните медии, е възможността технологията да подбере с точност аудиторията, до която трябва да достигне тази информация.
Проф. Ръсел обяснява как става това. Да си представим, че даден инструмент, базиран на изкуствения интелект може да събере цялата налична информация за нас в кибер пространството – наши постове в социалните мрежи, снимки, общуване с други потребители, размяна на имейли и т.н. На базата на профила, който ще ни бъде изграден, инструментът ще достави до нас точната информация, от която той прецени, че вие се нуждаем.
Това ще ви бъде изпратено чрез имейл или друг вид съобщение и ще бъде персонализирано, така че да ви „докосне“ най-много.
И тъй като сега тази технология е напълно автоматизирана, ако в Русия тя е струвала 20 млн. долара през 2016 г., сега цената ѝ е 1000 долара“, обяснява проф. Ръсел.
Той посочва, че изкуственият интелект има и позитивен ефект. Така например щатската избирателна комисия във Вашингтон използва технологията, за да информира хората относно правата им за гласуване и за да не се поддават на дезинформация.
Има технологии, които могат да засичат дийпфейк, но това е много трудно, обяснява проф. Ръсел.
Самите технологии за създаване на фалшиви видеа съдържат в себе си и детектор. В процеса на „обучение“ той посочва на генератора на видеото, че го засича като фалшиво и процесът продължава, докато всички следи от манипулация бъдат заличени.
„Но дори и потребителите да разполагат с детектор и да открият, че едно видео е deep fake, кой ще накара социалните мрежи да свалят съдържанието, след като те имат интерес от посещения и монетаризирането им?“, пита проф. Ръсел.
Той е на мнение, че социалните мрежи имат по-голяма мощ, от който и да е диктатор.
„Погледнете само колко много хора колко часове прекарват в общуване през социалните мрежи – става въпрос буквално за милиарди хора, които прекарват 2-3-4 дори 6 часа на ден“, казва той и допълва, че хората се информират именно през тези канали.
Алгоритмите имат много проста цел – да се увеличи броят на кликовете и да ангажира потребителите на платформата за по-дълго време. Така ще се открие възможност да бъдат показани повече реклами.
„Това, върху което кликаме, на практика ни създава информационния балон. Ако прочетем вестника, в него ще видим друга реалност. Алгоритмите обаче ни доставят историите, които ние харесваме, защото те така разбират, че е по-вероятно да кликнем на една определена. Така се получава филтър, от който не виждаме какво се случва в останалия свят“, обяснява професорът.
По думите му обаче това се оказва не най-добрият начин за ангажирането на публиката.
„Най-добрият начин е да ви вкарат в заешка хралупа, да ви доставят поредица от съдържание, което съвпада с вашите представи за реалността и целта на този процес на промиване на мозъци е да ви направи по-предсказуеми за това, което сте готови да консумирате. Алгоритъмът не се интересува от нищо друго, а така вие можете да „паднете“ в дупката и да се превърнете в еко-терорист, неофашист или центрист“, обяснява той.
Добрата новина е, че все пак има опити за регулации и технологии, колкото и да са несъвършени, за засичане на синтетични deep fake видеа и гласови съобщения.
По-големият проблем обаче е в разпространяването на дезинформация от политиците.
Според неправителствената организация за проверка на факти FullFact през изминалата година повече от 50 членове на британския парламент са правили подвеждащи изявления, без да ги коригират в последствие.
И тъй като крайната цел на дезинформацията е отделният потребител, би трябвало той да е в основата и на противодействието на това явление. Когато инструментите на изкуствения интелект работят срещу свободата на словото, трябва да е ясно, че те могат да бъдат използвани и за подобряването на качеството на информацията, която поднасят медиите.
Освен с регулации за интегриране на новите технологии в борбата с дезинформацията са необходими и усилия за подготовката на всеки един жител на планетата за културата на „консумиране“ на информацията, която му се поднася.