Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

"Изображенията в днешно време може да са силно подвеждащи"

Проф. Ирина Гуревич: Образователните институции носят отговорност за дигиталната грамотност

"Технологията не е в степен на такава зрялост, която да вземе решението сама"

| Интервю
Снимка: Pixabay

Възможно ли е изкуственият интелект да прави проверка на фактите. За сега учените правят само проучвания по въпроса. Добромир Видев разговаря по темата с проф. Ирина Гуревич - един от водещите учени в сферата на обработката на естествен език. Тя е директор на Лабораторията за обработка на знания (UKP) в Техническия университет (TU) в Дармщат, Германия и президент на Асоциацията за компютърна лингвистика, както и съдиректор на програма в рамките на ELLIS -  европейската лаборатория за обучение и интелигентни системи. Проф. Ирина Гуревич беше лектор на програмата ИНСАЙТ в София.  

Наистина ли е възможно да се автоматизира процесът на проверка на фактите? 

Мисля, че пълна автоматизацията в момента е невъзможна. Въпреки това можем да автоматизираме отделни стъпки, като например извличането на подходящи документи и търсенето на подходящ пасаж в документите. Дори и процеса на класифициране като подкрепящи или опровергаващи твърдението или може би неутрални. Постижимо е да са автоматизират подобни стъпки. 

Тези задачи са сравнително лесни за машината. А и имаме търсачки с висока точност например за извличане на информация. Въпреки това, разсъжденията върху извлечените доказателства са много трудна задача дори за хората. А също така е много трудна за машините.  

Това е доста трудно и за самите журналисти. 

Вие всъщност извършвате много проверки на фактите в работата си. И това е подобно на работата, която извършват и алгоритмите при проверката на фактите. 

Може ли да ми дадете примери как развивате тази автоматизация на процесите?

Разбира се, че използваме изкуствен интелект. Моята област е естествената обработка на машинен език. Така както за търсачките, има известно сходството между измерванията на твърдението, което е „на входа“ и документите, или изречението е в рамките на документите. Така че, ако изреченията са подобни, те се считат за подходящи. И тогава има втора стъпка на класификация. И тук обикновено използваме контролирано машинно обучение. Ние създаваме данни за обучение, където имаме случаи, които са обозначени от хората като подкрепящи или опровергаващи твърдението. И след това използваме тези данни за обучение, за да извлечем статистически характеристики, които ни позволяват класифицира нови данни, които пристигат. И така работи….. 

А до каква степен може да бъде развита тази технология за автоматична проверка на фактите? 

В днешно време всички говорят за големите езикови модели. Така че технологията напредва много, много бързо. Мисля, че тази технология може да улесни проверката на фактите по много начини. Технологията обаче има и огромен недостатък, тъй като знаем, че големите езикови модели са перфектни за генериране на фалшиви новини. И ние ги наричаме халюцинации. Освен това е голямо изследователско предизвикателство как да не позволяват на езиковите модели да халюцинират факти. Например по време на пандемията от КОВИД имахме твърдения, че хидрокси-хлоро-хин-а може да лекува. Това беше разпространено в социални мрежи. И някои хора възприемат тези твърдения за верни. Имаше случаи, в които това вещество е боло приемано. А хората са починали от него. Другият тип фалшиви новини всички знаем, че е например пропаганда относно войната, която се случва в Близкия изток. Така че в такива много емоционални настройки, тази дезинформация може да доведе до ескалация на конфликта и може да доведе до огромен брой убити. Или както беше със съобщенията за ударите по болницата в Газа. 

Ние не знаем кое е истина или не. Обикновено в такива случаи моделът прави извод в рамките на най-простия случай - вярно невярно, или не знам. В по-напредналите модели те биха извели и вероятността това да е правилно или грешно, плюс обяснение защо. И това обяснение ще включва доказателствата. Така че потребителят може разбере как машината прави своя извод. 

Така че крайната преценка зависи от потребителя. Без значение кой прави проверката на фактите – машина или човек, или група хора, или журналист.  

Смятам, че технологията не е в степен на такава зрялост, която да вземе решението сама. Мисля, че крайното решение трябва да бъде на човека. И човекът, който дълго време би използва тази технология, може и да я персонализира, така че машината да може да учи от обратната връзка на потребителя. Например ако потребителят се доверява на определени източници, моделът може да го възприеме като доверен. 

Проф. Гуревич, а как стои въпросът със изображенията? 

Да. Изображенията в днешно време може да са силно подвеждащи, защото могат да бъдат заснети в един контекст и представени за достоверни в друг. И това ги прави много трудни за разпознаване от потребителя. След това има всички тези фалшиви изображения, които могат много лесно да бъдат генерирани в наши дни от технологията. Или изображения, които не са напълно ефектни, но които са модифицирани, за да представят неверни факти. За тяхното разпознаване има технологии, които се разработват. Но не мога сега да ви споделя. Но най- просото, което всеки потребител може да направи, е да постави изображението в търсачката на Google за изображения и по този начин можете да донякъде реконструира историята зад изображението. Можете да видите подобни изображения. И по този начин става по-лесно за да направите заключение дали изображението може да е истинско или не. 

По какви проекти работите сега?  

Първият проект е за твърдения в социалните медии. Твърдения, които са придружени от научна статия, която подкрепя твърдението. Обикновено, ако видим „научна статия“, смятаме, че щом науката е достоверна, няма да се наложи да отваряме статията. Ние смятаме, че твърдението е вярно, но всъщност твърдението е невярно. Има логическа заблуда, неправилно аргументиране, което свързва твърдението със съдържането на статията. Тези неправилни аргументи са описани в статии, посветени на проверка на фактите. И ние ги анализираме, за да разкрием тези заблуди. Това е нашето тренировъчно поле, за да изградим автоматичен инструмент, който може да намери тези заблуди в нови с известни такива случаи. Така че това е първият проект. Такива случаи има много в социалните медии. Аз не съм голям потребител на социални медии, просто ги ползвам от време на време. Но именно тези логически заблуди се използван доста често, за да се разпространява дезинформация. 

Като учен това не ви ли плаши? 

Да. Плаши ме до някаква степен. Особено сега, когато знам, че това се случва в света. Това е много, много смущаващо и пропагандата е изключително силна. Така че дори високо професионални потребители на информация не могат да оценят точно информацията. Така че това е много трудна задача. 

Вторият проект е в мултимодална проверка на факти. Това е всъщност проучването ни за проверка на изображения. Макар че моята основната област на работа е обработката на естествен език и много често изображенията биха имали придружаващ текст, който може да използваме, за да разсъждаваме за изображението; но изображенията стават изключително широко разпространени. Много е лесно да направите снимка, за да генерирате снимка. А изображения може да предизвикат много емоции у хората, нали? Много бързо, защото не е необходимо прочетете дълга статия. Можете просто да погледнете изображението и ако видите ранени деца. Това веднага вашите емоциите експлодират. И резултатът от този продукт би трябвало да бъде инструмент, който помага за проверката на фактите, за да отговори на пет въпроса: за произхода, датата, съдържанието на изображението, за да се оцени достоверността и истинността зад изображението. 

Проф. Гуревич, като учен можете ли да ми кажете вие лично, какво бихте посъветвали хората, които са доста по-чести потребители на социалните медии от вас? 

Бих ги посъветвала да бъдат изключително внимателни с информацията, която те четат в социалните медии. Бих ги посъветвал да се постараят да получат известна цифрова грамотност. Как да оценяват съдържание, за да не бъдат подведени от някои кампании. За тази дигиталната грамотност мисля, че образователните институции носят отговорност. В германските училища децата получават обучение как да използват Уикипедия, как да ползват интернет. Това е добра практика. 
По публикацията работи: Мария Сивкова - Илиева


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Генералният секретар на НАТО Марк Рюте (вляво) и гръцкият министър-председател Кириакос Мицотакис - Атина, 26 ноември 2024

Рюте призова съюзниците в НАТО да увеличат помощта за Украйна

Рекордните 188 дрона е изстреляла Русия през изминалата нощ срещу Украйна. Нанесени са щети върху критична инфраструктура и жилищни сгради. Генералният секретар на НАТО Марк Рюте призова за увеличаване на военната помощ за Украйна. По-голямата част от Украйна беше под тревога в продължение на часове. 17 региона на страната, включително столицата Киев,..

публикувано на 26.11.24 в 15:26
Валерий Тодоров

Валери Тодоров: Прекалената амбиция на украинския президент не дава възможност за спокойни решения

Прекалено милитаризирахме мисленето, действията и говореното, и се премина към ядрена риторика – ядрени удари, ядрено оръжие, това е като Станиславски – щом има пушка на стената, трябва да гръмне. Нека не си играем с ядрената риторика, предуреди Валери Тодоров, бивш кореспондент на БНР, БНТ и БТА в Москва и бивш генерален директор на БНР, в..

публикувано на 26.11.24 в 15:15

Процесът срещу шестимата българи във Великобритания, обвинени в шпионаж, още не е започнал

Процесът срещу шестимата български граждани, обвинени в шпионаж в полза на Русия, който трябваше да започне в 12.30 часа българско време, още не е започнал, предаде нашият кореспондент в Лондон Веселин Паунов от Централния наказателен съд Олд Бейли.  Процесът трябваше да започне на 27 октомври и веднъж вече беше отсрочен.  Все още не е ясно дали ще има..

публикувано на 26.11.24 в 15:06
Стоян Мавродиев

СГС уважи искането на прокуратурата за европейска заповед за арест на Стоян Мавродиев

Софийският градски съд уважи искането на прокуратурата да бъде издадена европейска заповед за арест за бившия директор на Българската банка за развитие Стоян Мавродиев.  Искането е във връзка с обвинението на Мавродиев по разследването за отпуснат кредит за близо 150 млн. лв. от Българската банка за развитие. По него са обвинени още Румен Гайтански и..

публикувано на 26.11.24 в 14:50

Очаква се кабинетът по сигурността на Израел да обсъди плана за примирие с "Хизбула"

Изглежда, че Израел ще одобри плана на САЩ за прекратяване на огъня с проиранската ливанска групировка "Хизбула". Това става ясно от предпазливите коментари на израелски и ливански високопоставени служители. Израел настоява за ефективно прилагане от ООН на споразумението за примирие в Ливан и няма да прояви никаква толерантност към..

публикувано на 26.11.24 в 14:46
Григор Сарийски

Григор Сарийски: България е около 60% от средноевропейското ниво по покупателна способност

България е около 60% от средноевропейското ниво по покупателна способност. Това каза пред БНР доц. Григор Сарийски от Института за икономически изследвания на БАН  и коментира: "Румъния, която 2006-2007 г. беше с подобна на нашата покупателна способност, а в момента е с 1/7 по-добър показател. Преди няколко години България и Румъния имаха сходни..

публикувано на 26.11.24 в 14:29

Животновъди във Велинград няма да допуснат умъртвяването на овце

Собственици на овце във Велинград заявиха, че няма да допуснат умъртвяването на 1700 елитни овце на колегата им Димитър Илиев. За огнище на чума в региона съобщиха от Агенцията за безопасност на храните след излезли резултати от взета проба. Животновъдите твърдят, че животните са здрави и настояват за повторни проби в лицензирани лаборатории...

публикувано на 26.11.24 в 14:07