Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

"Изображенията в днешно време може да са силно подвеждащи"

Проф. Ирина Гуревич: Образователните институции носят отговорност за дигиталната грамотност

"Технологията не е в степен на такава зрялост, която да вземе решението сама"

| Интервю
Снимка: Pixabay

Възможно ли е изкуственият интелект да прави проверка на фактите. За сега учените правят само проучвания по въпроса. Добромир Видев разговаря по темата с проф. Ирина Гуревич - един от водещите учени в сферата на обработката на естествен език. Тя е директор на Лабораторията за обработка на знания (UKP) в Техническия университет (TU) в Дармщат, Германия и президент на Асоциацията за компютърна лингвистика, както и съдиректор на програма в рамките на ELLIS -  европейската лаборатория за обучение и интелигентни системи. Проф. Ирина Гуревич беше лектор на програмата ИНСАЙТ в София.  

Наистина ли е възможно да се автоматизира процесът на проверка на фактите? 

Мисля, че пълна автоматизацията в момента е невъзможна. Въпреки това можем да автоматизираме отделни стъпки, като например извличането на подходящи документи и търсенето на подходящ пасаж в документите. Дори и процеса на класифициране като подкрепящи или опровергаващи твърдението или може би неутрални. Постижимо е да са автоматизират подобни стъпки. 

Тези задачи са сравнително лесни за машината. А и имаме търсачки с висока точност например за извличане на информация. Въпреки това, разсъжденията върху извлечените доказателства са много трудна задача дори за хората. А също така е много трудна за машините.  

Това е доста трудно и за самите журналисти. 

Вие всъщност извършвате много проверки на фактите в работата си. И това е подобно на работата, която извършват и алгоритмите при проверката на фактите. 

Може ли да ми дадете примери как развивате тази автоматизация на процесите?

Разбира се, че използваме изкуствен интелект. Моята област е естествената обработка на машинен език. Така както за търсачките, има известно сходството между измерванията на твърдението, което е „на входа“ и документите, или изречението е в рамките на документите. Така че, ако изреченията са подобни, те се считат за подходящи. И тогава има втора стъпка на класификация. И тук обикновено използваме контролирано машинно обучение. Ние създаваме данни за обучение, където имаме случаи, които са обозначени от хората като подкрепящи или опровергаващи твърдението. И след това използваме тези данни за обучение, за да извлечем статистически характеристики, които ни позволяват класифицира нови данни, които пристигат. И така работи….. 

А до каква степен може да бъде развита тази технология за автоматична проверка на фактите? 

В днешно време всички говорят за големите езикови модели. Така че технологията напредва много, много бързо. Мисля, че тази технология може да улесни проверката на фактите по много начини. Технологията обаче има и огромен недостатък, тъй като знаем, че големите езикови модели са перфектни за генериране на фалшиви новини. И ние ги наричаме халюцинации. Освен това е голямо изследователско предизвикателство как да не позволяват на езиковите модели да халюцинират факти. Например по време на пандемията от КОВИД имахме твърдения, че хидрокси-хлоро-хин-а може да лекува. Това беше разпространено в социални мрежи. И някои хора възприемат тези твърдения за верни. Имаше случаи, в които това вещество е боло приемано. А хората са починали от него. Другият тип фалшиви новини всички знаем, че е например пропаганда относно войната, която се случва в Близкия изток. Така че в такива много емоционални настройки, тази дезинформация може да доведе до ескалация на конфликта и може да доведе до огромен брой убити. Или както беше със съобщенията за ударите по болницата в Газа. 

Ние не знаем кое е истина или не. Обикновено в такива случаи моделът прави извод в рамките на най-простия случай - вярно невярно, или не знам. В по-напредналите модели те биха извели и вероятността това да е правилно или грешно, плюс обяснение защо. И това обяснение ще включва доказателствата. Така че потребителят може разбере как машината прави своя извод. 

Така че крайната преценка зависи от потребителя. Без значение кой прави проверката на фактите – машина или човек, или група хора, или журналист.  

Смятам, че технологията не е в степен на такава зрялост, която да вземе решението сама. Мисля, че крайното решение трябва да бъде на човека. И човекът, който дълго време би използва тази технология, може и да я персонализира, така че машината да може да учи от обратната връзка на потребителя. Например ако потребителят се доверява на определени източници, моделът може да го възприеме като доверен. 

Проф. Гуревич, а как стои въпросът със изображенията? 

Да. Изображенията в днешно време може да са силно подвеждащи, защото могат да бъдат заснети в един контекст и представени за достоверни в друг. И това ги прави много трудни за разпознаване от потребителя. След това има всички тези фалшиви изображения, които могат много лесно да бъдат генерирани в наши дни от технологията. Или изображения, които не са напълно ефектни, но които са модифицирани, за да представят неверни факти. За тяхното разпознаване има технологии, които се разработват. Но не мога сега да ви споделя. Но най- просото, което всеки потребител може да направи, е да постави изображението в търсачката на Google за изображения и по този начин можете да донякъде реконструира историята зад изображението. Можете да видите подобни изображения. И по този начин става по-лесно за да направите заключение дали изображението може да е истинско или не. 

По какви проекти работите сега?  

Първият проект е за твърдения в социалните медии. Твърдения, които са придружени от научна статия, която подкрепя твърдението. Обикновено, ако видим „научна статия“, смятаме, че щом науката е достоверна, няма да се наложи да отваряме статията. Ние смятаме, че твърдението е вярно, но всъщност твърдението е невярно. Има логическа заблуда, неправилно аргументиране, което свързва твърдението със съдържането на статията. Тези неправилни аргументи са описани в статии, посветени на проверка на фактите. И ние ги анализираме, за да разкрием тези заблуди. Това е нашето тренировъчно поле, за да изградим автоматичен инструмент, който може да намери тези заблуди в нови с известни такива случаи. Така че това е първият проект. Такива случаи има много в социалните медии. Аз не съм голям потребител на социални медии, просто ги ползвам от време на време. Но именно тези логически заблуди се използван доста често, за да се разпространява дезинформация. 

Като учен това не ви ли плаши? 

Да. Плаши ме до някаква степен. Особено сега, когато знам, че това се случва в света. Това е много, много смущаващо и пропагандата е изключително силна. Така че дори високо професионални потребители на информация не могат да оценят точно информацията. Така че това е много трудна задача. 

Вторият проект е в мултимодална проверка на факти. Това е всъщност проучването ни за проверка на изображения. Макар че моята основната област на работа е обработката на естествен език и много често изображенията биха имали придружаващ текст, който може да използваме, за да разсъждаваме за изображението; но изображенията стават изключително широко разпространени. Много е лесно да направите снимка, за да генерирате снимка. А изображения може да предизвикат много емоции у хората, нали? Много бързо, защото не е необходимо прочетете дълга статия. Можете просто да погледнете изображението и ако видите ранени деца. Това веднага вашите емоциите експлодират. И резултатът от този продукт би трябвало да бъде инструмент, който помага за проверката на фактите, за да отговори на пет въпроса: за произхода, датата, съдържанието на изображението, за да се оцени достоверността и истинността зад изображението. 

Проф. Гуревич, като учен можете ли да ми кажете вие лично, какво бихте посъветвали хората, които са доста по-чести потребители на социалните медии от вас? 

Бих ги посъветвала да бъдат изключително внимателни с информацията, която те четат в социалните медии. Бих ги посъветвал да се постараят да получат известна цифрова грамотност. Как да оценяват съдържание, за да не бъдат подведени от някои кампании. За тази дигиталната грамотност мисля, че образователните институции носят отговорност. В германските училища децата получават обучение как да използват Уикипедия, как да ползват интернет. Това е добра практика. 
По публикацията работи: Мария Сивкова - Илиева


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Министър-председателката на Италия Джорджа Мелони

Г-7: Дипломатическо решение на конфликта в Близкия изток все още е възможно

Лидерите на Г-7 обявиха, че дипломатическо решение на конфликтите в Близкия изток "все още е възможно“. То беше публикувано след края на виртуалната среща на лидерите на Г-7, която беше свикана от италианския премиер Джорджа Мелони в качеството ѝ на ротационен председател на групата. Въздушни удари и сражения между израелски части и бойци на..

публикувано на 02.10.24 в 19:13
Пожар в апартамент след израелски въздушен удар в Дахие, Бейрут, Ливан, 2 октомври 2024 г.

Въздушни удари и сражения между израелски части и бойци на "Хизбула" в Ливан

След противоречиви съобщения вчера, днес и ливанската шиитска групировка "Хизбула", и израелската армия потвърдиха за сблъсъци на територията на Ливан. Израелското командване изпрати подкрепления от пехотни и бронирани части към северната си граница. Съобщи и за първите жертви в започналата във вторник през нощта сухопътна операция - в схватките с..

публикувано на 02.10.24 в 19:05
Служебният министър-председател Димитър Главчев

Премиерът: Няма актуална заплаха за сигурността на страната

"Няма актуална заплаха за сигурността на страната". Това каза служебният министър-председател Димитър Главчев след заседанието на Съвета за сигурността към Министерския съвет във връзка със ситуацията в Близкия изток. "Обединихме се около това да призовем за деескалация на конфликта в Близкия изток, което е в синхрон с европейската позиция", каза още..

публикувано на 02.10.24 в 18:56

РИК- Кюстендил назначи 2 222 членове на секционните комисии в деветте общини в областта

РИК-Кюстендил със свое решение назначи 2 222-та членове на секционните комисии в деветте общини в областта. Това не е довело до сериозни разногласия и проблеми, каза председателят на комисията Венцислав Механджийски. На предварителните консултации при кметовете на общини имаше известно напрежение - особено в Община-Кюстендил, където..

публикувано на 02.10.24 в 18:48

Заседава Съветът по сигурността към Министерския съвет

Тази вечер Съветът по сигурността към правителството провежда заседание - министрите на вътрешните работи, на отбраната, началниците на ДАНС, разузнаването и други служби бяха свикани от премиера Димитър Главчев, за да обсъдят мерки за сигурност в отговор на ескалацията на напрежението в Близкия изток. В рамките на заседанието на Съвета по сигурността..

публикувано на 02.10.24 в 18:12
Петър Ганев

Петър Ганев: Забавянето на плащанията по ПВУ влияе директно на Бюджета

Забавянето на плащанията по Плана за възстановяване и устойчивост (ПВУ) влияе директно на Бюджета. Това каза пред БНР Петър Ганев, старши икономист в Института за пазарна икономика (ИПИ). Ходовете за намаляване на загубите са свързани с активна работа в парламента , обясни той: "Не е просто до готовност на администрацията, за да тръгнат някакви..

публикувано на 02.10.24 в 18:07
Снимката е илюстративна

Напускащи Ливан и Израел пристигат в Кипър по въздух и море

По въздух и море пристигат в Кипър чуждестранни граждани, напускащи Ливан и Израел заради ескалацията на военните действия в района. Пристанищата и летищата на страната, най-близката безопасна дестинация до конфликтната зона, са в пълна готовност да приемат засиления поток евакуиращи се, заяви днес правителството след проведеното извънредно заседание на..

публикувано на 02.10.24 в 18:04