Изкуственият интелект има все по-осезаемо присъствие на бойните полета в Украйна и в ивицата Газа. Израелските сили използват няколко приложения, за да разпознават, проследяват и поразяват бойци на "Хамас", като последващите удари често водят до голям брой цивилни жертви.
Анна Бакиарели, технологичен експерт в "Human Rights Watch", обърна наскоро внимание, че "Google" премахна изричното предупреждение приложенията му с изкуствен интелект да не се използват в оръжейни системи. Не е известно дали това е продиктувано от конкретни настоящи или бъдещи разработки.
На този фон, на третата по рода си среща на върха за изкуствения интелект в Париж, Великобритания и Съединените щати отказаха да подпишат финалната декларация. А американският вицепрезидент Джей Ди Ванс обобщи подхода на Белия дом - не бива регулациите да спъват светкавичното развитие.
Можем ли обаче да се доверим на самоконтрола на големите технологични компании, за да ни предпазят от потенциалните вреди от изкуствения интелект?
"Голяма част от тези технологии не е изпробвана предварително, а те вече водят до решения на бойните полета, за които не се носи отговорност. От тази гледна точка имаме нужда от задължаващи международни ограничения. Виждаме как Google сами се отказаха от доброволните си принципи, а въобще не е ясно дали те са били спазвани.
Има общ проблем с това големите частни компании да се саморегулират, защото тези правила най-напред са съобразени с техния интерес и печалби, а по този начин се изключва и възможността да са обект на проверка. "Гугъл" вече дори не твърди, че няма да разработва изкуствен интелект за оръжия, а стъпките на подобна голяма компания се следват от целия сектор".
-Както и предишни големи конфликти в историята, войните в Украйна и Газа се превръщат и в демонстрация на нови технологии.
Тази седмица на срещата на върха за изкуствения интелект в Париж видяхме друга демонстрация. Американският вицепрезидент Джей Ди Ванс обяви, че Съединените щати няма да налагат регулации, които да спъват светкавичното AI-развитие.
Видно е, че разбиранията на големия технологичен бизнес и Белия дом вече са уеднаквени. Крие ли това опасности?
- Джей Ди Ванс каза също, че иска изкуственият интелект да е от полза на всички американци. Белият дом обаче отмени ограниченията върху AI-разработките, наложени от предишната администрация. Така бизнес интересите се поставят пред тези на всички американци, с изключение на притежателите на акции в тези компании.
Декларацията в Париж съдържаше целите изкуственият интелект да е отворен, включващ, прозрачен, етичен, безопасен и надежден, като е съобразен и с международните правни рамки. Трудно е човек да е несъгласен с нещо от изброеното. САЩ и Великобритания се оплакват, че декларацията не позволява изрично използването на изкуствения интелект в националната сигурност.
Ние обаче знаем, че такива изключения могат да се допускат във вече действащи регулации. Европейският закон по темата степенува различните употреби на изкуствения интелект, включително високорисковите, като съдържа в себе си целта да се зачитат човешките права. В същото време законът има вратички, позволяващи противоречива употреба на такива приложения в опазването на обществения ред и граничната охрана.
Това не е толкова хубаво, но ни показва, че общата регулация може да съдържа подобни изключения. При това положение отказът на САЩ и Великобритания да подпишат декларацията е политически сигнал, че бизнесът е над всичко, големите технологични компании имат място в Белия дом и могат сами да си пишат правилата, съобразени най-напред с икономическите им интереси.
- И тази седмица Илон Мъск вече започна да ни говори от Овалния кабинет. Споменахте общия европейски закон за изкуствения интелект. В Париж Би Би Си интервюира Ерик Шмид - технологичен милиардер, заемал различни високи постове в "Гугъл". Според него общата регулация води до това, че AI-революцията няма да се случи в Европа. Тоест - регулациите спират напредъка, включително полезните приложения на изкуствения интелект в търсенето на лек за тежки болести, в образованието и всякакви сфери.
- Логично е да се запитаме каква точно ще е тази революция. Дали технологията ще може да се ползва навсякъде и от всеки, с каквато иска цел, без прозрачност и без никакъв контрол. Тя бива от помощ в здравеопазването, в следващия момент се ползва за решения дали някой да получи определено лечение или не, без да обсъждаме дали това е етично.
Виждаме полезната употреба на изкуствения интелект в различни сфери, включително и в медицината. Регулациите могат да насочат инвестициите именно към тази доказано полезна употреба, като едновременно с това се носи ясна отговорност за лоши решения. Ако разглеждаме всичко чрез двоичното противопоставяне "никакви регулации или абсолютно регулиране", от картината изчезва именно възможността регулациите да подпомагат позитивното развитие.
- Вие следите конкретно съвместимостта на разработките с човешките права. И днес говорихме за противоречивата военна употреба на изкуствения интелект за разпознаване на мишени в Газа и Украйна, като от определена перспектива можем да твърдим, че компютърен алгоритъм вече взима решения дали някой да живее или да умре. Каква друга употреба на изкуствения интелект ви притеснява от тази перспектива?
- Има документирани случаи, в които компютърни системи възпроизвеждат определени човешки предразсъдъци като дискриминират определени групи хора или се ръководят от стереотипи как човек трябва или не трябва да изглежда, какво е опасно поведение и как обществата трябва да работят. Говорим за автоматизирани системи, използвани от властите за определяне на получатели на социални помощи. Имаме такива изследвания за Обединеното кралство и Йордания. Алгоритъм отхвърля правото на истински нуждаещи се хора, на базата на стереотипи, което решение те не могат да обжалват.
Виждаме и употреба на изкуствен интелект в противоречие с поверителността на личните данни и комуникация, както и за ограничаване на свободата на изразяване и правото на сдружаване. Това засяга и технологиите за проследяване чрез биометрични данни, включващи разпознаване на лица в обществени пространства. Доскоро ги свързвахме най-вече с употреба от страна на властите в авторитарни държави като Русия или Китай, но сега тази употреба се разпространява по-широко.
- През последните години "Гугъл" ограничиха числеността и значението на екипа им за т.нар. AI-приравняване - грижата развитието на технологията да е съобразено с човешките права. Миналата година Сам Алтман беше уволнен и преназначен за шеф на OpenAI, като се спекулираше че спорът е около употребата на изкуствения интелект за масово наблюдение. Това не беше потвърдено, но попада в по-големите притеснения за разработката на т.нар. общ изкуствен интелект - машина със собствено съзнание и разбирания - която взима големи решения за човечеството без етична основа.
- Аз не съм разработчик и не мога да ви кажа дали общият изкуствен интелект е близо. Хората от индустрията, с които съм разговаряла, не смятат така, а някои поставят под въпрос дали изобщо е възможно да се стигне до него. Можем да кажем, че имаме проблеми със сегашната употреба на изкуствения интелект и те трябва да ни притесняват.
Общият изкуствен интелект е удобно рекламно средство за технологичните компании. Дайте ни пари и ние ще ви дадем най-мощното технологично средство в историята на човечеството. Това е лозунг, който да привлече правителствени ресурси. В същото време, ако не можем да дадем етична основа на сегашната употреба на изкуствения интелект в опазването на обществения ред или в социалната сфера, то защо изобщо да обмисляме такава всесилна машина?