Ще се сбъднат ли пророчествата от ''Аз, роботът''?
Това трябваше да бъде интервю за изкуствения интелект в медицината. Оказа се, че разговорът за съжителството на човека с AI (Artificial Intelligence - Изкуствен Интелект) трябва да се проведе преди него. Защото е важно комуникацията помежду ни да е достоверна, ефективна и безопасна. А събеседникът е възможно най-подходящият - проф. Мартин Вечев - основател и научен директор на INSAIT - българския Институт за компютърни науки, изкуствен интелект и технологии. Проф. Вечев бе един от лекторите на 24-ия Европейски конгрес по неврохирургия – EANS 2024, който се проведе в София. По време на форума с мото „Иновации. Образование. Лидерство“ той разказа на повече от 1850 медици от 89 държави защо България има място на технологичната карта на света.
Проф. Вечев, наскоро се запознах с BgGpt, нашият и вашият езиков модел (BgGpt е създаден в INSAIT, б. а.). Той се оказа доста интересен тип. Каза, че е мъж. Разбрах, че след напрегнат ден си почива. Възложих му да опише с едно изречение най-важното за проф. Мартин Вечев. Той се справи с две изречения и се извини. Малко му бяга конкретиката, но ето какво ми написа:
Проф. Мартин Вечев е известен математик, със значителен принос към теорията на числата и алгебричната геометрия. Най-важното за него вероятно е дълбоката му страст към математиката и стремежът му да разшири границите на човешкото познание чрез своите изследвания и открития.
Как се е справил според Вас?
Тази версия е още съвсем начална и някаква част от това е вярна - че имам идея и желание да правим изследвания, които въздействат и имат голям ефект върху обществото, но като цяло другата част е грешна. Ние не работим върху числените методи, въпреки че използваме такива методи. Така че не мисля, че е прекалено точен тук. Но това е съвсем начална версия на BgGpt, ние пускаме сега много по-мощна версия, на съвсем друго ниво, много по-точно.
А всъщност кое е определящо за Вас – това, че сте основател на INSAIT, че сте единственият български професор в Швейцарския федерален технологичен институт в Цюрих или това, че сте предприемач, основал три стартъпа?
За момента това е INSAIT, тъй като това е нещо, на което посвещавам изключително много време, кауза, която може да промени България и смятам, че INSAIT в момента е на по-преден план.
INSAIT явно е „любимото дете“, как се случи?
Всички открития в изкуствения интелект започват от топ университетите, които са познати в България. Това са стратегически бази като Станфорд, Оксфорд, Политехниката в Цюрих, в които се правят изследвания, вливат се милиарди, за да са на топ ниво. Такова нещо у нас няма – тук в университетите сe преподава, a академията се правят изследвания.
INSAIT внася онзи модел, който работи на световно ниво в България – целта е да се привлекат изследователи на световно ниво. Те правят всичко останало – измислят новите идеи, привличат компании. Някои от идеите са теоретични, други приложни. Така се става технологичен лидер, а не технологичен участник. Хората ходят при хора. Европейският маниер е да се правят някакви клъстери, хъбове - това не работи. INSAIT е тотално различна идея. Тук работят хора от над 18 националности, хиляди кандидатстват за работа. Това е социален проект, който работи в технологичната сфера.
Как избирате хората?
Със сложни технически интервюта, има и логически задачи.
А защо приехте да участвате във форум на неврохирурзи?
Приех да участвам, защото смятам, че е добра възможност да се представи България. Че това, което се случва тук, е на световно ниво. Това, което се случва в INSAIT, позиционира държавата. Както много пъти казваме това е технологичната визитна картичка на България и добра възможност да се говори за страната.
Ако трябва да останем на здравна тема – къде най-бързо се случва използването на изкуствения интелект в медицината?
Диагностиката може би е най-бързото приложение. Все пак винаги трябва експерт да прецени това, което е установил изкуственият интелект. Едно от хубавите неща на новите модели AI е, че може да обоснове защо взема дадено решение и експертът да реши дали това е добър аргумент, дали тази диагностика има смисъл. Това е изключително полезно, тъй като AI може бързо да свързва различни източници – да кажем ЯМР, кръвни изследвания и т. н. и на базата на тях може да се обоснове, да предложи алтернатива.
Случвало ли Ви се е да работите по проект, свързан с AI в медицината?
Работил съм по проект, който взема секвенирани данни на клетъчно ниво и се изследват генни мутации. Това дава възможност да се установи дали има ракови клетки. Създава се модел, който предвижда кои гени са отговорни за този вид рак. При кого може да се появи такова предразположение.
В презентацията Ви имаше слайд „Данни, данни, данни“ за огромния масив от информация, който може да обработи изкуственият интелект. Кой учи AI , кой го усъвършенства – той сам себе си или специалистите, които въвеждат тези данни, обменят информация чрез него?
Изкуственият интелект работи на базата на автоматични математически алгоритми, които прочитат данните и го научават да ги разпознава, да прави прогнози. Това е автоматизирано. Но експертите са нужни, за да контролират процеса – как се вкарват данните в AI, как се обучава, как да се научи на нова способност без да забравя старите. Да трупа капацитет. Аз например го уча да е много добър в математиката за 12 клас, но той може да забрави способностите си по литература. Това е фундаментален проблем – как да го научиш така, че да не забравя, за да има натрупване. Тук е ролята на експертите – да наблюдават как трупа данни. Може да ги подават по различен начин. В каква последователност се подават данните също е важно.
Има морално-етични спорове около AI - кога ще ни "вземе хляба". Като че ли журналистите сме заменяеми – възложих на BgGpt да напише въпроси за интервю, той се справи прилично, дори предложи отговори. Кои специалисти ще бъдат най-скоро заменени от него?
AI работи на базата на минали данни. Ако някой прави нещо много повтаряемо с данни, които не се променят, тогава тази дейност би могло да бъде заменена. Но например, ако се интегрира човек с професия, за която няма информация, няма да му е лесно да го замени.
Според Вас трябва ли да има някакво ограничение в намесата на AI специално в медицината? Ние и сега, като напишем няколко симптома в Гугъл, си поставяме диагноза.
Това е изключително опасно по принцип. Много от тези модели могат да дават предложения как да се лекува някой, които звучат много убедително, но всъщност са грешни. Затова изкуственият интелект донякъде проверява критичното мислене на хората. Трябва да се внимава, особено когато става дума за диагностика.
Ще ни направи ли AI по-лениви? Как да го използваме така, че да ни е максимално полезен като знаете как работи неговия „мозък“?
Всъщност никой не знае как работи неговият мозък. Това са огромни модели с трилиони параметри. Не знаем как работи, защо се научава, как успява. Трудно е да се каже как е по-ефективно да работиш с него. Да, може да се дават по-конкретни инструкции, но и това не е нещо, в което да сме сигурни. Може да не успее да се справи.
Това, че не знаем как работи „мозъкът му“, не е ли тревожно? На практика нямаме реална представа това какво може той.
Ние знаем механично как и защо се учи, но не знаем какво е научил. Можем да му даваме текстове да се учи, но подобно на човека, не можем да му отворим мозъка и да видим какво е научил. Има опасност, разбира се, защото той може да бъде много убедителен, но може да дава грешна информация.
Питам, защото сме чели Айзък Азимов, може ли да стане опасен?
Може. Може да се използва за различни дейности, които не са в полза на обществото. Ние сме го използвали и имаме една статия, която беше избрана от Белия дом като една от топ статиите за информационна сигурност. Можеш да дадеш специфична информация за даден човек и AI да ти допълни останалото, като се има предвид, че този човек никога не е бил в обучителните данни, на практика да се направи профайлинг.
В здравеопазването например се сблъскваме все по-често с фалшиви реклами, генерирани от изкуствен интелект.
Може да се използва за такива цели. Затова има регулации.
Достатъчни ли са регулациите, които съществуват в момента? Изобщо можеш ли да регулираш нещо, което не знаеш какви реални възможности има?
Как да се регулира AI, е много дълбока тема – дали е достоверен, сигурен, надежден. Ако се наложат прекалено много правила, той може да спре да отговаря и става безполезен. Между полезността и регулациите има напрежение. Затова темата е изключително важна. Европейските регулации в тази сфера са много нашумяла тема, защото е важно дефинициите да са прецизни. Иначе ще спрат иновацията.
Както разбирам, хората от IT сектора биха искали да не се налагат прекалено много ограничения на AI?
Има модели на регулации, които работят добре, но от страна на ЕК има регулации, които са на размито ниво все още. За да имаш дискусия, ти трябва да вземеш тези регулации, по които работят големите компании, и да ги дефинираш за Европейския съюз. Това е нещо, по което INSAIT работи много.
Какво не трябва да забравяме, когато общуваме с AI, Вие например как комуникирате с него?
Не общувам толкова много с него. AI може да има приложни функции, човек може да го използва за развитие на критично мислене. Може да му възложиш да създаде задача, която е грешна, но изглежда привидно вярна, и да се търси грешката. Това съм го експериментирал с дете и е много ефективно.
Имате ли моменти на дигитална дезинтоксикация, когато спирате ползването на всякакви устройства?
Не бих казал, че прекалявам. Имам доста срещи с хора, правя изследвания, които се случват основно на дъската. Не мисля, че съм прекалено много обвързан с дигиталния свят. Ние, хората в моята сфера, трябва да сме много балансирани, защото проектите често са дългосрочни.
Винаги ли ще ни се подчинява AI? Възможно ли е ролите да се разменят?
Изкуственият интелект ще навлиза в ежедневието все повече. Няма да е просто чат, с който да си пишем, а ще управлява процесите в живота не по-лошо от хората и те ще разчитат на него. Има опасност да стане проактивен, защото когато човек си пише в чата, никак не е трудно лека-полека да позволи от него да се извлича информация. Затова са регулациите.
Това поставя въпроса и за достъпа до личните ни данни.
Трябва да се внимава, защото достъпни за AI тези данни могат да се използват – да ти предлагат нещо, да те принудят да направиш нещо. Трябва да се внимава какви данни се подават, но това е валидно и за социалните мрежи например.
Има ли емоции AI?
Трудно е да се каже. Когато учи емоционални ситуации и текстове, може да имитира емоции, но това все пак е машина.
Значи проблемът си е наш?
Излиза, че е така. Отдавна не може да се различи AI от човека. С развитието на роботиката ще възникне етичен проблем докъде искаме да стигне. Технологично той може да стигне много далеч, много по-далеч, отколкото хората си мислят.
Колко далеч?
Да замени човека във всякакви сфери, това мога да си го представя. Хората са сравнително бавни и неефикасни генератори на данни и могат да бъдат заменени в по-голямата си част. Може би така ще разберем какво е да си човек – там, където изкуственият интелект няма да може да ни замени.
В края на разговора проф. Вечев съобщи, че има "голяма новина" и обеща, че съвсем скоро тя ще бъде обявена. Ден по-късно научихме, че INSAIT е направил пробив в регулацията на ЕС за изкуствен интелект.
За какво става дума?
"Европейският съюз вече има инструмент за проверка на надеждността на изкуствения интелект. Той е публично достъпен и е резултат на съвместна работа между българския институт INSAIT, част от Софийския университет “Св. Климент Охридски”, швейцарската политехника ETH Zurich и компанията LatticeFlow AI. Инструментът е официално припознат от Европейската комисия като първа стъпка за създаване на по-добра връзка за практическото приложение на нормативната уредба в областта", гласи съобщението.
Законът на ЕС за изкуственият интелект влезе в сила през август 2024 г., създавайки глобален прецедент за регулиране в тази област. Законът обаче очертава регулаторни изисквания на експертно ниво, без да предоставя подробни технически насоки, които компаниите да следват.
За да се преодолее тази празнина, ETH Zurich, INSAIT и LatticeFlow AI създават първото техническо тълкуване на шестте основни принципа на европейския закон. Тази рамка за съответствие превръща регулаторната рамка в конкретни технически изисквания, като предлага ясна методология за оценка на моделите на изкуствен интелект въз основа на стандартите разписани в нормативната уредба.
Това на практика го превръща в първия инструмент на европейско и глобално ниво, който прави връзка между нормативните изисквания и реалното им приложение и е значима крачка в процеса на регулиране на изкуствения интелект на световно ниво.
Проектът, в който основна роля има и българският институт, вече е припознат на европейско ниво. Службата на ЕС за изкуствения интелект приветства неговата реализация. Тя декларира, че това ще бъде отправна точка за изработването на подобни регулации с общо приложение за изкуствения интелект.
Европейската комисия приветства това проучване и платформата за оценка на моделите за ИИ (изкуствен интелект) като първа стъпка в превръщането на Акта на ЕС за ИИ в технически изисквания, което ще помогне на създателите на модели за изкуствения интелект да го приложат, коментира Томас Рение, говорител на Европейската комисия в областта на цифровата икономика, научните изследвания и иновациите.
На база направеното техническо тълкуване на шестте основни принципа на европейския закон е изработен и инструмент за оценка на големи генеративни езикови модели (LLM). Той вече е публично достъпен тук и дава информация за спазването на европейските изисквания на редица от най-популярните модели на изкуствен интелект разработени от компании като OpenAI, Meta, Alibaba и Anthropic. Всяка компания би могла да измери в него доколко разработени от нея подобни модели покриват изискванията на Закона на ЕС за изкуствен интелект.
---------------
Разговора с проф. Мартин Вечев в студиото на OFFNews през април 2024 г. можете да видите тук: