Технологичния свят може да се определи с една единствена дума – експлозия. Практически е невъзможно дори за специалистите да следят развитието в реално време. Човечеството е в началото на една радикална трансформация на принципите на съществуването си. Това каза доц. д-р Борис Грозданов от секция "Философия на науката“ към БАН в предаването "Човекът на фокус“ на Радио "Фокус“.  

По думите му последиците от използването на изкуствения интелект могат да бъдат разглеждани в две посоки – положителна и отрицателна. Изкуственият интелект ще даде възможност за абсолютно радикална промяна в сектори като здравеопазване, фармация и свързаните с тях сектори, посочи доц. д-р Грозданов: "Миналата седмица видяхме демонстрация на това как парализиран човек проходи с помощта на Brain Human Interface. Това е много позитивен пример и ще даде шанс за хора, които досега са били смятани за нелечимо болни, да започнат да бъдат много по-пълноценни и здрави“, отбеляза доцентът. 

Гостът допълни, че АІ ще трансформира радикално всяка област, в която данните играят ключова роля за разрешаването на даден проблем. "Много добър пример в това отношение е генетиката, защото там имаме огромни обеми от данни. Човекът е абсолютно неконкурентен на един добър, натрениран АІ модел за анализ и за извършване на прогнози и всякакви други задачи в огромни обеми от данни, като например генетичните морета от данни“, посочи доц. Грозданов. 

Той прогнозира, че в следващите десетилетия ще наблюдаваме различни сфери на развитие на генетиката. "Един екип може да има за цел единствено здраве и лечение на генетични заболявания, но представете си друг екип, който е фен на евгениката и който желае и има интерес по някакви причини да създаде съвършения човек. Характерно за човешката надменност е да може да смята, че може да си играе на еволюционния Бог, но може би не е разумно. Етичните въпроси са спектър. В началото на спектъра са най-меките етични ценности, чието нарушаване ще нанесе най-малко вреди на индивида и на обществото. В другия край на спектъра са въпроси като заплахата от анихилация на човешката цивилизация. В момента се наблюдава развитието на такава опасност за човечеството. Това вече е реализъм, не алармизъм“, подчерта доц. Грозданов. 

Напълно реална според него е опасността модели изкуствен интелект, създадени от хора, да бъдат използвани срещу хора по линия на биооръжие, фармацевтика, генетика, водене на война и много други. "Това са собствен клас заплахи, които са екзистенциални за големи групи в човешката цивилизация. Друг тип заплахи са социалните манипулации. Ние се научихме да формираме представата си за живота, Вселената и всичко останало чрез цифровите данни, а истинските царе на цифровите данни съвсем скоро ще станат модели изкуствен интелект. Една от възможните заплахи в тази линия, за която малко хора говорят, е ерозията за истината. Говорим за атака върху способността на човешкия разум да говори с категорията "Истина“. Тази наша способност е изключително важна за нашата еволюция като вид и за способността ни да оцеляваме. Аз бих идентифицирал тази заплаха не просто като етическа, но като екзистенциална“, коментира доц. Грозданов.  

Гостът посочи още, че ако нещо съществува под формата на цифрови данни, независимо каква е тази форма – филм, аудио, текст, статистически данни, ние можем да построим дори и сега модели, копия, които да са абсолютно неразличими както от хора, така и от изкуствен интелект на тези реални данни. Затова трябва да има регулация на всички тези проблеми, допълни той: "Когато държавите и големите съюзи по света осъзнаят колко са различни приоритетите в тези заплахи, тогава истинският проблем ще бъде как технологично да се борим с тях и след това как да ги регулираме“, заяви доц. Грозданов. 

По думите му заради човешката неспособност да се конкурира с изкуствения интелект в редица области, много професии са заплашени. "Със сигурност ще видим трансформация и поява на нови видове професии и дейности, които до момента не са били налични, защото не е имало инфраструктурата, която да ги направи необходими“, каза още доц. Грозданов.