Един европейски гражданин, който хипотетично попадне в Америка и под някаква система за наблюдение, и той бъде заподозрян за престъпление, има криминално досие - за Америка това ще бъде основание да бъде задържан, но в Европа - не. Ще настане правен хаос. Това коментира в предаването "Сценарии от бъдещето" на Радио "Фокус" футурологът Мариана Тодорова по повод гласуваното от ЕП първо законодателство за регулацията на искуствения интелект.

По думите й възниква голям проблем, тъй като светът създава различни юрисдикции: "В Америка използването на системи с изкуствен интелект отдавна е разрешено. По много летища и различни мегаполиси, където е установено, че има концентрация на престъпления, има такива системи на изкуствения интелект, които могат да разпознаят по поведението, по начина по който се движи даден човек и лицевата му експресия - дали има девиантно отклонение, дали е склонен към престъпление, или терористичен акт. Тези неща ЕС ги забранява, с малки изключения, като казва - "при напрегнати ситуации" и "потенциал за престъпление", но какво значи "потенциал за престъпление" - това не е правно регламентирано? Това е чисто субективна оценка. Ние виждаме, че тук вече светът се разделя. Това е възможна и не толкова позитивна тенденция и прогноза", коментира Тодорова.

Тя обясни, че Европейският парламент и Европейската комисия отдавна работят по този въпрос: "През 2020 година започнаха да коментират въпроса. Изискваха отделните национални държави да предоставят стратегии за изкуствения интелект. Заради нашето политическо безвремие се стигна до там, че Северна Македония беше предоставила стратегия, а България - не. Постфактум имаше някакъв документ, но не това е акцентът. На 21 април 2021 година имаше сериозна заявка и документи, които бяха представени. Две години по-късно, под натиска на ChatGPT 3 и ChatGPT 4 вече има законодателство. Ще има рестрикции в лицевото разпознаване - тема №1, защото ЕС реагира доста остро на системата за социален кредит в Китай, която беше създадена с тази цел", каза още тя.

Футулорогът обърна внимание, че са няколко постановките на законодателството: "Да бъде безопасно, винаги да има човешки контрол, да няма контрол на автономни системи, да няма дискриминация и да не се вреди на околната среда. Документът е разделен на няколко части. Първо се обръща внимание на неприемливите рискове и по-конретно за това, че изкуственият интелект не бива да манупулира познание или поведението на хората. Като пример са дадени деца, които могат да бъдат подведени от играчки да направят нещо. Също така е забранено в европейското законодателство да се използва изкуствения интелект за анализ на биометрични данни", уточни Мариана Тодорова. 

Ива ДОЙЧИНОВА