Един от най-големите проблеми в съвременните модели на изкуствения интелект е, че те нямат заложена истина в архитектурата си. Това каза в предаването "Сценарий от бъдещето" на "Фокус" доц. д-р Борис Грозданов от секция "Философия на науката“ към БАН и един от авторите на сборника Rationality and Ethics in Artificial Intelligence, издаден от Cambridge Scholars Publishing, през 2023.

"Очевидно е, че когато няма заложена способност, макар и изкуствена, да интерпретира твърдения по истинност или неистинност. Всичко, което ChatGPT изкарва като отговор не е регулирано от някаква истинна система. Фактите не могат да бъдат интерпретирани като факти без истинна функционалност. Има две неща, които трябва да имаме - система на истинна интерпретация, трябва да бъде заложена такава способност и това да послужи за гориво, което да използва факти и данни. Тогава може да очакваме отговори на един бъдещ модел на изкуствен интелект, които да бъдат достоверни, иначе не е реалистично", обясни доц. Грозданов.

По думите му притесненията на обществото за етично или неетично поведение от страна на произволен AI модел трябва да се търсят по посока действията на този модел, които да нарушат нормалното и прогресиращо съществуване на човечеството: "Огромен корпус, в който всичко живее - войната, мъченията, не е само поезията. Ние самите го захранваме с много сериозен процент неетични текстове", допълни доц. Борис Грозданов.

Сравним ли е изкуственият интелект с ядрена заплаха и може ли да бъде нашето последно изобретение?

"Признаха, че има опасности и това ми носи оптимизъм, че регулациите ще се случат. Много ключовеи фигури застанаха зад това и поискаха заплахата да се приравни с заплаха от ядрено оръжие, защото осъзнаха, че имайки досег до нашата критична инфраструктура и физически системи изкуственият интелект може да направи много бързо неща, които са непоправими и с огромна опасност. Може да участва в изобретяването на химически оръжия, може да доведе до повсеместни, глобални манипулации на избори в демократични процеси и да предизвика  социални революции", каза футурологът доц. Мариана Тодорова.

Според нея в най-скоро време ще се структурират ключови решения.

Агенцията по храните и лекарствата в Америка разреши на компанията на Илън Мъск "Нюралинк" да тества технологията си с хора

Илън Мъск иска да помогне на хора, които страдат от затлъстяване, имат аутизъм и които са парализирани, имат някакви психологически разстройства като шизофрения. Идеята е човешкият мозък да бъде подпомогнат да извършва някакви действия и в случая, когато няма достатъчно капацитет това да бъде подсилено, като се развият нов тип сетива, които да зададат команда на тялото.

Азиатската култура е предразположена на подобен тип експерименти. Илън Мъск се надяваше да осъществи това още миналата година, имаше готов списък с 2000 доброволци в Южна Корея. Последният път, когато Агенцията по храните и лекарствата в Америка отказа на Мъск беше на 2 март. А Reuters беше направила журналистическо разследване и установила, че 25 от 60 животни са починали неправомерно, защото не е бил достатъчно прецизиран размера на устройството, което е имплементирано в мозъка - очевидно е бил малко по-голям. За ескперимента си Илън Мъск използва маймуни, прасета и овце", разказа доц. Тодорова.

Как ще се вгражда устройството в човешкия мозък и до какво може да доведе това?

За да се вгради устройството, се премахва мозък от горната част на черепната кутия, с размер на бучка захар или монета от 50 стотинки. Смята се, че това е сива и мъртва зона и точно там не ни е необходим този компонент от мозъка. Премахването на тази част и поставянето на устройството се прави от робот. Друга компания "Синхрон" използва един доброволец, който успя да туитне само с мисълта си пост в Twitter. Самият Илън Мъск казва, че може да се ползва и за телепатия.

Какви са рисковете?

Един път поставено устройство в човешкия мозък може да бъде деактивирано, но би било застрашаващо здравето на човек, ако бъде премахнато.

Как обаче ще дедфинираме какво е автономността на нашия мозък, до къде се простира нашата свободна воля, автентичност на мисли и идеи - всичко това стои като една голямо въпросителна, отбеляза доц. Мариана Тодорова.

Какво се крие зад идеята на градовете на бъдещето?

Доц. Тодорова разказа за проекта "Хера сити": "Хера е дравногръцката богиня на дома и семейния живот, тя е и съпругата на Зевс. Това е една инициатива на няколко жени от Южна Европа - Португалия, Испания, от Южна Америка, САЩ и т.н. Идеята е да се направи град на бъдещето, където може да се покаже какво би било бъдещето на човечеството при реализирани равноправни отношения в обществото между жените и мъжете". 

По думите на футуролога идеята й е подобен експеримент да бъде социален, но всякакви опити за социален инжинеринг да бъдат отстранени: "Ако ние предпоставим някаква идея и тя целенасочено се следва, дали тя ще може да изпревари манталитета и нагласата на хората".

Те уточни, че кралят на Мароко е подарил земя, която е близо до Гибралтар, в съседство с Португалия и Испания: "Целта е да се направи първа копка и да се реализират три основни сгради - Изложбен център, където ще се събират иновативните идеи и да се правят социалните дускусии. На второ място Музей на жените, където да има история за извоюването на различните права на жените. Третата сграда е за университет, който няма да е класически такъв, но ще е посветен на женското лидерство, но това няма да е ограничено място само за жени. Ще бъдат поканени всички, когато започне да се развива инфраструктурата и различни компании да се настаняват. Едно от условита към компаниите ще бъде да наемат еднакъв брой мъже и жени. Ще се наблюдава дали този експеримент ще влоши или подобри качеството на живот, в това число семейните отношения", коментиа доцентът.

Как ChatGPT сериозно подведе юрист от Ню Йорк? 

"Една от първите новини, свързани с всемогъщия ChatGPT беше една бърза проверка на американски юрист, който беше успял да реши едно свое дело, благодарение на ChatGPT - добър юрист ли е трайно той", попита Ива Дойчинова.

Доц. Мариана Тодорова обаче разказа за адвокат, който се е предоверил на ChatGPT, без да верифицира и е станал обект на социален инжинеринг, асистиран от изкуствения интелект: 

"Преди няколко дни изследователят Даниел Фелдман, който наблюдава какво се случва с ChatGPT, показа, че един адвокат е имал сериозни проблеми със своята кантора, защото е използвал ChatGPT, може би 4, не се уточнява версита, за да реши едно дело. Той е цитирал 12 случая, с няколко източника, тъй като знаем там е прецедентно право. Но всички те се оказали фалшиви. Изкуственият интелект е измислил подобни, но много различни казуси, които да обслужат затвърждаването на тезата, която той е помолил със съответните несъществуващи източници в тази посока, за да даде правилния отговор. Знаем, че това е и функция на филтрите, които има ChatGPT - да е политически коректен и да удовлетворява желанията, но в случая това е и резултат на един феномен, който се нарича "аlignment" или изравняване, уравняване. Това е начинът, по който ще става общуването между човека и изкуствения интелект - ChatGPT", обясни футурологът.

"ChatGPT е способен да прави халюцинации или т.нар. комфабулации, защото не винаги предоставя точно съдържание, когато пише правен анализ. Много е добър в писането на всякакъв вид договори. ChatGPT 4 - версията, която не е масова достъпна е изключително добра в това да сканира дадено съдържание, като американското законодателство и ти да му кажеш, че си жена на определена възраст, а той ще ти отговори какви данъци имаш да платиш", каза още доц. Мариана Тодорова.

Ива ДОЙЧИНОВА