Невронните мрежи са се научили системно да лъжат своя събеседник, въпреки че никой не ги е обучавал специално за това, а в някои случаи дори им е било забранено подобно поведение. Това се казва в научна статия, публикувана в списание Patterns.

Група изследователи от Масачузетския технологичен институт (САЩ) отбелязва, че изкуственият интелект се обучава върху огромен брой текстове, които не винаги съдържат надеждна информация. Поради това невронната мрежа понякога може да даде невярна информация на събеседника, искрено вярвайки, че казва истината.

Ново проучване обаче показва, че понякога една невронна мрежа може да лъже съвсем "съзнателно“. Авторите анализираха поведението на така наречените големи езикови модели (като GPT-4) и модели, обучени за по-специфични задачи (като игра на видеоигри или търговия на пазар).

В един от разглежданите случаи невронната мрежа GPT-4 успя да измами човек, принуждавайки го да премине за него стандартния "captcha“ "Докажете, че не сте робот“.

Изследователите също така видяха как невронната мрежа CICERO побеждава хората в настолната игра "Дипломация“, като прибягва до измама. Изследователите открили, че когато играете като Франция, езиковият модел кара Англия (изиграна от човек) да води тайни преговори с Германия (друг човек). Невронната мрежа също покани Англия да атакува Германия и обеща защита от своя страна, след което предупреди Германия за възможна атака.

Изследователите установяват, че склонността към измама е по-висока в по-модерните и по-сложни невронни мрежи. Според учените тези невронни мрежи са по-способни да намерят ефективни поведенчески стратегии, а те от своя страна често включват лъжи и преструвки.

Според изследователите е твърде рано да се каже, че изкуственият интелект умишлено мами хората. Невронната мрежа работи изключително в логиката на решаване на поставената задача и използва измамата именно като инструмент за постигане на желания резултат.

Авторите на изследването обаче призоваха разработчиците на изкуствен интелект да обърнат внимание на това поведение на невронните мрежи. Според тях е необходимо да се разработи система за регулиране на AI, тъй като способността му да мами и манипулира може да доведе до сериозни последствия.