ChatGPT "лъже", когато е форсиран да направи нещо

©
Една инвестиционна компания решава да направи експеримент, използвайки Alpha – чатбот за финансови съвети, подобен на ChatGPT 3. "В заданието и въпросите възложителите на промптове непрекъснато "притискат" изкуствения интелект да даде маркетингови стратегии и финансови прогнози, но тъй като той не е бил захранен с достатъчно данни, а е бил притискан да го прави, се оказва, че под силния "натиск" той е халюцинирал и лъже, просто защото водещо е да удовлетвори потребителя", обясни доц. Тодорова.
пон | вто | сря | чтв | пет | съб | нед |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Дерматолог: Това улеснява появата на проблеми като екзема и конта...
15:23 / 13.05.2025
Теодора Велева: Песента "Playing By The Rules" е вдъхновена от то...
11:42 / 13.05.2025
Перете чаршафи, калъфки, завивки и плюшени играчки поне веднъж на...
09:21 / 13.05.2025
Актуални теми
Анкета
Не (21631) | 40% | ![]() |
Да, но отложено и превъртам реклами и съдържание (19884) | 37% | ![]() |
Да, гледам по традиционен начин (12269) | 23% | ![]() |