Изкуственият интелект често се представя като заплаха, която неизбежно ще доведе до загуба на работни места, социални сътресения и концентрация на богатство и власт. Тези страхове присъстват както в публични изказвания на технологични лидери, така и в медийни заглавия. Част от този наратив отразява реална несигурност, породена от бързото развитие на технологията.

В същото време, според позицията на Microsoft, не самата технология определя тези резултати. Различни организации вече я използват по различен начин – от дълбока трансформация на работните процеси до ограничени или експериментални приложения.

Част от публичното съдържание е видимо предназначено да привлече внимание. Но голяма част от него отразява основателна несигурност относно резултатите от навлизането на изкуствения интелект (AI). Технологията се развива бързо и последиците от този факт сами по себе си изискват сериозно внимание. За някои организации и длъжности изкуственият интелект вече променя ежедневната работа. В други случаи това е ограничено от политиката, свежда се до тесни области на приложение или просто не е приоритет. Така че дори не споделяме едно и също преживяване.

Осъзнаването на риска е от решаващо значение, но също толкова важно е да не губим перспектива. Макар изкуственият интелект да притежава изключителен потенциал да подобри живота ни, той повдига въпроси, които изискват обмислени решения – да упражним своята човешка свобода на избор, за да оформим бъдещето. Виждали сме възможния резултат от този сценарий и преди. Социалните медии се наложиха бързо, като стимулите бяха насочени към растеж и ангажираност, а последствията бяха осъзнати едва след като платформите промениха из основи начина, по който хората работят и общуват – от въздействието върху психичното здраве до подкопаването на доверието и разпространението на дезинформация. Бизнес моделите и оперативните стандарти се утвърдиха, преди да бъдат напълно разбрани по-широките последици от социалните медии.

В същото време трябва да подхождаме с предпазливост към твърденията за сигурност. Все още сме в начален етап на развитие на тази технология и макар изкуственият интелект да предизвиква значителна промяна, в настоящия момент никой не може напълно да предвиди последствията от нея. Твърденията за сигурност, и от двете крайности на спектъра, надхвърлят това, което доказателствата подкрепят. Но можем да бъдем сигурни, че сега е моментът за инициативност – за всички нас да се изправим пред изборите, които ще определят бъдещето ни с изкуствения интелект.

Между борбата и бягството  

Лесно е да позволим на страха да ограничи разговора. Когато несигурността расте, хората по природа реагират с "борба или бягство“. Но всички ние имаме способността – свободата на избора – да решим какво се случва между стимула и действието. Това включва начина, по който мислим, а в организациите – и начина, по който работата се структурира, оценява и възнаграждава. Тази свобода на избор не се ограничава само до основатели на компании, изпълнителни директори или изследователи в областта на изкуствения интелект. Всеки служител взема решения относно това как изкуственият интелект се използва в ежедневната му работа. Ръководителите могат да преструктурират процесите в мащаб, но отделните служители могат да пренастроят собствената си работа в реално време. Взети заедно, тези решения определят как се развива работата.

Ако един човек вече може да изпълнява задачи, които преди изискваха координация между няколко длъжности, това повдига основателни икономически въпроси. Това променя и какво един екип може да постигне със същия брой хора. Какво ще се случи по-нататък, не е предопределено. То зависи от това как лидерите интегрират изкуствения интелект и как отделните служители решават да го използват.

Нищо от това не се случва "на нас“. Това се случва чрез решенията, които хората вземат всеки ден относно това как изкуственият интелект се приема и внедрява.

Разширяването е опция. Но свободният избор не действа само на нивото на политиката на дадена организация. Това личи от начина, по който хората възприемат своите роли, и от това как лидерите реагират на тази промяна.

Вземете предвид Алекс Фарах, специалист по данни в Microsoft. В общи линии го наехме, за да обработва данни и да изготвя отчети. След като системите за изкуствен интелект започнаха да поемат все по-голяма част от този механичен синтез, ролята му се свежда основно до контрол на крайния резултат. Вместо това той го разшири.

Алекс осъзна, че не е бил нает само за да се занимава с обработката на данни и изготвянето на отчети. Той беше нает, за да постигне конкретен резултат: да предостави анализ и перспектива, както и интерпретация на това какво означават данните за организацията. Той започна да насочва системите за изкуствен интелект да откриват закономерности и да тестват предположения по-бързо. На практика той е събрал екип от сътрудници, които са разширили ролята му и са засилили влиянието му. Алекс няма подчинени, но в момента е изключително ефективен мениджър.Тази промяна не беше продиктувана от модела. Това отразява начина, по който Алекс избра да използва технологията – и начина, по който ние в Microsoft решихме да оценим този принос.  

Способността за взимане на свободен избор в организациите рядко се появява като формална декларация. Това се проявява в малките, повтарящи се решения за това как се върши работата. Изкуственият интелект не подобрява автоматично способността за преценка, нито прави човек по-любознателен. Вместо това тя може да засили стимулите, които вече са заложени в системата. Ако се даде приоритет на скоростта, тя се увеличава. Ако се измерва обемът, той се променя пропорционално. Тези решения са от управленски характер — лидерите имат правото да преценят какво е най-важно.

С течение на времето тези стандарти оказват влияние върху всичко – от назначаването и кариерното развитие до това как се проявява преценката в работата и какво започва да цени организацията.