Вештачка интелигенција: Како виртуелне асистенткиње одговарају на увреде и сексуалне алузије клијената

    • Аутор, Пабло Учоа
    • Функција, ББЦ Светски сервис

Све донедавно, могли сте да засипате Биу увредама и да је називате погрдним именима, а она би вам само одговорила једним питомим: „Не разумем, можете ли да поновите?".

Употребите са њом такав речник данас и виртуелна асистенткиња бразилске банке Брадеско могла би да вам одговори једним строжим:

„Те речи не смете да користите ни са мном ни са било ким другим."

Или још јачим: „За вас је то можда шала, за мене је насиље."

Промена Бијиног тона уследила је пошто је Брадеско открио 95.000 порука прошле године упућених систему вештачке интелигенције које су садржале узнемиравање или сексуално злостављање.

Најблаже, које је њихов тим за контролу квалитета пронашао претрагом на основу увредљивих израза који су коришћени, били су захтеви за голотињом.

Али други су били толико вулгарни да их компанија неће обелодањивати.

„То су веома вулгарне интеракције", каже за ББЦ извршна директорка компаније Глаусимар Петиков.

„Не могу да се натерам да вам их поновим."

Иако није најјасније зашто би неко користио такав речник са виртуелном асистенткињом, Петиков је описала сексуалне поруке као „крајње непримерене" и облик узнемиравања „који не може да се помеша ни са чим другим".

Да би се изборили са таквим нападима, Бијини софтверски сценарији ажурирани су тако да натерају муштерије да јој се обраћају са већим поштовањем иначе неће моћи да настави рад.

Нови одговори су „мање сервилни и мање пасивни", а осмишљени су тако да „едукују" муштерије и подстакну их на „размишљање" о својим сексистичким ставовима, рекла је Петиков.

„Одражава стварни живот"

Брадеско је рекламирао овај потез у ТВ спотовима у којима су глумице деловале оснаженије кад робот промени наступ.

Друге велике бразилске компаније обећале су да ће следити њихов пример, у областима које варирају од козметике и производње до комуналија и услужних делатности.

Лу, гласовна асистенткиња малопродајног гиганта Магазин Луиза, не само да строго одговара на вербалне увреде, већ има и „дугме за панику" како би омогућила женама да дискретно узбуне власти ако је у току породично насиље.

Она је постала чак и инфлуенсерка на друштвеним мрежама, са милионима пратилаца којима редовно говори о родним питањима - уз помоћ тима правих људи који управљају њеним интеракцијама на друштвеним мрежама.

Али не виде сви смисао у искоришћавању вештачке интелигенције за овакву врсту борбе, будући да узнемиравање није усмерено ка особама од крви и меса са осећањима.

„Зашто правимо толику халабуку око гласовне асистенткиње која није чак ни људско биће? Управо зато што овај проблем одражава прави живот", објашњава Фабио Еон, координатор друштвених наука при УНЕСКО-у за Бразил, који је повео кампању за промене код гласовних асистенткиња компанија.

Еон каже да су вербално узнемиравање и сексуално злостављање само део ширег проблема.

У Бразилу је прошле године било 105.000 пријављених случајева насиља над женама - иако је прави број вероватно много виши због непријављених случајева.

Постоји извесна корелација између стварног света и дигиталног простора, тврди Еон, који има везе са понашањем и начином на који реагујемо.

„Од тренутка кад почнете да прихватате такво понашање онлајн, оно почне да се преноси на стваран живот."

УНЕСКО-ов извештај из 2019. године критиковао је компаније које праве дигиталне асистенте, у већини случајева са женским гласовима, оптуживши их да учвршћују родне стереотипе.

Наводи се да примери као што су Еплова Сири или Амазонова Алекса делују „толерантно и повремено чак призивају мушка сексуална удварања".

Додаје се да су компаније „пропустиле да подстакну или изграде модел, а камоли да инсистирају, на здравој комуникацији о сексу или сексуалним садржајима."

Сири и Алекса су у међувремену ажуриране, мада су се глобални технолошки гиганти одлучили за изостанак конфронтације.

Сири сада реагује на сексуалне коментаре просто говорећи: „Нећу одговорити на то."

Пре тога је њен одговор на сексуалну увреду био: „Поцрвенела бих кад бих могла."

„Можете ли да замислите колико би надреалан био један такав одговор у стварном животу?", пита се Еон.

„Навике морају да се мењају"

Упркос покушајима да дође до побољшања, предрасуде у вештачкој интелигенцији опстају, упозорава Еон.

Док нам Сири и Алекса помажу код ситнијих кућних задатака као што су пуштање музике или укључивање светла, систем вештачке интелигенције бразилских судова, који просејава хиљаде и хиљаде судских докумената, зове се Виктор, истиче он.

Једно решење које разматрају неке компаније јесте употреба родно неодређених гласова у њиховим системима.

Али Петиков каже да се женски гласови користе у вештачкој интелигенцији због њихове висине и модулације, чији је циљ да створи пријатнију атмосферу за муштерије.

Брадеско, стога, нема планове да замени Биу нити да се претвара да проблем не постоји, објашњава она.

„Али навике морају да се мењају. Те интеракције су буквално одраз друштва.

„Сад кад смо открили овај проблем, посвећени смо ангажовању против њега."

„Ускоро ће вам се обратити моја мама"

У ширем контексту, компаније разматрају шта да раде кад муштерије злостављају и сексуално узнемиравају људске асистенте.

Кампања компаније ГС Калтекс енерџи из Јужне Кореје доспела је у вести 2017. године пото је помогла да се смањи злостављање радница у кол центрима.

Пре него што се њихов позив пребаци на асистенткињу, муштерије би чуле снимак неког члана породице запослених који их подсећа да је особа на вези неко са правим животом и осећањима.

Снимак је укључивао дечака који говори: „Моја мама, коју волим највише на свету, ускоро ће вам помоћи."

Други, са гласом мушкарца, рекао би: „Моја добродушна, марљива ћерка ће вам се ускоро јавити."

Адква интерактив, маркетиншка агенција која стоји иза ове кампање, каже да су запослени у ГС Калтексу пријавили 54 одсто мањи ниво стреса, а 25 одсто њих је тврдило да се осећа поштованије.

Јухјун Парк, генерални директор Института DQ, који се бави дигиталном едукацијом, каже да је све већа потреба за свешћу у свету у ком су интеракције све дехуманизованије.

„Људи морају да буду цивилизованији.

„Имамо проблем са узнемиравањем кад се не срећемо са другима лицем у лице.

„Чак и пре вештачке интелигенције, ми као људи се нисмо опходили једни према другима претерано лепо.

„Ми као друштво, иако разговарамо са вештачком интелигенцијом, заједно градимо један читав систем и ако се не будемо понашали уљудно, постојаће реперкусије за то."

Пратите нас на Фејсбуку и Твитеру. Ако имате предлог теме за нас, јавите се на [email protected]