Штучний інтелект поклав край додатку від Amazon

Автор фото, Getty Images
Алгоритм штучного інтелекту для пошуку співробітників, який тестувала компанія Amazon, виявився сексистським.
Схоже, аналітики втрапили в халепу під час відбору даних: вони "згодували" штучному інтелекту масив інформації за десятирічний період, до якого більшість надісланих в корпорацію резюме надходили від чоловіків.
Вони не перші, хто мимоволі помилився під час вибору інформації для системи: наприклад, після того як у 2016 році Microsoft запустила в Twitter свій чатбот Tay, він відразу ж став популярним серед тролів, які навчили його підтримувати расистські ідеї, закликати до геноциду і захоплюватися Гітлером.
В Amazon не відповіли на запит BBC.
Журналістам Reuters вдалося на умовах анонімності поспілкуватися з п'ятьма членами команди розробників, які брали участь у створенні алгоритму з 2014 року.
За їхніми словами, спершу система мала б самотужки розглянути резюме та мотиваційні листи, а потім присвоїти їм від однієї до п'яти зірочок у рейтингу.
"Керівництво буквально хотіло, щоб ви давали алгоритму 100 резюме, з яких він би склав топ-5, і компанія згодом могла б найняти цих людей", - заявив Reuters один з програмістів.
"Відсіювання жінок"
До 2015 року, проте, вже стало зрозуміло, що створена система не дотримується принципу гендерної нейтральності, оскільки більшість резюме за попередні роки в Amazon надсилали чоловіки.
Алгоритм почав відсіювати заявки зі словом "жінки". Програму відредагували так, щоб штучний інтелект не маркував це слово і його похідні як щось негативне, але це не дуже допомогло.
Amazon визнав програму ненадійною, і проект закрили, однак, за інформацією Reuters, ще якийсь час відділ кадрів брав до уваги рекомендації алгоритму, хоча і не ухвалював остаточне рішення.
Реакція користувачок в соцмережах на новину спричинила бурю емоцій.
Ця стаття містить контент, наданий X. Ми питаємо про ваш дозвіл перед завантаженням, тому що сайт може використовувати файли cookie та інші технології. Ви можете ознайомитися з політикою щодо файлів cookie X i політикою конфіденційності, перш ніж надати дозвіл. Щоб переглянути цей контент, виберіть "Прийняти та продовжити".
Кінець X допису, 1
"Неймовірно",- пише британська журналістка Холлі Брокуелл.
Ця стаття містить контент, наданий X. Ми питаємо про ваш дозвіл перед завантаженням, тому що сайт може використовувати файли cookie та інші технології. Ви можете ознайомитися з політикою щодо файлів cookie X i політикою конфіденційності, перш ніж надати дозвіл. Щоб переглянути цей контент, виберіть "Прийняти та продовжити".
Кінець X допису, 2
"За кожним пристроєм ІІ стоять упередження тих, хто їх створював",- впевнена наукова есеїстка Рейчел Фербенк.
"Запрограмувати на провал"
Початкову необ'єктивність подібних механізмів вже неодноразово обговорювали в професійній спільноті.

Автор фото, MIT
У червні команда дослідників Массачусетського технологічного інституту (MIT) повідомила про створення психопатичного алгоритму "Норман".
Його навчили розпізнавати й інтерпретувати фотографії та інші зображення з точки зору людини.
Вони намагалися зрозуміти, як вплинуть на сприйняття світу штучним інтелектом фотографії та зображення з темних куточків інтернету.
У травні 2017 року з'ясувалося, що подібна програма, яку тестували в судах США, негативно ставилася до темношкірих обвинувачених, бо вважала, що вони здатніші на кримінальний рецидив, аніж білі вдвічі.
Як з'ясували програмісти, проблема була в тому, що алгоритм навчався за статистикою поліцейських затримань і вуличних вибіркових перевірок, а більшість затриманих у США - темношкірі.










