Расизм на межі абсурду: чому Google Photo більше не розпізнає горил

Наука і техніка

В результаті абсурдного скандалу, пов’язаного з чорношкірими, сервіс Google Photo більше не підтримує запити «горила», «шимпанзе» і «макака». Що це — тонкий троллінг або недосконалість машинних алгоритмів навчання?

Василь Макаров

З чого все почалося

У 2015 році чорношкірий розробник програмного забезпечення збентежив Google, заявивши, що сервіс фотографій Google Photo позначив його знімок з чорношкірим іншому як «фотографія горил». Google негайно приніс свої вибачення, а програміст, який до того часу вже став публічним «обличчям» руху за чистку подібних непорозумінь заявив, що мітка «горила» більше не буде застосовуватися до групових фотознімків, і що Google працює над «іншими довгостроковими фиксами».

Через два роки результатом цих змін стало те, що горили і деякі інші примати… зникли з внутрішнього лексикону служби. Це досить незручне і незграбний рішення — хороша ілюстрація того, з якими труднощами доводиться стикатися величезним корпораціям, коли справа заходить про обробці мільйонів знімків кожен день. В даний час багато великих фірми просувають технології розпізнавання зображень, які сподіваються використати для автопілотів, персональних помічників та інших аналогічних систем.

Як алгоритми машинного навчання працюють із запитами

Портал WIRED перевірив Google Фото, використавши добірку з 40 000 фотографій, серед яких було безліч найрізноманітніших тварин. Результати виявилися вражаючими, програма і справді розпізнає всіх, навіть рідкісних істот. Але ось за запитами «горила», «шимпанзе» і «макака» система відповіла коротко — «нічого не знайдено». Нагадаємо, що сервіс Google Photos, існуючий у форматі мобільного додатки і веб-сайту, надає 500 мільйонам користувачів місце для зберігання та сортування персональних знімків. Він використовує технологію машинного навчання для автоматичної угруповання фотографій з схожим контентом. Така ж технологія дозволяє користувачам складати та обмінюватися своїми особистими колекціями.

Читайте также:
Вчених здивував Х-подібний об'єкт на Плутоні

«Результат не знайдено»

Неприязнь Google до приматів виявилася дуже виборчої. Приміром, «бабуїни», «гібони», «мармазетки» і «копит» знаходяться без проблем. Капуцини теж потрапляють у фокус, але лише до тих пір, поки користувач не використовує «заборонене слово» на букву М.

WIRED вирішив провести ще кілька тестів і завантажив 20 фотографій шимпанзе і горил, отриманих з некомерційних організацій Chimp Haven та Інституту Діан Фоссі. Деякі з мавп були знайдені з використанням пошукових термінів «ліс», «джунглі» або «зоопарк», але інша частина виявилася важкодоступною. Для третього випробування програми портал склав підбірку з 10 000 фотографій, які використовуються для розпізнавання осіб. Результати виявилися досить цікавими: на запит «афроамериканець» система видала лише фото пасуться антилопи. Запити «чорна жінка», «чорний чоловік» і «чорний людина» призвели до того, що Google видав чорно-білі знімки людей, коректно відсортованих по підлозі, але зовсім не розділених по расі. Єдиними відповідними запитами, за яким і справді можна було знайти людей з темною шкірою, стали «афро» і «африканці», хоча і тут результати були неоднозначними.

Читайте также:
Маленький «Колос» проти великого вогню: робот, який рятував Нотр-Дам

Представник Google підтвердив, що після інциденту 2015 року «горила» була піддана цензурі в системах пошуку і тегів зображень, а на сьогодні такий же блокування піддалися «шимпанзе», «макака» і «мавпа». «Технологія позначки зображень ще зовсім молода, і, на жаль, вона не ідеальна», написав прес-секретар компанії. Подібна обережність зайвий раз підкреслює те, як недосконалі існуючі системи машинного навчання. З достатньою кількістю даних і обчислювальної потужності вони можуть бути навчені розпізнавати фото або імітувати мову з високою точністю — але це, схоже, межа на сьогоднішній день. Навіть самі досконалі алгоритми не можуть використовувати здоровий глузд або оперувати абстрактними поняттями, щоб поліпшити своє сприйняття інформації і зробити його більш схожим на людське.

Теперішнє і майбутнє самонавчаючих систем

Вісенте Ордоньєс Роман (Vicente Ordóñez Román), професор Університету Вірджинії, в минулому році вніс свій внесок в розробку алгоритмів машинного навчання. Виявилося, що вони можуть не лише перейняти, але навіть посилити упереджені погляди на гендерні ролі, якщо навчати їх на прикладах живих людей. «Дуже складно змоделювати і передбачити все, з чим системі доведеться зіткнутися на практиці», пояснює він. Разом з колегою Байшахи Реєм (Baishakhi Ray), експертом в галузі безпеки програмного забезпечення, Роман досліджує способи стримування можливої поведінки систем розпізнавання зображень, що використовуються в таких технологіях, як наприклад автомобілі з автопілотом. Рей каже, що певний прогрес був досягнутий, але поки неясно, наскільки можна управляти обмеженнями таких систем. «Ми досі в деталях не можемо зрозуміти логіку цих моделей машинного навчання», говорить вона.

Читайте также:
Склад без людей: тут є тільки роботи

Источник

Оцініть статтю
Популярний портал | Proexpress.com.ua | все найцікавіше в Україні

Thanks!

Our editors are notified.