Расизм на межі абсурду: чому Google Photo більше не розпізнає горил

Наука і техніка

В результаті абсурдного скандалу, пов’язаного з чорношкірими, сервіс Google Photo більше не підтримує запити «горила», «шимпанзе» і «макака». Що це — тонкий троллінг або недосконалість машинних алгоритмів навчання?

Василь Макаров

З чого все почалося

У 2015 році чорношкірий розробник програмного забезпечення збентежив Google, заявивши, що сервіс фотографій Google Photo позначив його знімок з чорношкірим іншому як «фотографія горил». Google негайно приніс свої вибачення, а програміст, який до того часу вже став публічним «обличчям» руху за чистку подібних непорозумінь заявив, що мітка «горила» більше не буде застосовуватися до групових фотознімків, і що Google працює над «іншими довгостроковими фиксами».

Через два роки результатом цих змін стало те, що горили і деякі інші примати… зникли з внутрішнього лексикону служби. Це досить незручне і незграбний рішення — хороша ілюстрація того, з якими труднощами доводиться стикатися величезним корпораціям, коли справа заходить про обробці мільйонів знімків кожен день. В даний час багато великих фірми просувають технології розпізнавання зображень, які сподіваються використати для автопілотів, персональних помічників та інших аналогічних систем.

Читайте также:
Чайний гриб: чому він такий популярний і навіщо його пити

Як алгоритми машинного навчання працюють із запитами

Портал WIRED перевірив Google Фото, використавши добірку з 40 000 фотографій, серед яких було безліч найрізноманітніших тварин. Результати виявилися вражаючими, програма і справді розпізнає всіх, навіть рідкісних істот. Але ось за запитами «горила», «шимпанзе» і «макака» система відповіла коротко — «нічого не знайдено». Нагадаємо, що сервіс Google Photos, існуючий у форматі мобільного додатки і веб-сайту, надає 500 мільйонам користувачів місце для зберігання та сортування персональних знімків. Він використовує технологію машинного навчання для автоматичної угруповання фотографій з схожим контентом. Така ж технологія дозволяє користувачам складати та обмінюватися своїми особистими колекціями.

«Результат не знайдено»

Неприязнь Google до приматів виявилася дуже виборчої. Приміром, «бабуїни», «гібони», «мармазетки» і «копит» знаходяться без проблем. Капуцини теж потрапляють у фокус, але лише до тих пір, поки користувач не використовує «заборонене слово» на букву М.

WIRED вирішив провести ще кілька тестів і завантажив 20 фотографій шимпанзе і горил, отриманих з некомерційних організацій Chimp Haven та Інституту Діан Фоссі. Деякі з мавп були знайдені з використанням пошукових термінів «ліс», «джунглі» або «зоопарк», але інша частина виявилася важкодоступною. Для третього випробування програми портал склав підбірку з 10 000 фотографій, які використовуються для розпізнавання осіб. Результати виявилися досить цікавими: на запит «афроамериканець» система видала лише фото пасуться антилопи. Запити «чорна жінка», «чорний чоловік» і «чорний людина» призвели до того, що Google видав чорно-білі знімки людей, коректно відсортованих по підлозі, але зовсім не розділених по расі. Єдиними відповідними запитами, за яким і справді можна було знайти людей з темною шкірою, стали «афро» і «африканці», хоча і тут результати були неоднозначними.

Читайте также:
«Розумна» одяг, який простежить за господарем краще, ніж персональний тренер

Представник Google підтвердив, що після інциденту 2015 року «горила» була піддана цензурі в системах пошуку і тегів зображень, а на сьогодні такий же блокування піддалися «шимпанзе», «макака» і «мавпа». «Технологія позначки зображень ще зовсім молода, і, на жаль, вона не ідеальна», написав прес-секретар компанії. Подібна обережність зайвий раз підкреслює те, як недосконалі існуючі системи машинного навчання. З достатньою кількістю даних і обчислювальної потужності вони можуть бути навчені розпізнавати фото або імітувати мову з високою точністю — але це, схоже, межа на сьогоднішній день. Навіть самі досконалі алгоритми не можуть використовувати здоровий глузд або оперувати абстрактними поняттями, щоб поліпшити своє сприйняття інформації і зробити його більш схожим на людське.

Теперішнє і майбутнє самонавчаючих систем

Вісенте Ордоньєс Роман (Vicente Ordóñez Román), професор Університету Вірджинії, в минулому році вніс свій внесок в розробку алгоритмів машинного навчання. Виявилося, що вони можуть не лише перейняти, але навіть посилити упереджені погляди на гендерні ролі, якщо навчати їх на прикладах живих людей. «Дуже складно змоделювати і передбачити все, з чим системі доведеться зіткнутися на практиці», пояснює він. Разом з колегою Байшахи Реєм (Baishakhi Ray), експертом в галузі безпеки програмного забезпечення, Роман досліджує способи стримування можливої поведінки систем розпізнавання зображень, що використовуються в таких технологіях, як наприклад автомобілі з автопілотом. Рей каже, що певний прогрес був досягнутий, але поки неясно, наскільки можна управляти обмеженнями таких систем. «Ми досі в деталях не можемо зрозуміти логіку цих моделей машинного навчання», говорить вона.

Читайте также:
Підвісні човнові мотори

Источник

Оцініть статтю
Популярний портал | Proexpress.com.ua | все найцікавіше в Україні

Thanks!

Our editors are notified.