Штучний інтелект: небезпечний ворог чи добрий помічник

Наука і техніка

Застосування штучного інтелекту (ШІ) в повсякденному житті стрімко набирає обертів, але ця тенденція все частіше викликає занепокоєння фахівців. Співробітники Нью-Йоркського університету підготували доповідь з застереженням про ризики використання І. в. здебільшого автори зосередилися на етичних і соціальних питаннях, а також на відсутність законодавчого регулювання. Доповідь групи AI Now говорить мало нового, але в світовій практиці все частіше постає питання про необхідність обмежити роботу штучного мислення.

Олександр Лавренов

Про потенційні загрози ІІ говорили майже всі візіонери технологічного прогресу. Стівен Хокінг у листопаді минулого року озвучив головні страхи, які супроводжують міркування про розвиток техніки. На його думку, комп’ютери рано чи пізно навчаться відтворювати самі себе. Біологічні істоти напевно програють кремниевому розуму як в розумових здібностях, так і в питаннях пристосованості до оточення, особливо на іншій планеті. Рано чи пізно розумні роботи порахують людини застарілою формою і побажають позбутися від нього.

Слова Хокінга поки звучать як страшилка, десятки разів обіграна в кіно і книгах, але навіть ті, хто працює над впровадженням розумних систем стали все частіше побоюватися майбутнього з ІІ, хоча є й такі, хто вважає подібні страхи передчасними. «Боятися розвитку ШІ сьогодні — все одно що турбуватися про перенаселення Марса», — заявив Ендрю Ин, глава Google Brain. Однак заспокоїв він далеко не всіх.

Искусственный интеллект: опасный враг или добрый помощник

Серед найбільших фобій, пов’язаних з упровадженням комп’ютера в усі сфери життя, варто відзначити три. Перша — комп’ютерний розум стануть використовувати в якості інструменту війни, який значно перевершить в руйнівній силі навіть ядерну зброю. Друга — ІІ поневолить людини. Третя — як будь-яке людське творіння, комп’ютер схильний до помилок. На всіх трьох пунктах можна зупинитися докладніше.

Читайте также:
Навіщо верхівки забірних стовпів обрізають під кутом: досвід старожилів

21 серпня 2017 року провідні фахівці в області досліджень і впровадження штучного інтелекту, включаючи глав таких компаній як SpaceX і Deep Mind, направили в ООН відкритий лист. У тексті вони застерегли світове співтовариство від розробки летального автономного зброї, будь то роботи або інші механізми, призначені для вбивства противника. Автори документа звернули увагу на фатальні наслідки застосування такого озброєння. При його феноменальною ефективності справедливо задатися питанням, в чиї руки він потрапить. Скористатися ним може як вузьке коло еліт, так і терористи.

Автори листа закликали контрольну організацію, а разом з нею і наукове співтовариство, окреслити рамки шкідливого використання ІІ. Стоїть перед людиною відповідальність за власне дітище зобов’язує його провести серйозну роботу над запобіганням ризиків. Крім законів, обмежити міць роботів повинні і їх творці, яким належить поламати голову над тим, як вимкнути машини в крайніх випадках.

Искусственный интеллект: опасный враг или добрый помощник

Політичне зловживання електронними системами вже продемонструвало себе на прикладі роботи соцмереж і алгоритмів аналізу даних. Навесні цього року в світі прогримів скандал, пов’язаний з компанією Cambridge Analytica. Її фахівці провели глибинний аналіз даних про користувачів і розмістили в Facebook адаптовану індивідуально під кожну людину рекламу.

Читайте также:
Купуємо різний навісне обладнання для спецтехніки в Hydromarket

Працівники фірми не тільки перейшли етичні рамки, але і застосували сучасні технології, роботу яких було неможливо проаналізувати. Ефективність «машинного навчання» — тема не раз виникає серед провідних математиків. Вони хором визнають, що вражені надзвичайними успіхами комп’ютерних програм, але абсолютно не здатні зрозуміти роботу складної системи. У М’янмі в квітні цього року пости в Facebook також стали причиною хвилювання мас, але на відміну від США, де обійшлося протестними акціями, в азіатській державі сталася різанина, жертвами якої стали кілька сотень людей. Маніпуляція величезною кількістю людей — осуществившаяся реальність і роботи тут можуть зіграти з нами злий жарт.

Искусственный интеллект: опасный враг или добрый помощник

Варто згадати про те ж Facebook, де в обіг були запущені чат-боти на базі ІІ. Віртуальних помічників навчали вести діалог із співрозмовником. З часом ботів стало не відрізнити від реальних людей і тоді автори вирішили звести роботів один з одним. Через якийсь час боти стали скорочувати лексичні структури та обмінюватися абракадаброю. ЗМІ роздули з новини сенсацію, мовляв «машини повстали». Але відкинувши перебільшення журналістів, справедливо визнати, що у разі, коли машини почнуть спілкуватися між собою, людина цього може не помітити. І як там вони будуть жити власним життям — ніхто не знає.

Читайте также:
9 передбачень майбутнього від людини з Google

Усложняющаяся структура комп’ютерного розуму з кожним днем віддаляє нас від розуміння принципів його роботи. Але хоч більшість алгоритмів і справляється зі своїми завданнями, навіть сьогодні складні машини далекі від ідеалу і роблять помилки. Для подальшого розвитку ШІ важливо розуміти не стільки його сильні сторони, скільки уразливості. Саме на цьому зосереджена велика кількість наукових груп, в одній з яких працює фахівець з MIT Аніш атали. Всього пару днів тому він розповів журналістам про найбільш часті помилки систем розпізнавання образів.

Його колеги демонстрували машині предмети і виявляли, що часто окремі об’єкти сприймалися електронним зором неправильно. Комп’ютер міг назвати бейсбольний м’яч чашкою кави, а роздруковану на 3D-принтері черепашку армійським автоматом. Група зібрала вже близько 200 предметів, які вводять алгоритми в оману.

Искусственный интеллект: опасный враг или добрый помощник

Штучний інтелект замість сприйняття об’єкта цілком, концентрувався на окремих його параметрах. ІЇ як правило вчиться на «ідеальної» вибірці. Коли він стикався з явищами, що не відповідають нормам, він не завжди може відмовитися від звичного процесу обробки. Замість того, щоб зізнатися у своїй нездатності обробити образ, він продовжує спроби прочитати зображення і це призводить до часом смішним результатами. Замість форми черепахи електронний мозок намагався вважати його структуру, схожу на камуфляж. Приблизно з тієї ж причини автопілоти електронних автомобілів поки що не є на 100% надійною. Машині важко побачити силует і припустити, що він складається з окремих елементів.

Читайте также:
Китай побудував марсохід

І якщо в найближчі роки якісь недоліки вдасться виправити, немає ніякої гарантії того, що вразливістю не скористаються хакери. Зломщики електронних пристроїв на сьогоднішній день є чи не головну причину страхів. Невеликий колектив програмістів здатний не тільки отримати доступ до особистої інформації, але і змінити автономні системи, взявши під контроль інструменти колосальної потужності. І тоді нам усім не поздоровиться. Але головний висновок, який можна зробити, мабуть, традиційний — боятися не варто машин, а людей.

Источник

Оцініть статтю
Популярний портал | Proexpress.com.ua | все найцікавіше в Україні

Thanks!

Our editors are notified.