У Siemens надрукували на 3D-принтері деталь для АЕС
17 Березня , 2017
Наступне покоління електрокарів буде їздити на морській воді
17 Березня , 2017

Чому етична проблема — найсерйозніша для штучного інтелекту

Штучний інтелект уже всюди і всюди залишиться. Багато аспектів нашого життя в тій чи іншій мірі стосуються штучного інтелекту: він вирішує, які книги придбати, які квитки на авіарейс замовити, наскільки успішні подані резюме, чи надасть банк позику і які ліки від раку призначити пацієнту. Багато його застосуваннь по наш бік океану ще не прийшли, але обов’язково прийдуть.

Всі ці речі — і багато інших — тепер можуть в значній мірі визначатися складними програмними системами. Величезні успіхи, досягнуті ШІ за останні кілька років, вражаючі: ШІ робить наше життя кращим у багатьох випадках. Зростання штучного інтелекту стало неминучим. Величезні суми були інвестовані в стартапи на тему ШІ. Багато існуючих технічних компаній — включаючи таких гігантів, як Amazon, Facebook і Microsoft, — відкрили нові дослідницькі лабораторії. Не буде перебільшенням сказати, що програмне забезпечення тепер означає ШІ.

Деякі пророкують, що пришестя ШІ буде такою ж великою подією (або навіть більше), як і поява Інтернету. BBC опитала експертів, що готує цей швидко мінливий світ, наповнений блискучим машинами, нам, людям. І що особливо цікаво, що майже всі їхні відповіді були присвячені етичним питання.

Пітер Норвіг, директор з досліджень в Google і піонер машинного навчання, вважає, що технології ШІ, засновані на даних, піднімають особливо важливі питання: як забезпечити, щоб ці нові системи поліпшували суспільство в цілому, а не лише тих, хто ними керує. «Штучний інтелект виявився досить ефективним у практичних задачах — від маркування фотографій до розуміння мовлення та письмової розмовної мови, виявлення захворювань», говорить він. «Тепер завдання полягає в тому, щоб упевнитись, що кожен користується цією технологією».

Велика проблема полягає в тому, що складність програмного забезпечення часто означає, що неможливо точно визначити, чому система ШІ робить те, що робить. Завдяки тому, як працює сучасний ШІ — грунтуючись на широко успішній техніці машинного навчання, — просто неможливо відкрити капот і подивитися, як він працює. Тому нам доводиться просто йому довіряти. Завдання полягає в тому, щоб придумати нові способи моніторингу або аудиту багатьох областей, в яких ШІ відіграє велику роль.

Джонатан Зітрейн, професор інтернет-права юридичного факультету Гарварда, вважає, що існує небезпека того, що ускладнення комп’ютерних систем може перешкодити нам у забезпеченні належного рівня перевірки і контролю. «Мене турбує скорочення автономії людини, оскільки наші системи — за допомогою технологій стають все більш складними і тісно взаємопов’язаними», говорить він. «Якщо ми налаштуємо і забудемо», ми можемо пошкодувати про те, як розвинеться система і що не розглянули етичний аспект раніше».

Це занепокоєння поділяють і інші експерти. «Як ми зможемо сертифікувати ці системи як безпечні?», запитує Міссі Каммінгс, директор Лабораторії людини і автономності в Університеті Дьюка в Північній Кароліні, одна з перших жінок-пілотів винищувача ВМС США, нині фахівець по безпілотникам.

За нею потрібно наглядати, але поки не зрозуміло, як це зробити. «На даний час, у нас немає загальноприйнятих підходів», говорить Каммінгс. «І без промислового стандарту тестування таких систем буде важко широко імплементувати ці технології».

Але в стрімко мінливому світі часто і органи врегулювання опиняються в позиції наздоганяючих. У багатьох важливих сферах зразок кримінального правосуддя і охорони здоров’я компанії вже насолоджуються ефективністю штучного інтелекту, який приймає рішення про умовно-дострокове звільнення або діагностиці захворювання. Передаючи право вирішення машинам, ми ризикуємо втратити контроль — хто буде перевіряти правоту системи в кожному окремому випадку?

Дана Бойд, головний дослідник Microsoft Research, говорить, що залишаються серйозні питання про цінності, які записуються в такі системи — і хто в кінцевому підсумку несе за них відповідальність. «Регулятори, громадянське суспільство і соціальні теоретики все частіше хочуть бачити ці технології справедливими і етичними, але їх концепції в кращому випадку розпливчасті».

Одна з областей, що загрожують етичними проблемами, це робочі місця, взагалі ринок праці. ШІ дозволяє роботам виконувати все більш складні роботи і витісняє велику кількість людей. Китайська Foxconn Technology Group, постачальник Apple і Samsung, заявила про намір замінити 60 000 робітників заводу роботами, а фабрика Ford у Кельні, Німеччина, поставила роботів поруч з людьми.

Більш того, якщо підвищення автоматизації надасть великий вплив на зайнятість, це може мати негативні наслідки для психічного здоров’я людей. «Якщо задуматись про те, що дає людям сенс у житті, це три речі: значущі стосунки, пристрасні інтереси і значуща робота», говорить Ієзекієль Емануель, біоетик і колишній радник з питань охорони здоров’я Барака Обами. «Значуща робота — дуже важливий елемент чиєїсь ідентичності». Він каже, що в регіонах, де робОти були втрачені разом з закриттям фабрик, підвищується ризик суїциду, зловживання психоактивними речовинами і депресії.

В результаті ми бачимо потребу у великій кількості фахівців з етики. «Компанії будуть слідувати своїм ринковим стимулам — це не погано, але ми не можемо покладатись на те, що вони будуть вести себе етично коректно просто так», каже Кейт Дарлінг, спеціаліст з права та етики в Массачусетському технологічному інституті. «Ми бачили це кожен раз, коли з’являлась нова технологія і ми намагались вирішити, що з нею робити».

Дарлінг зазначає, що багато компаній з відомими іменами, такі як Google, які вже створили наглядові комітети з етики, які контролюють розробку і розгортання їх ШІ. Є думка, що вони мають бути більш поширеними. «Ми не хочемо душити інновації, але такі структури нам просто необхідні», говорить вона.

Подробиці про те, хто сидить в раді з етики Google і чим займається, залишаються туманними. Але в минулому вересні Facebook, Google і Amazon запустили консорціум для розробки рішень, які дозволять впоратися з безліччю пасток, пов’язаних з безпекою і секретністю ШІ. OpenAI — теж організація, яка займається розробкою і просуванням ШІ з відкритим вихідним кодом на благо всіх. «Важливо, щоб машинне навчання вивчалось відкрито і поширювалось через відкриті публікації і відкритий вихідний код, щоб ми всі могли взяти участь у розподілі винагород», говорить Норвіг.

Якщо ми хочемо розвивати промисловість і етичні стандарти і при цьому чітко усвідомлювати, що поставлено на карту, то важливо створити мозковий штурм за участі фахівців з етики, технологій і лідерів корпорацій. Мова йде про те, щоб не просто замінити людей роботами, а допомогти людям.

LEU
LEU
Головний редактор сайту uaengineer.com.ua

Залишити відповідь

Увійти за допомогою: