Видовищне випробування супорта Bugatti, надрукованого на 3D-принтері
23 Грудня , 2018
В Стенфорді створили «штучні легені», які перетворюють воду в паливо
25 Грудня , 2018

Graphcore розробила революційні чіпи на базі обчислювальних графів

Штучний інтелект — найпереломніша (у всіх сенсах) технологія нашого часу. Чіпи штучного інтелекту — найвизначніша інфраструктура для штучного інтелекту. Якщо виходити з цих двох передумов, вплив того, що Graphcore планує масово випустити в світ, важко передбачити. Як будуть розширюватися межі закону Мура з появою IPU? Яке апаратне і програмне забезпечення нас чекає? Одне можна сказати напевно: Nvidia варто боятися і переживати.

Graphcore — популярна назва в світі чіпів ШІ, вже давно з’явилась на радарах великих технічних видань. Видавництву ZDnet вдалося поспілкуватися з засновниками Graphcore до того, як вони самі представили останні новини.

Graphcore, якщо ви ще не знали, щойно отримала чергові 200 мільйонів доларів фінансування від BMW, Microsoft і провідних фінансових інвесторів на масштабування найпросунутішого в світі чіпа ШІ. Тепер Graphcore оцінюється в 1,7 мільярда доларів. Серед партнерів компанії Dell, Bosch і Samsung. Неважко здогадатися, що назріває щось дуже велике. Але давайте по порядку.

Graphcore базується в Брістолі, Великобританія, і була заснована ветеранами напівпровідникової промисловості Найджелом Туном, CEO, і Саймоном Ноулзом, CTO. Раніше Тун і Ноулз працювали з такими компаніями, як Altera, Element14 і Icera. Тун впевнений, що вони можуть — і зможуть — перевернути напівпровідникову галузь сильніше, ніж будь-коли раніше, зламавши фактично монополію Nvidia.

Nvidia — головний гравець у сфері ШІ, завдяки її чіпам GPU. У цій області є й інші гравці, але Тун впевнений, що тільки у Nvidia є чітка, послідовна стратегія і ефективний продукт на ринку. Є ще Google, який інвестує в чіпи ШІ, але Toon стверджує, що у Graphcore є ключова перевага і фантастична можливість побудувати імперію з чіпами IPU (Intelligent Processor Unit). В якості прикладу він наводить успіх мобільних процесорів ARM.

Щоб зрозуміти, у чому причина його впевненості, впевненості його партнерів та інвесторів, нам потрібно зрозуміти, що саме робить Graphcore і що відрізняє її від конкурентів. Машинне навчання і штучний інтелект — це технології, що найактивніше розвиваються. Машинне навчання, яке лежить в основі штучного інтелекту в наші дні, дуже ефективне в знаходженні патернів і закономірностей, і працює на основі комбінації відповідних алгоритмів (моделей) і даних (навчальних наборів).

Деякі люди називають штучний інтелект перемножуванням матриць. Хоча такі крайні заяви сумнівні, факт залишається фактом: велика частина машинного навчання пов’язана з ефективними операціями з даними в масштабі. Саме тому GPU так добре справляються з навантаженнями машинного навчання. Їх архітектура розроблялася для обробки графіки, але показала себе вкрай ефективно і в операціях з даними.

Що зробила Graphcore? Інвестувала в абсолютно нову архітектуру. Саме тому Тун вважає, що у неї є перевага над іншими варіантами. Тун зазначає, що в конкурентній боротьбі ефективно будуються спеціалізовані чіпи (ASIC), які добре справляються з певними математичними операціями з даними, оптимізовані під певні завдання. Але для майбутніх навантажень це вже не підійде.

Що ж такого особливого у власній архітектурі Graphcore? Подейкують, що Graphcore створює нейроморфний чіп ШІ: процесор, створений за зразком людського мозку, з його нейронами і синапсами, відображеними в архітектурі. Але Ноулз розвіює ці чутки:

«Мозок — відмінний приклад для комп’ютерних архітекторів в цьому новому сміливому починанні машинного інтелекту. Але сильні і слабкі сторони кремнію сильно відрізняються від властивостей вологої обчислювальної начинки мозку. Ми не копіювали природу ні в літальних апаратах, ні в пересуванні на поверхні, ні в двигунах, тому що наші конструктивні матеріали інші. Те ж саме і з обчисленнями.

Наприклад, більшість нейроморфних комп’ютерних проектів виступають за комунікацію за допомогою електричних імпульсів, як в мозку. Але базовий аналіз ефективності використання енергії відразу ж показує, що електричний сплеск (два піка) в два рази менш ефективний, ніж передача інформації одним піком, тому копіювання мозку вже не буде гарною ідеєю. Я думаю, комп’ютерні архітектори зобов’язані прагнути дізнатися, як обчислює мозок, але не мають його буквально копіювати в кремнії».

Енергоефективність дійсно є обмежуючим чинником для нейроморфних архітектур, але нею все не обмежується. Коментуючи закон Мура, Тун зазначив, що ми набагато перевершили всі очікування і у нас ще 10-20 років прогресу в запасі. Але потім ми досягнемо деяких фундаментальних обмежень.

Тун вважає, ми досягли найменшої напруги, яку можемо використовувати в таких чіпах. Тому, ми можемо додати більше транзисторів, але змусити їх працювати набагато швидше не зможемо. «Ваш ноутбук працює на 2 ГГц, у нього просто більше ядер. Але нам потрібні тисячі ядер для роботи з машинним навчанням. Нам потрібен інший архітектурний процес для конструювання чіпів іншими способами. Старі методи не спрацюють».

Тун каже, що IPU — це універсальний процесор машинного інтелекту, спеціально розроблений саме для машинного інтелекту. «Однією з переваг нашої архітектури є те, що вона підходить для багатьох сучасних підходів до машинного навчання, таких як CNN, але при цьому високо оптимізована для інших підходів до машинного навчання, типу навчання з підкріпленням та інших. Архітектура IPU дозволяє нам перевершувати графічні процесори — вона поєднує в собі масивний паралелізм з більше ніж 1000 незалежних процесорних ядер на IPU і вбудовану пам’ять, так що всю модель можна розмістити на чіпі».

Але як IPU можна порівняти з GPU від Nvidia на практиці? Нещодавно були випущені тести машинного навчання, в яких Nvidia ніби як перемагала. Але як зазначає Тун, структури даних для машинного навчання відрізняються, оскільки вони більш багатовимірні і комплексні. Отже, з ними потрібно працювати інакше. GPU дуже потужні, але не обов’язково ефективні в роботі з цими структурами даних. Можна створювати і в 10, і в 100 разів швидші моделі.

Однак швидкість — це ще не все, що потрібно для успіху в цій грі. Nvidia, наприклад, досягла успіху не тільки тому, що її GPU потужні. Велика частина її успіху полягає в програмному забезпеченні. Бібліотеки, які дозволили розробникам абстрагуватися від апаратних особливостей і зосередитися на оптимізації своїх алгоритмів машинного навчання, стали ключовим елементом успіху компанії.

Звичайно, вам вже стало цікаво, що ж це за графи. Якого роду структури, моделі і формалізм використовує Graphcore для представлення та роботи з цими графами? Чи можна назвати їх графами знань? Хороші новини в тому, що чекати залишилося недовго.

«Ми називаємо їх просто обчислювальними графами. Всі моделі машинного навчання найкраще виражати у вигляді графів — так працює і TensorFlow. Просто наші графи на кілька порядків складніші, оскільки у нас є паралелізм на кілька порядків для роботи з графами на наших чіпах», говорить Тун.

Тун обіцяє, що з часом Graphcore надасть розробникам IPU повний доступ з відкритим вихідним кодом до своїх оптимізованим бібліотек графів, щоб вони могли бачити, як Graphcore створює програми..

Graphcore вже поставляє виробниче устаткування першим клієнтам в режимі раннього доступу. Зараз Graphcore продає PCIe-плати, що готові до підключення до серверних платформ, які називаються C2 IPU-Processor. Кожна містить два процесора IPU. Також компанія працює з Dell над залученням корпоративних клієнтів і хмарних клієнтів.

Продукт буде доступний у наступному році. Первинний фокус буде на дата-центрах, хмарних рішеннях і деяких периферійних додатках, що вимагають великих обчислювальних ресурсів, типу автономних автомобілів. На споживчі пристрої типу мобільних телефонів Graphcore поки не орієнтується.

Джерело

LEU
LEU
Головний редактор сайту uaengineer.com.ua

Залишити відповідь

Увійти за допомогою: