Авторизація
  • 21:25 – Ремонт доріг місцевого значення проводять у Холмківській територіальній громаді Ужгородського району 
  • 11:11 – Мукачево та Пряшів зміцнюють партнерські відносини 
  • 10:32 – Закарпатобленерго звернулися до батьків 
  • 09:33 – Щодо допустимої кількості символів в графі «найменування товару» та кількості номенклатурних позицій в «ПРРО ДПС» 
  • 09:04 – Поліцейські допомогли літньому чоловіку повернутися додому 

 

Чому різке гальмування штучного інтелекту більш ймовірне, ніж його світове панування

Штучний інтелект за останній рік захопив цифровий світ і його намагаються вбудувати майже в кожну річ. Смартфони та автомобілі зі штучним інтелектом, заміна працівників штучним інтелектом. Здавалося б, штучний інтелект скоро захопить світ. Але професор Оскар Озоліньш з оптичних комунікацій у Ризькому технічному університеті прогнозує, що варто очікувати різке гальмування штучного інтелекту, ніж його світового панування.



Чому різке гальмування штучного інтелекту більш ймовірне, ніж його світове панування



Прогнози щодо зупинки поточного вибухового поширення штучного інтелекту засновані на глобальній кризі обчислювальної потужності. Індустрія процесорів та іншого комп’ютерного заліза дійшла ліміту і останні роки тупцює на місці.


Простіше кажучи, між експоненціальним зростанням потреб штучного інтелекту і триваючою глобальною цифровою трансформацією, центрам обробки даних не вистачає місця. Рівень вакантності досягає рекордно низького рівня, а ціни зростають у відповідь на попит, що викликає велике занепокоєння серед технічних лідерів.


Якщо ця тенденція збережеться, то в якийсь момент ми дійдемо до моменту, коли ми більше не зможемо виконувати все те, що теоретично дозволяють нам робити технології, оскільки наша здатність обробляти дані буде обмежена.




Можливо, найбільше занепокоєння викликає те, що трансформаційний потенціал штучного інтелекту, який ми тільки починаємо використовувати, буде придушений суто фізичними обмеженнями. Це перешкоджатиме новим відкриттям і розробці більш просунутих моделей машинного навчання. Тобто апокаліпсис внаслідок глобального домінування штучного інтелекту відкладається.


Чи є спосіб уникнути кризи обчислювальної потужності? Оскільки масштабне скорочення наших обчислювальних вимог насправді не є варіантом, єдиною альтернативою є значне збільшення потужності, яке зводиться до двох доступних напрямків дій: побудувати більше центрів обробки даних і розвинути кращу цифрову інфраструктуру.


Але це легше сказати, ніж зробити.




Чому більше центрів обробки даних – це не відповідь


До цього часу зростаючий попит на обчислювальну потужність частково задовольнявся будівництвом більшої кількості центрів обробки даних.


За консервативними оцінками, обсяг нерухомості, зайнятої центрами обробки даних, зростав приблизно на 40% на рік. Можна очікувати, що ця цифра залишиться досить стабільною, оскільки проблеми з електропостачанням і затримки будівництва серйозно обмежують розширення потужностей.


Іншими словами, сьогодні попит неможливо задовольнити просто шляхом нарощення будівництва центрів обробки даних.


Це також не повинно бути тим, до чого ми прагнемо. Кожен із цих ЦОДів розміром із футбольне поле поглинає величезну кількість енергії та води, завдаючи серйозного навантаження на навколишнє середовище як локально, так і глобально. Один центр обробки даних може споживати стільки ж електроенергії та води, скільки 50 000 будинків, а вуглецевий слід «хмар» вже перевищує показники авіаційної промисловості.


Деякі центри обробки даних пройшли довгий шлях у мінімізації свого впливу на навколишнє середовище. Це значною мірою завдяки жорсткій гонці сталого розвитку, яка стимулювала інновації, зокрема, що стосуються охолодження та енергоефективності. Сьогодні ви знайдете центри обробки даних у підземних шахтах, у морі та з використанням інших можливостей природного охолодження, таких як водні потоки у фіордах, щоб зменшити споживання енергії та води.


Проблема в тому, що ці рішення неможливо реалізувати в глобальному масштабі, і кип’ятіння наших морів не є життєздатним шляхом уперед. Створення більшої кількості центрів обробки даних — незалежно від того, наскільки вони ефективні — продовжуватиме завдавати шкоди місцевим екосистемам і перешкоджати національним і міжнародним зусиллям щодо сталого розвитку.




Думайте нестандартно


Все-таки два чипи краще, ніж один, якщо тільки якщо цей єдиний чип не працює з подвійною швидкістю. Щоб уникнути скорочення пропускної здатності, всі надії покладаються на вдосконалення цифрової інфраструктури, а саме чипів, комутаторів, проводів та інших компонентів, які можуть підвищити швидкість передачі даних і пропускну здатність, споживаючи менше енергії.


Еволюція штучного інтелекту залежить від пошуку способів передавати більше даних, не витрачаючи більше енергії.


По суті, це означає дві речі. По-перше, розробка більш потужних чипів, орієнтованих на штучний інтелект. По-друге, підвищення швидкості передачі даних.


Розробка нестандартних мікросхем для штучного інтелекту


Існуюча цифрова інфраструктура не дуже добре підходить для ефективного розвитку моделей машинного навчання. Центральні процесори загального призначення (CPU), які продовжують залишатися основними обчислювальними компонентами в центрах обробки даних, важко виконують завдання, пов’язані зі штучним інтелектом, через недостатню спеціалізацію та недостатню обчислювальну ефективність.


Графічні процесори (GPU) працюють набагато краще в задачах штучного інтелекту завдяки вищій енергоефективності та паралелізму. Ось чому всі їх хапають, що призвело до дефіциту цих мікросхем.




Проте графічні процесори неминуче врізаються в ту саму цегляну стіну. Вони не оптимізовані для завдань штучного інтелекту, що призводить до марнування енергії та неоптимальної продуктивності при виконанні все більш складних і інтенсивних даних вимог сучасних програм штучного інтелекту.


Ось чому такі компанії, як IBM, розробляють мікросхеми, адаптовані до обчислювальних вимог штучного інтелекту, які обіцяють отримати максимальну продуктивність, мінімізуючи споживання енергії та простір.


Покращення пропускної здатності передачі даних


Жодна сучасна модель штучного інтелекту не працює на одному чипі. Натомість, щоб максимально використати доступні ресурси, кілька мікросхем збирають у кластери. Ці кластери часто є частиною великих мереж, кожна з яких призначена для конкретних завдань.


Відповідно, міжсистемне з’єднання або система, що полегшує зв’язок між чипами, кластерами та мережами, стає критично важливим компонентом. Якщо вона не зможе підтримувати швидкість решти системи, вона ризикує стати вузьким місцем, яке перешкоджає продуктивності.


Проблеми, пов’язані з пристроями передачі даних, віддзеркалюють виклики, пов’язані з чипами: вони повинні працювати на високій швидкості, споживати мінімальну енергію та займати якомога менше фізичного простору. Оскільки традиційні електричні з’єднання швидко досягають своїх меж щодо пропускної здатності та енергоефективності, усі погляди зосереджені на оптичних обчисленнях — зокрема на кремнієвій фотоніці.




На відміну від електричних систем, оптичні системи використовують світло для передачі інформації, забезпечуючи ключові переваги у важливих сферах — фотонні сигнали можуть поширюватися зі швидкістю світла та передавати дані з більшою щільністю. Крім того, оптичні системи споживають менше енергії, а фотонні компоненти можуть бути набагато меншими, ніж їхні електричні аналоги, що дозволяє створювати більш компактні чипи.


Проблеми зростання передових технологій


Основні слова тут: «може бути». Оптичні обчислення, хоча вони надзвичайно швидкі та енергоефективні, наразі стикаються з проблемами мініатюризації, сумісності та вартості.


Оптичні перемикачі та інші компоненти можуть бути громіздкішими та складнішими, ніж їхні електронні аналоги, що призводить до труднощів у досягненні такого ж рівня мініатюризації. На даний момент ми ще не знайшли матеріали, які можуть діяти як ефективний оптичний носій і масштабовані для обчислювальних програм з високою щільністю.


Перехід на них також був би важкою битвою. Центри обробки даних, як правило, оптимізовані для електронної, а не фотонної технології, і інтеграція оптичних компонентів із існуючою електронною архітектурою становить серйозну проблему.


Крім того, оптичні обчислення, як і будь-яка передова технологія, ще не підтвердили себе в цифровій галузі. Існує критична нестача досліджень довгострокової надійності оптичних компонентів, особливо в умовах високого навантаження та стресу, характерних для середовищ центрів обробки даних.


І на довершення всього — спеціальні матеріали, необхідні для виготовлення оптичних компонентів, дорогі, що робить широке впровадження потенційно непомірно дорогим, особливо для невеликих центрів обробки даних або центрів із жорсткими бюджетними обмеженнями.




Отже, ми рухаємось достатньо швидко, щоб уникнути проблем?


Напевно ні. Безумовно, не припиняти будівництво дата-центрів у короткостроковій перспективі.


Якщо вас це розрадить, знайте, що вчені та інженери добре знають про проблему та наполегливо працюють над пошуком рішень, які не знищать планету, постійно розсуваючи межі та досягаючи значних успіхів у оптимізації центрів обробки даних, дизайні чипів та всіх аспектах оптичні обчислення.


Але є серйозні виклики, і важливо вирішувати їх безпосередньо, щоб сучасні технології могли повністю реалізувати свій потенціал.


За матеріалами: The Next Web

 

Підписуйтесь на канал в Telegram та читайте нас у Facebook. Завжди цікаві та актуальні новини!

Залишити коментар
Підписуйтесь на нас