Intel выпустит до конца 2017 года первый в мире процессор для нейронных сетей

Возврат к списку

19.10.2017     
Компания Intel анонсировала выпуск новой линейки процессоров, предназначенных для аппаратного ускорения машинного обучения.

Продукт стал результатом разработок в области двух перспективных развивающихся областей – когнитивных систем и систем с искусственным интеллектом. 

Как считает генеральный директор корпорации Intel Брайан Кржанич, сегмент рынка этой области к 2020 году достигнет 46 млрд долларов. В настоящее время Intel ведет исследования и занимается инвестированием в эти два направления посредством разработки аппаратного обеспечения, алгоритмов обработки данных и аналитики, а также путем поглощения конкурентов и совершенствования действующих технологий.

Семейство чипов, получило название Intel Nervana Neural Network Processor. Как сообщается на официальном сайте Intel, их планируют выпустить на рынок уже до конца 2017 года. 

Пока в компании не стали раскрывать технические подробности новой архитектуры процессоров, однако отметили, что она оптимизирована для выполнения наиболее частых операций, применяемых в машинном обучении, таких как свертка и умножение матриц, а также для эффективного распараллеливания операций. При этом Nervana отличается от обычных процессоров отсутствием иерархического кэша, вся память находится под программным управлением.

Также в компании отмечают, что новый процессор может совершить революцию в области ИИ в самых разных отраслях, поскольку с помощью него компании смогут разрабатывать совершенно новые классы приложений на основе искусственного интеллекта, позволяющие обрабатывать еще больше данных и трансформировать бизнес.

В последующих поколениях своих чипов Intel планирует увеличить вычислительную мощность и возможности масштабирования моделей для ИИ. При этом компания нацелена достичь 100-кратного увеличения мощности искусственного интеллекта к 2020 году.

Напомним, что ранее корпорация Microsoft представила платформу для ускорения глубинного обучения искусственного интеллекта.



Автор:
Яна Казьмина Редактор ленты новостей


Комментарии
1. Сергей Смирнов (protexprotex) 166 19.10.17 11:48 Сейчас в теме
В общем, начинается битва между GPU(CUDE/вычислительные шейдеры) и новым CPU :-) - будут делить рынок.
2. Роман Петелин (roman77) 52 19.10.17 11:56 Сейчас в теме
3. Rik - (Rik30) 12 19.10.17 12:36 Сейчас в теме
Ждите Сару Коннор. Опередили
4. Алексей Коломийцев (AleksKol) 19.10.17 14:19 Сейчас в теме
Зло зарождается в Красноярске. Потом выкупят эти чипы у интела. Приятного просмотра.

Кибердайн Системс из Красноярска)))
6. Вася Пупкин (bubus) 19.10.17 16:59 Сейчас в теме
(4)Кибердайн Системс. Размер уставного капитала 10 000 руб. Проиграла 62% процессов в качестве истца и 33% в качестве ответчика.
Они свой проездной судя по всему из ломбарда выкупить не могут. А долги по выплатам за купленный в кредит стол, превышают стоимость компании
TreeDogNight; +1 Ответить
5. sergey makarov (s22) 20 19.10.17 14:56 Сейчас в теме
Такие чипы делали еще 1980 или что вероятно раньше.

Просто интел считала что это подорвет ее бизнес процов.
user761890; +1 Ответить
9. Сергей Смирнов (protexprotex) 166 21.10.17 20:09 Сейчас в теме
(5) Это были не такие чипы - это были просто векторные ускорители. А тут задумка в том, что надо умножать много матриц (для сверточной нейронной сети, например) - там нужна не столько скорость умножения, а сколько просто много потоков - где каждый поток умножает свою матрицу - но т.к. как их много, то ускорение будет на порядки больше чем умножение матриц в одном/нескольких потоках как сейчас на обычном CPU. Это сейчас делают на GPU. Вот интел и хочет урвать этот кусок у NVidia и amd.
7. Виталий Петров (vipetrov2) 20.10.17 04:26 Сейчас в теме
Старая архитектура уже вымирает. А квантовые, световые компьютеры тоже пока не реальны. Поэтому все ИТ гиганты делают ставку на нейракомпьютер, который по архитектуре больше будут похож на видеокарты. Сейчас производительность видеокарты в 30-50 раз больше чем центрального процессора. Поэтому они и хотят перенять наработки графических ускорителей. Уже есть подобные гибридные процессоры, и при чем основными ядрами там используется архитектура ARM, т.е. процессоры смартфонов. Потому что цена и энергоэффективнисть у них выше, чем у x86.
Так что лет через 10 надо будет пере обучатся, для работы с нейрокомпьютерами.
8. Сергей Смирнов (protexprotex) 166 21.10.17 05:12 Сейчас в теме
(7)На нейрокомпьютере Вы зарплату не посчитаете, 2+2 не сложите (с точностью 100% не получите 2+2 = 4. Получите 2 + 2 = 3.9999999 или 2 + 2 = 4.000000000001111). Это просто матричный множитель.
BuhBuhov; +1 Ответить
10. Роман Петелин (roman77) 52 25.10.17 12:30 Сейчас в теме
(8) если округлить до копеек, то получится правильно
11. Сергей Смирнов (protexprotex) 166 25.10.17 12:35 Сейчас в теме
(10) Это Вы знаете, что надо округлять. А при решении задач существует следующая постановка: дано два числа x и y, надо выполнить действие умножения: x*y, получится число z - вот это число и будет ответом. Никто же не говорит, что надо округлять, т.к. 2*2 = 4, но нейрокомп может выдать и 3.999, а может и 4.001 - какое правильное? - без округления? - ответ - с точки зрения нейроком - оба. (кстати, в квантовых вычислениях также могут быть два ответа, только вероятность одного 99%, а вероятность другого - 1% - отсюда принимаем ответ тот, которые 99% (но ошибка все - же есть)) Вот так вот :-)
12. Роман Петелин (roman77) 52 25.10.17 12:54 Сейчас в теме
(11) Я знаю совершенно точно, что в зарплате всё округляется до копеек в связи с тем, что у нас денежные единицы исчисляются с точностью до 2-го знака после запятой :) Так что нейропроцессор вполне проканает и для зарплаты. Пусть он себе считает 3.9999999, а в базу данных сохранится 4.00
13. Сергей Смирнов (protexprotex) 166 25.10.17 13:17 Сейчас в теме
(12) Прикалываетесь? - очень смешно. Когда у Вас умножаются два числа, и когда порядок чисел маленький, то ошибка - мала. А когда большой - возьмите калькулятор и посчитайте:
2*0.9999 = 1.9998
2*0.9998 = 1.9996
тут ошибка мала
200000*0.9999 = 199980
200000*0.9998 = 199960
а тут разница - целых 20 рублей
А если это будет не 200000, а, скажем, 20000000? - сами посчитайте
Не хотите чтобы Вам з/п считал нейрокомпьютер?
Уж такую элементарную математику надо знать.
14. Роман Петелин (roman77) 52 25.10.17 14:58 Сейчас в теме
(13) Нет, не прикалываюсь. Если нейрон будет выдавать ответы с точностью до 11 знака после запятой, как вы это проиллюстрировали в своем первом примере, то этой точности более чем достаточно для денежных расчетов. В реальном мире такой точности вообще на практике не встречается.
16. Сергей Смирнов (protexprotex) 166 25.10.17 15:43 Сейчас в теме
(14) Тем более, если Вы говорите про одиннадцать знаков, а если расчет идет на триллионы (при расчете бюджета страны) - то там тоже думаете будет маленькое округление?
Ну ка проверим -
1 000 000 000 000 * 0, 99999999991 = 999999999910
1 000 000 000 000 * 0, 99999999990 = 999999999900

- и как ? - тоже пренебрегать будете?
:-)
17. Роман Петелин (roman77) 52 25.10.17 16:00 Сейчас в теме
(16) Во-первых, речь шла про з/п, а не про масшатбы страны.
Во-вторых, в нейронной сети операция умножения будет происходить не так как вы написали. Получается, что 0, 99999999991 вы посчитали на нейроне, а потом почему-то решили воспользоваться калькулятором и умножить на 1 000 000 000 000 :)
В-третьих, пример какой-то странный. У вас есть триллион рублей и вы зачем-то хотите умножить его на какой-то 11-значный коэффициент. Где встречается такая задача?

imho в реальной жизни погрешности из-за округления до копеек в ходе расчетов гораздо существеннее ваших примеров.
22. rjhev korum (корум) 315 25.10.17 17:49 Сейчас в теме
(8)
Получите 2 + 2 = 3.9999999

1c так и работает, и ничего...
23. Сергей Смирнов (protexprotex) 166 25.10.17 18:10 Сейчас в теме
26. rjhev korum (корум) 315 26.10.17 11:59 Сейчас в теме
(23)
Оценил!

Если бы это было шуткой.
27. Сергей Смирнов (protexprotex) 166 26.10.17 12:50 Сейчас в теме
(26) Тогда не понял. Поясните, пжл.
28. rjhev korum (корум) 315 26.10.17 13:58 Сейчас в теме
29. Сергей Смирнов (protexprotex) 166 26.10.17 14:23 Сейчас в теме
(28) Фигня все это. Что такое бинарная математика знаете (в регистрах процессора такая штука работает :-) )?
В бинарной двойка представляется как 00000010:
Для примера -
0 - это 00000000
1 - это 00000001
2 - это 00000010
3 - это 00000011
4 - это 00000100
5 - это 00000101
6 - это 00000110
7 - это 00000111
8 - это 00001000
и т.д.
т.е. если мы 00000010 + 00000010 = 00000100 - т.е. 4
Не путайте хранение целых (int) чисел и float/double в регистрах процессора.
30. rjhev korum (корум) 315 26.10.17 16:39 Сейчас в теме
(29) Похоже, про взаимосвязь производительной видеокарты на сервере и работы 1с8 вы тоже не в курсе.
31. Сергей Смирнов (protexprotex) 166 26.10.17 16:44 Сейчас в теме
(30) Простите, а причем тут сложение двух чисел и связь видеокарты с 1С 8? - это как клеится к этому вопросу? - или Вы числа складываете на видеокарте + майните все это из 1С? - криптовалютами что-ли занимаетесь? Совсем не понял к чему этот пост. Потрудитесь объяснить, пжл.
32. rjhev korum (корум) 315 26.10.17 18:45 Сейчас в теме
33. Сергей Смирнов (protexprotex) 166 26.10.17 19:44 Сейчас в теме
(32) Ну - видеокарта нужна только для ускорения отображения - к 1С она никакого отношение не имеет. И то - это ускорение на уровне отображения виндового. Это из серии - "у меня не работает 1С !!!! - так у тебя же комп не включен!!! - ну да, но 1С-ка почему не работает?" :-)
34. Виталий Петров (vipetrov2) 27.10.17 04:43 Сейчас в теме
(8) А кто тебе сказал, что все задачи будут решаться нейро-сетью? Нейро-компьютер будет гибридным, т.е. 4 классических ядра, и несколько миллионов и даже миллиардов потоковых процессоров. Уже примеров навалом, например Intel Stratix. Или AMD скоро выпустить свои процессоры с интергированным видео ядром Riva, там тоже будет 2000-4000 потоковых процессоров.
Вообще нейро-сеть это надстройка над обычным компьютером, которая будет решать больший круг задач, а ядра ARM(они выгоднее чем x86) будут, как часть системы. Т.е. программа калькулятора будет использовать классический код для ARM ядра, а программа поиска оптимального маршрута будет использовать нейросеть.
35. Сергей Смирнов (protexprotex) 166 27.10.17 07:55 Сейчас в теме
(34) Никто не сказал. Я полностью с этим согласен. Только здесь разговор шел шел - подчеркиваю - о возможности (без ошибки как в классическом процессоре) вычисления 2*2. В нейрокомпе это будет хоть с малой, но с ошибкой. В обычном это будет точно (если использовать целые числа). Или я что - то упустил? - и тут в этой ветке другая тема развита была?
А поводу тнтегрированных потоковых процессоров - я сам этого жду. Т.к. сам занимаюсь видеораспознаванием. На GPU + CUDA - не очень удобно. На вычислительных вертесах - тоже. Хоть и все это и быстро.
15. Сергей Смирнов (protexprotex) 166 25.10.17 15:28 Сейчас в теме
Проблема в том, что нейрон выдает не просто число с определенной точностью, и всегда точность постоянна, а первый раз ошибка будет в четвертом знаке после запятой, во второй раз - в пятом и т.д. (и нельзя гарантировать, что ошибка будет ВСЕГДА в 11 (например) знаке после запятой) Как Вы тогда будете зарплату считать, когда у Вас каждый раз - разные цифры?. Вам надо почитать про нейронные сети, и Вы тогда поймете в чем и как Вы ошибаетесь. Почитайте про полносвязные нейронные сети типа MPL.
18. Роман Петелин (roman77) 52 25.10.17 16:04 Сейчас в теме
(15) Это вам надо почитать про нейронные сети. Там ведь всё дело в масштабах. Если у вас примитивная сеть, то да, практического толка ни какого. А если у вас нейронная сеть по масштабам как мозг муравья, то открываются фантастические возможности.
19. Сергей Смирнов (protexprotex) 166 25.10.17 16:34 Сейчас в теме
(18)
Ну - ка - ну ка - просветите меня по поводу возможностей умножения муравьев - даже интересно стало :-)
или Вы думаете, что если сеть из 2-х нейронов нельзя обучить умножению чисел, то из миллиарда можно? - тут все зависит не от количества нейронов, а от структуры нейронной сети. Ладно, больше отвечать не буду. Нет смысла обсуждать тему с человеком ничего не понимающим в этой области. Спасибо за разговор.
20. Роман Петелин (roman77) 52 25.10.17 16:51 Сейчас в теме
21. Сергей Смирнов (protexprotex) 166 25.10.17 17:13 Сейчас в теме
(20) Если обидел - прошу прощения (серьезно). Не обижайтесь. Я не преследовал целью Вас обидеть или задеть.
24. Роман Петелин (roman77) 52 25.10.17 22:23 Сейчас в теме
(21) Не, не обижаюсь. За вас беспокоюсь. Сейчас даже детям в 5 классе объясняют основы поведения в интернет: что написано пером - не вырубишь топором, все ваши посты остаются на всегда в кэше даже если сайт прекращает существование. Лет через 10 ваш потенциальный работодатель помониторит ваши посты и решит: "переходит на личности по любому поводу, нам такой скандалист не нужен" :(
25. Андрей Акулов (DrAku1a) 1230 26.10.17 03:14 Сейчас в теме
Завезут таки для игр ИИ на уровне движка! Учитывая, что одним из основных потребителей новинок IT-индустрии является гейминг - эти технологии будут востребованы.
С другой стороны, если комп целиком будет строиться на нейросетях, то со временем - мы начнём скучать по временам, когда почти все проблемы в работе системы можно было решить переустановкой (в стиле "Нажми Reset - проблемы нет").
Оставьте свое сообщение