Прообразы компьютеров будущего.
Венгерский ученый Джон фон Нейман одним из первых описал в 1945 году архитектуру "автоматической цифровой вычислительной системы" или компьютера, существующую и по сей день. Электронно-вычислительная машина включала в себя: центральный процессор для обработки чисел, блок памяти, коммуникационный канал-шину между ними.
Фон Нейман мечтал о компьютере, в котором все, что хранится в памяти, было бы мгновенно доступно процессору. В отсутствие рабочего устройства теоретики создавали виртуальный комп: появилось разделение на быструю оперативную и медленную постоянную памяти, понятие центрального процессора. Почти 80 лет спустя выкладки Неймана по-прежнему точно описывают устройство большинства современных компьютеров.
Увеличивая быстроту обработки информации, сегодняшние ЭВМ упёрлись в предел скорости передачи данных от процессора к памяти. Скорость важна для функционирования моделей искусственного интеллекта (ИИ), которые требуют обработки больших объемов информации.
Анализ Амира Голами и его коллег из Калифорнийского университета в Беркли, показал, что за последние два десятилетия производительность процессоров утраивалась каждые два года, в то время как быстрота доступа к памяти увеличивалась лишь наполовину. Процессоры выполняют вычисления быстрее, чем данные для них подгружаются из памяти, создавая "узкое горлышко фон Неймана".
Не пришло ли время новой архитектуры? Каждый айтишник и образованный обыватель верят, что такое возможно.
Человеческий мозг не разделяет процессы обработки от хранения данных. В нём нет центрального координирующего устройства, которое используется в компьютерах. Мозг выполняет больше вычислений параллельно, чем ЭВМ, и делает это на эксафлопсной скорости - миллиард миллиардов вычислений в секунду - с низкой затратой энергии, эквивалентной 20 Ваттам. Для повторения масштаба вычислений человека, искусственной нейронной сети потребовалось бы 8 мегаватт энергии (больше в 400000 раз). Программное обеспечение для машинного обучения уже имитирует параллельную обработку данных с помощью нейронных сетей. Является ли следующим шагом создание аппаратного обеспечения, аналогичного структуре мозга?
Компьютеры со "встроенной памятью" - это процессоры, в которых используются специализированные запоминающие устройства, способные выполнять определенные вычисления. В их основе - мемристор, тип резистора, проводящие свойства которого можно легко регулировать, подавая достаточно высокий ток или напряжение. Важно отметить, что мемристор сохраняет свои свойства после исчезновения тока, функционируя, как запоминающее устройство. В отличие от транзисторов, которые представляют значения в виде 1 и 0, мемристоры записывают значения, как значения в аналоговом мире.
Если устройства расположить в виде сетки-матрицы из строк и столбцов, можно выполнить умножение за один временной промежуток-шаг. В приложениях машинного обучения это повышает энергоэффективность вычислений.
По аналогии с биологическим мозгом процессорные блоки могут активироваться только при необходимости, что позволяет снизить энергоёмкость операций. "Нейроморфные" вычисления устраняют необходимость в единых процессорных часах - разные нейроны обмениваются данными, когда они готовы. Нейронные сети более эффективны, поскольку требуют меньшего количества коммуникаций и вычислений.
IBM и "Интел" вовсю заняты разработкой нейро-чипов, заимствующих принципы вычислений и памяти из биомира. Чип NorthPole от IBM не имеет встроенной памяти вовсе. Компания утверждает, он в 25 раз более энергоэффективен и в 20 раз быстрее, чем специализированные чипы-аналоги для искусственного интеллекта.
Альтернативой традиционным процессорам является и использование света, а не электричества. Оптические ускорители могут обрабатывать информацию намного быстрее и с меньшими затратами энергии, чем их электрические аналоги. До недавнего времени эти устройства основывались на компонентах, которые были слишком громоздкими по сравнению с миниатюрными процессорами. Прогресс в области физики-фотоники помог уменьшить размеры оптических устройств до нано уровня.
В основе оптического компьютера лежит довольно старая идея: интерферометр Маха–Цендера, изобретенный ещё в 1890-х годах. Устройство улавливает луч света и разделяет его на два направления. В зависимости от длины каждого пути изменяется фаза луча (то есть, время прохождения вершины и впадины волны). Затем два луча комбинируются таким образом, что амплитуда, или сила, выходного луча равна амплитуде входного луча, умноженной на величину, которая зависит от разности фаз между разделенными лучами. Вычисления в оптических массивах происходят со скоростью света и почти не потребляют энергии.
Ник Харрис, руководитель "Лайт Мэттер", калифорнийского технологического стартапа по производству фотонных чипов, отмечает, что оптические компьютеры не подходят для логических операций. Но поясняет, хотя они "никогда не будут работать под управлением Windows", фотонные чипы станут отличной альтернативой для запуска нейронных сетей, поскольку энерговыгода "растет в геометрической прогрессии".
Какими бы многообещающими ни были попытки создания альтернативных компьютеров, традиционным собратьям все еще необходимо взаимодействовать с цифровым миром. Преобразование нецифровых сигналов в двоичные единицы и нули требует огромных затрат энергии. Но в приложениях логического вывода, где обученная модель искусственного интеллекта отвечает на запросы пользователей, скорость превосходит точность. Компромисса достаточно для того, чтобы альтернативные компьютеры стали более массовым явлением.