June 11, 2019

Искусственный интеллект наносит колоссальный вред экологии планеты

Исследователи из Массачусетского университета (США) изучили особенности эксплуатации четырех принципиально разных современных ИИ: Transformer, ELMo, BERT и GPT-2. Они замерили суточное потребление энергии каждой системой и умножили его на время полного обучений нейросети по ее стандартной программе. Полученный объем энергии добавили в формулу генерации выбросов при средних показателях по США и получили очень неприятные значения.

Еще хуже обстоят дела, когда для обучения нейросетей применяют передовую технологию «поиска нейронной архитектуры» (NAS). Она позволяет без особых трудностей, просто методом проб и ошибок, автоматизировать процесс проектирования нейросети. Этот процесс весьма трудоемкий – тот же Transformer изначально тратит 84 часа на обучение новому языку, но с NAS на это уходит целых 270 000 часов.

И это только вершина айсберга — расчеты проводились для конкретных, хорошо известных нейросетей. А вот как на самом деле устроены гораздо более масштабные облачные платформы Google и Amazon, какое энергообеспечение у мощностей, на которых они базируются — вопрос открытый. Но и то, что уже известно, вызывает серьезное беспокойство. Развитие ИИ не должно стать новым источником угрозы экологии нашей планеты.

источник

"Популярная Механика"