<?xml version="1.0" encoding="utf-8" ?><feed xmlns="http://www.w3.org/2005/Atom" xmlns:tt="http://teletype.in/" xmlns:opensearch="http://a9.com/-/spec/opensearch/1.1/"><title>@howareyou</title><author><name>@howareyou</name></author><id>https://teletype.in/atom/howareyou</id><link rel="self" type="application/atom+xml" href="https://teletype.in/atom/howareyou?offset=0"></link><link rel="alternate" type="text/html" href="https://teletype.in/@howareyou?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=howareyou"></link><link rel="next" type="application/rss+xml" href="https://teletype.in/atom/howareyou?offset=10"></link><link rel="search" type="application/opensearchdescription+xml" title="Teletype" href="https://teletype.in/opensearch.xml"></link><updated>2026-04-05T01:26:31.238Z</updated><entry><id>howareyou:hardwarelottery</id><link rel="alternate" type="text/html" href="https://teletype.in/@howareyou/hardwarelottery?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=howareyou"></link><title>Аппаратная лотерея</title><published>2023-06-15T19:32:59.844Z</published><updated>2023-06-15T19:32:59.844Z</updated><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://img4.teletype.in/files/35/ca/35ca73bc-e73f-4154-9303-607551863adb.png"></media:thumbnail><category term="neuro" label="neuro"></category><summary type="html">&lt;img src=&quot;https://img2.teletype.in/files/5c/d4/5cd4692c-1e05-428b-8cf8-b05e53e1c4d9.png&quot;&gt;Sara Hooker — August, 2020. Перевод оригинальной статьи The Hardware Lottery. Лонгрид.</summary><content type="html">
  &lt;hr /&gt;
  &lt;section style=&quot;background-color:hsl(hsl(0,   0%,  var(--autocolor-background-lightness, 95%)), 85%, 85%);&quot;&gt;
    &lt;blockquote id=&quot;k91P&quot; data-align=&quot;center&quot;&gt;Sara Hooker — August, 2020. Перевод &lt;a href=&quot;https://hardwarelottery.github.io/&quot; target=&quot;_blank&quot;&gt;оригинальной статьи The Hardware Lottery&lt;/a&gt;. Лонгрид.&lt;/blockquote&gt;
  &lt;/section&gt;
  &lt;h2 id=&quot;f4fl&quot;&gt;Введение&lt;/h2&gt;
  &lt;p id=&quot;VgIF&quot;&gt;Сообщества, изучающие аппаратное обеспечение, системы и алгоритмы, исторически имели разные структуры стимулов и изменчивую мотивацию для явного взаимодействия друг с другом. Такая историческая трактовка странна, учитывая, что аппаратное и программное обеспечение часто определяло успех (или неудачу) исследовательских идей.&lt;/p&gt;
  &lt;p id=&quot;81GV&quot;&gt;В этом эссе вводится термин «аппаратная лотерея» для описания того, когда исследовательская идея выигрывает, потому что она подходит для доступного программного и аппаратного обеспечения, а не потому, что эта идея превосходит альтернативные направления исследований. История говорит нам, что аппаратные лотереи могут запутать ход исследований, представив успешные идеи как неудачные, и могут задержать сигнал о том, что некоторые направления исследований гораздо более перспективны, чем другие.&lt;/p&gt;
  &lt;p id=&quot;UNkQ&quot;&gt;Эти уроки особенно важны, когда мы вступаем в новую эру более тесного сотрудничества между исследовательскими сообществами, занимающимися аппаратным и программным обеспечением, и машинным обучением. После десятилетий рассмотрения аппаратного обеспечения, программного обеспечения и алгоритмов как отдельных вариантов, катализаторы более тесного сотрудничества включают изменение экономики аппаратного обеспечения &lt;a href=&quot;http://A%20New%20Golden%20Age%20for%20Computer%20Architecture&quot; target=&quot;_blank&quot;&gt;[1]&lt;/a&gt;, гонку «чем больше, тем лучше» в размерах архитектур глубокого обучения &lt;a href=&quot;http://AI%20and%20Compute&quot; target=&quot;_blank&quot;&gt;[2, 3]&lt;/a&gt; и головокружительные требования развертывание машинного обучения на периферийных устройствах&lt;a href=&quot;TinyML:%20Machine%20Learning%20with%20TensorFlow%20Lite%20on%20Arduino%20and%20Ultra-Low-Power%20Microcontrollers&quot; target=&quot;_blank&quot;&gt;[4]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;nyQW&quot;&gt;Более тесное сотрудничество сосредоточилось на волне аппаратного обеспечения нового поколения, которое «специфично для предметной области» для оптимизации для коммерческих случаев использования глубоких нейронных сетей. В то время как специализация предметной области обеспечивает значительный выигрыш в эффективности, она, возможно, делает еще более дорогостоящим отклонение от проторенных путей исследовательских идей. Хотя у глубоких нейронных сетей есть явные варианты коммерческого использования, есть ранние признаки того, что путь к настоящему искусственному интеллекту может потребовать совершенно другой комбинации алгоритма, аппаратного и программного обеспечения.&lt;/p&gt;
  &lt;p id=&quot;SosW&quot;&gt;Это эссе начинается с признания важного парадокса: исследователи машинного обучения в основном игнорируют аппаратное обеспечение, несмотря на ту роль, которую оно играет в определении успеха идей. Что стимулировало разработку программного обеспечения, аппаратного обеспечения и алгоритмов по отдельности? Далее следует отчасти документ с изложением позиции, отчасти исторический обзор, в котором делается попытка ответить на вопрос: «Как инструменты выбирают, какие исследовательские идеи успешны, а какие нет, и что нас ждет в будущем?»&lt;/p&gt;
  &lt;h2 id=&quot;K37S&quot;&gt;Отдельные племена&lt;/h2&gt;
  &lt;blockquote id=&quot;qTwN&quot; data-align=&quot;center&quot;&gt;&amp;quot;Разве это не плохое описание человека, если описать его как животное, производящее инструменты?&amp;quot; -Чарлз Бэббидж, 1851&lt;/blockquote&gt;
  &lt;p id=&quot;wPjY&quot;&gt;Для создателей первых компьютеров программой была машина. Ранние машины были одноразовыми, и не предполагалось, что они будут переназначены для новой задачи из-за стоимости электроники и отсутствия универсального программного обеспечения. Разностная машина Чарльза Бэббиджа предназначалась исключительно для вычисления полиномиальных функций (1817 г.)&lt;a href=&quot;http://Little%20Engines%20That%20Could%E2%80%99ve:%20The%20Calculating%20Machines%20of%20Charles%20Babbage&quot; target=&quot;_blank&quot;&gt;[5]&lt;/a&gt;. Mark I был программируемым калькулятором (1944 г.)&lt;a href=&quot;http://Grace%20Hopper,%20computing%20pioneer%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[6]&lt;/a&gt;. Перцептронная машина Розенблатта вычислила пошаговую однослойную сеть (1958 г.)&lt;a href=&quot;http://Frank%20Rosenblatt:%20Principles%20of%20Neurodynamics:%20Perceptrons%20and%20the%20Theory%20of%20Brain%20Mechanisms&quot; target=&quot;_blank&quot;&gt;[7]&lt;/a&gt;. Даже жаккардовый ткацкий станок, который часто считают одной из первых программируемых машин, на практике был настолько дорогим для повторной заправки, что его обычно заправляли один раз для поддержки предварительно фиксированного набора полей ввода (1804 г.) &lt;a href=&quot;http://The%20Jacquard%20Machine%20Analyzed%20and%20Explained:%20The%20Preparation%20of%20Jacquard%20Cards%20and%20Practical%20Hints%20to%20Learners%20of%20Jacquard%20Designing%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[8]&lt;/a&gt;.&lt;/p&gt;
  &lt;figure id=&quot;1g3w&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img2.teletype.in/files/5c/d4/5cd4692c-1e05-428b-8cf8-b05e53e1c4d9.png&quot; width=&quot;515&quot; /&gt;
    &lt;figcaption&gt;Ранние компьютеры, такие как Mark I, были одноразовыми, и не предполагалось, что они будут перепрофилированы. Хотя Mark I можно было запрограммировать для выполнения различных вычислений, по сути, это был очень мощный перепрограммируемый алькулятор, и он не мог запускать множество программ, которые мы ожидаем от наших современных машин.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;6MQ2&quot;&gt;Специализация этих первых компьютеров была вызвана необходимостью, а не потому, что компьютерные архитекторы считали, что одноразовое специализированное оборудование по своей сути лучше. Однако стоит отметить, что наш собственный интеллект является одновременно и алгоритмом, и машиной. Мы не населяем несколько мозгов в течение нашей жизни. Вместо этого понятие человеческого интеллекта неразрывно связано с физическими 1400 граммами мозговой ткани и паттернами связи между примерно 85 миллиардами нейронов в вашей голове &lt;a href=&quot;http://On%20the%20frontiers%20of%20biomedicine%20with%20professor%20Rahul%20Sarpeshkar%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[9]&lt;/a&gt;.&lt;/p&gt;
  &lt;figure id=&quot;rxne&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img2.teletype.in/files/55/33/55330c1b-ae30-43bf-ae59-73ad30708b4a.png&quot; width=&quot;515&quot; /&gt;
    &lt;figcaption&gt;Когда мы говорим о человеческом интеллекте, прототип изображения, которое, вероятно, появляется, когда вы читаете это, представляет собой розовую мультяшную каплю с ребрами. Невозможно думать о нашем когнтивном интеллекте, не вызывая образ аппаратного обеспечения, на котором он работает.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;j4fQ&quot;&gt;Сегодня, в отличие от необходимой специализации на заре вычислительной техники, исследователи машинного обучения склонны рассматривать аппаратное обеспечение, программное обеспечение и алгоритм как три отдельных варианта. Во многом это связано с периодом в истории компьютерных наук, который радикально изменил тип производимого оборудования и побудил сообщества исследователей аппаратного, программного обеспечения и машинного обучения развиваться изолированно.&lt;/p&gt;
  &lt;p id=&quot;GQO6&quot;&gt;Эпоха компьютеров общего назначения кристаллизовалась в 1969 году, когда в журнале Electronics появилась статья молодого инженера Гордана Мура под метким названием «Втиснуть больше компонентов на печатные платы» &lt;a href=&quot;http://Cramming%20more%20components%20onto%20integrated%20circuits%20%5BPDF%5D&quot; target=&quot;_blank&quot;&gt;[10]&lt;/a&gt;. Мур предсказал, что каждые два года можно будет втиснуть в интегральную схему вдвое больше транзисторов. Первоначально статья и последующие действия были мотивированы простым желанием: «Мур думал, что продаст больше чипов. Однако предсказание подтвердилось и привело к значительному снижению стоимости преобразования энергии в информацию в течение следующих 50 лет.&lt;/p&gt;
  &lt;p id=&quot;Kzag&quot;&gt;Закон Мура в сочетании с масштабированием Деннарда &lt;a href=&quot;http://Design%20of%20ion-implanted%20MOSFET%E2%80%99s%20with%20very%20small%20physical%20dimensions&quot; target=&quot;_blank&quot;&gt;[11]&lt;/a&gt; позволил увеличить производительность микропроцессора в три раза в период с 1980 по 2010 год &lt;a href=&quot;http://Moore%E2%80%99s%20Law%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[12]&lt;/a&gt;. Предсказуемый рост вычислительных ресурсов и памяти каждые два года означал, что проектирование оборудования стало небезопасным. Даже для задач, требующих более высокой производительности, преимущества перехода на специализированное оборудование могут быть быстро вытеснены аппаратным обеспечением общего назначения следующего поколения с постоянно растущими вычислительными ресурсами.&lt;/p&gt;
  &lt;figure id=&quot;GrnK&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img3.teletype.in/files/24/35/2435a803-4d50-4d79-976c-e806d51e6731.png&quot; width=&quot;515&quot; /&gt;
    &lt;figcaption&gt;Закон Мура в сочетании с масштабированием Деннарда обусловили значительное снижение стоимости преобразования энергии в информацию в течение следующих 50 лет. Дизайн микросхем стал неблагоприятным для риска, потому что было трудно мотивировать исследования, когда в каждом новом поколении оборудования были предсказуемые выводы.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;zDu4&quot;&gt;Акцент сместился на универсальные процессоры, способные решать множество различных задач. Зачем экспериментировать с более специализированными конструкциями аппаратного обеспечения за неопределенное вознаграждение, если закон Мура позволяет производителям чипов фиксировать предсказуемую норму прибыли? Немногочисленные попытки отклониться и произвести специализированные суперкомпьютеры для исследований были финансово неустойчивыми и недолговечными &lt;a href=&quot;http://Accelerating%20AI:%20Past,%20Present,%20and%20Future%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[13, 14]&lt;/a&gt;. Несколько очень узких задач, таких как освоение шахмат, были исключением из этого правила, потому что престиж и видимость победы над противником-человеком привлекали корпоративное спонсорство &lt;a href=&quot;http://When%20will%20computer%20hardware%20match%20the%20human%20brain&quot; target=&quot;_blank&quot;&gt;[15]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;LN0V&quot;&gt;До недавнего времени сохранялось отношение к выбору оборудования, программного обеспечения и алгоритма как к независимым. Изучение новых типов аппаратного обеспечения дорого обходится как с точки зрения времени, так и требуемых капиталовложений. Производство чипа следующего поколения обычно стоит 30-80 миллионов долларов, а разработка занимает 2-3 года &lt;a href=&quot;http://The%20era%20of%20general%20purpose%20computers%20is%20ending%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[16]&lt;/a&gt;. Эти огромные барьеры для входа создали культуру исследования аппаратного обеспечения, которая может показаться странной или, возможно, даже медленной для среднего исследователя машинного обучения. В то время как количество публикаций по машинному обучению за последние 30 лет росло в геометрической прогрессии &lt;a href=&quot;http://1.1%20The%20Deep%20Learning%20Revolution%20and%20Its%20Implications%20for%20Computer%20Architecture%20and%20Chip%20Design&quot; target=&quot;_blank&quot;&gt;[17]&lt;/a&gt;, количество публикаций по аппаратному обеспечению оставалось довольно ровным &lt;a href=&quot;http://Analyzing%20Worldwide%20Research%20in%20Hardware%20Architecture,%201997-2011&quot; target=&quot;_blank&quot;&gt;[18]&lt;/a&gt;. Для компании, производящей оборудование, утечка интеллектуальной собственности может решить проблему выживания фирмы. Это привело к гораздо более строгой исследовательской культуре.&lt;/p&gt;
  &lt;p id=&quot;TBtd&quot;&gt;В отсутствие какого-либо рычага, с помощью которого можно было бы повлиять на разработку аппаратного обеспечения, исследователи машинного обучения стали рационально относиться к аппаратному обеспечению как к невозвратным затратам, которые нужно обойти, а не как к чему-то изменчивому, что можно было бы изменить. Однако то, что мы абстрагировались от оборудования, не означает, что оно исчезло. Ранняя история информатики говорит нам, что было много аппаратных лотерей, в которых выбор аппаратного и программного обеспечения определял, какие идеи были успешными (а какие — неудачными).&lt;/p&gt;
  &lt;h2 id=&quot;wA71&quot;&gt;Аппаратная лотерея&lt;/h2&gt;
  &lt;blockquote id=&quot;SfXN&quot; data-align=&quot;center&quot;&gt;&amp;quot;Я полагаю, что заманчиво, если единственный инструмент, который у вас есть, это молоток, относиться ко всему, как к гвоздю.&amp;quot; -Абрахам Маслоу, 1966&lt;/blockquote&gt;
  &lt;p id=&quot;SNUG&quot;&gt;Первая фраза «Анны Карениной» Толстого гласит: «Все счастливые семьи похожи друг на друга, каждая несчастливая семья несчастлива по-своему». &lt;a href=&quot;http://Anna%20Karenina%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[19]&lt;/a&gt; Толстой говорит, что для того, чтобы брак был счастливым, требуется много разных вещей — финансовая стабильность, химия, общие ценности, здоровое потомство. Однако достаточно отсутствия одного из этих аспектов, чтобы семья была несчастлива. Это было популяризировано как принцип Анны Карениной: «недостаток любого из множества факторов обрекает попытку на провал». &lt;a href=&quot;http://The%20Anna%20Karenina%20Principle%20Applied%20to%20Ecological%20Risk%20Assessments%20of%20Multiple%20Stressors&quot; target=&quot;_blank&quot;&gt;[20]&lt;/a&gt;&lt;/p&gt;
  &lt;p id=&quot;gguv&quot;&gt;Несмотря на то, что мы предпочитаем верить, что алгоритмы успешны или терпят неудачу по отдельности, история говорит нам, что большинство прорывов в области информатики следуют принципу Анны Керениной. Успешные прорывы часто отличаются от неудач тем, что они выигрывают от тайного совпадения нескольких критериев. Для исследований в области компьютерных наук это часто зависит от победы в том, что в этом эссе называется аппаратной лотереей, — «избегания возможных точек отказа при выборе аппаратного и программного обеспечения».&lt;/p&gt;
  &lt;figure id=&quot;Scrl&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img4.teletype.in/files/fe/7e/fe7e1bde-1bc3-4759-9c21-0c46f3c50658.png&quot; width=&quot;515&quot; /&gt;
    &lt;figcaption&gt;Аналитическая машина, разработанная Чарлзом Бэббиджем, так и не была построена частично, потому что у него были трудности с изготовлением деталей с нужной точностью. На этом изображении изображен общий план аналитической машини 1840 года.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;AntP&quot;&gt;Ранним примером аппаратной лотереи является аналитическая машина (1837 г.). Чарльз Бэббидж был первопроходцем в области компьютерных технологий, который разработал машину, которую (по крайней мере теоретически) можно было запрограммировать для решения любых типов вычислений. Его аналитическая машина так и не была построена частично, потому что у него были трудности с изготовлением деталей с нужной точностью &lt;a href=&quot;http://The%20Age%20of%20Intelligent%20Machines&quot; target=&quot;_blank&quot;&gt;[21]&lt;/a&gt;. Электромагнитная технология для фактического создания теоретических основ, заложенных Бэббиджем, появилась только во время Второй мировой войны. В первой половине 20-го века электронные вакуумные лампы широко использовались для радиосвязи и радаров. Во время Второй мировой войны эти электронные лампы были переназначены для обеспечения вычислительной мощности, необходимой для взлома немецкого кода-Энигма &lt;a href=&quot;http://Computer%20History%201949%20-1960%20Early%20Vacuum%20Tube%20Computers%20Overview,%20History%20Project%20Educational%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[22]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;mE6C&quot;&gt;Как отмечалось в телешоу «Кремниевая долина», часто «слишком рано — это то же самое, что ошибиться». Когда Бэббидж скончался в 1871 году, между его идеями и современными компьютерами не было непрерывной связи. Концепция хранимой программы, изменяемого кода, памяти и условного ветвления была заново открыта столетие спустя, потому что существовали нужные инструменты, чтобы эмпирически показать, что эта идея работает.&lt;/p&gt;
  &lt;h3 id=&quot;GQpZ&quot;&gt;Потерянные десятилетия&lt;/h3&gt;
  &lt;p id=&quot;EsuN&quot;&gt;Возможно, наиболее ярким примером ущерба, вызванного невыигрышем в аппаратной лотерее, является запоздалое признание глубоких нейронных сетей перспективным направлением исследований. Большинство алгоритмических компонентов, обеспечивающих работу глубоких нейронных сетей, существовали уже несколько десятилетий: обратное распространение (1963 г. &lt;a href=&quot;http://Learning%20matrices%20and%20their%20applications&quot; target=&quot;_blank&quot;&gt;[23]&lt;/a&gt;, заново изобретенное в 1976 г. &lt;a href=&quot;http://Taylor%20expansion%20of%20the%20accumulated%20rounding%20error&quot; target=&quot;_blank&quot;&gt;[24]&lt;/a&gt; и снова в 1988 г. &lt;a href=&quot;http://Learning%20Representations%20by%20Back-Propagating%20Errors&quot; target=&quot;_blank&quot;&gt;[25]&lt;/a&gt;), глубокие сверточные нейронные сети (1979 г.). &lt;a href=&quot;Neocognitron:%20A%20new%20algorithm%20for%20pattern%20recognition%20tolerant%20of%20deformations%20and%20shifts%20in%20position%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[26]&lt;/a&gt;, в паре с обратным распространением в 1989 г. &lt;a href=&quot;http://Backpropagation%20Applied%20to%20Handwritten%20Zip%20Code%20Recognition%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[27]&lt;/a&gt;). Однако только три десятилетия спустя сверточные нейронные сети получили широкое признание в качестве многообещающего направления исследований.&lt;/p&gt;
  &lt;p id=&quot;I34H&quot;&gt;Этот разрыв между алгоритмическими достижениями и эмпирическим успехом в значительной степени связан с несовместимым оборудованием. В эпоху вычислений общего назначения такие аппаратные средства, как процессоры, пользовались большим спросом и были широко доступны. ЦП очень хорошо справляются с выполнением любого набора сложных инструкций, но часто требуют больших затрат памяти из-за необходимости кэшировать промежуточные результаты и обрабатывать по одной инструкции за раз. &lt;a href=&quot;http://What%20makes%20TPUs%20fine-tuned%20for%20deep%20learning?%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[28]&lt;/a&gt;. Это известно как узкое место фон Неймана — доступные вычисления ограничены «единственным каналом между процессором и памятью, по которому данные должны перемещаться последовательно». &lt;a href=&quot;http://Understanding%20computers%20:%20software&quot; target=&quot;_blank&quot;&gt;[29]&lt;/a&gt;&lt;/p&gt;
  &lt;figure id=&quot;yJOl&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img2.teletype.in/files/9f/27/9f276e0f-b0e6-435e-a476-ad8e49b05e55.png&quot; width=&quot;515&quot; /&gt;
    &lt;figcaption&gt;Многие изобретения используются для целей, не предусмотренных их создателями. Фонограф Эдисона никогда не предназначался для воспроизведения музыки. В том же ключе глубокие нейронные сети начали работать только тогда, когда существующая технология была неожиданно перепрофилированна.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;jmxm&quot;&gt;Узкое место фон Неймана ужасно не подходило для умножения матриц, основного компонента архитектур глубоких нейронных сетей. Таким образом, обучение на CPU быстро истощало пропускную способность памяти и обучать глубокие нейронные сети с несколькими слоями просто не представлялось возможным. Потребность в аппаратном обеспечении, обладающем массовым параллелизмом, указывалась еще в начале 1980-х годов в серии эссе под названием «Параллельные модели ассоциативной памяти». &lt;a href=&quot;http://Parallel%20Models%20of%20Associative%20Memory&quot; target=&quot;_blank&quot;&gt;[30]&lt;/a&gt; В эссе убедительно утверждалось, что биологические данные свидетельствуют о том, что массивный параллелизм необходим для того, чтобы подходы на основе глубоких нейронных сетей работали. &lt;a href=&quot;http://Parallel%20Distributed%20Processing:%20Explorations%20in%20the%20Microstructure%20of%20Cognition,%20Vol.%201:%20Foundations&quot; target=&quot;_blank&quot;&gt;[31]&lt;/a&gt;&lt;/p&gt;
  &lt;p id=&quot;76qU&quot;&gt;В конце 1980-х/90-х годов идея специализированного оборудования для нейронных сетей прошла стадию новизны &lt;a href=&quot;http://Artificial%20neural%20networks%20in%20hardware:%20A%20survey%20of%20two%20decades%20of%20progress&quot; target=&quot;_blank&quot;&gt;[32, 33, 34]&lt;/a&gt;. Однако усилия оставались раздробленными из-за отсутствия общего программного обеспечения и стоимости разработки оборудования. Большинство реально реализованных попыток, таких как Connection Machine (1985) &lt;a href=&quot;http://The%20Rise%20and%20Fall%20of%20Thinking%20Machines%20%5BHTML%5D&quot; target=&quot;_blank&quot;&gt;[14]&lt;/a&gt;, Space (1992) &lt;a href=&quot;SPACE:%20Symbolic%20Processing%20in%20Associative%20Computing%20Elements%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[35]&lt;/a&gt;, Ring Array Processor (1989) &lt;a href=&quot;http://The%20ring%20array%20processor:%20A%20multiprocessing%20peripheral%20for%20connectionist%20applications%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[36]&lt;/a&gt; и японский компьютерный проект 5-го поколения &lt;a href=&quot;http://The%20fifth%20generation:%20Artificial%20intelligence%20and%20Japan%E2%80%99s%20computer%20challenge%20to%20the%20world,%20by%20Edward%20A.%20Feigenbaum%20and%20Pamela%20McCorduck.%20Reading,%20MA:%20Addison-Wesley,%201983,%20275%20pp.%20Price:%20%5C$15.35%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[37]&lt;/a&gt;, были разработаны для поддержки логического программирования, такого как PROLOG и LISP, которые плохо подходили для глубоких нейронных сетей, основанных на коннекционизме. Более поздние версии, такие как HipNet-1 &lt;a href=&quot;http://HiPNeT-1:%20A%20Highly%20Pipelined%20Architecture%20for%20Neural%20Network%20Training&quot; target=&quot;_blank&quot;&gt;[38]&lt;/a&gt; и чип аналоговой нейронной сети (1991 г.) &lt;a href=&quot;http://Application%20of%20the%20ANNA%20neural%20network%20chip%20to%20high-speed%20character%20recognition&quot; target=&quot;_blank&quot;&gt;[39]&lt;/a&gt;, были многообещающими, но, как и предыдущие попытки, были сосредоточены на символическом мышлении. Эти усилия были недолгими из-за невыносимой стоимости итерации и необходимости в специальном кремнии. Без потребительского рынка просто не было критической массы конечных пользователей, чтобы быть финансово жизнеспособными.&lt;/p&gt;
  &lt;figure id=&quot;Ihwc&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img4.teletype.in/files/b0/6c/b06c5530-6552-4acd-bea7-4c40091134e2.png&quot; width=&quot;515&quot; /&gt;
    &lt;figcaption&gt;Connection Machine была одним из немногих примеров оборудования, которое отличалось от процессоров общего назначени в 1980-х/90-х годах. Thinking Machines в конечном итоге обанкротилось после того, как первоначальное финансирование от DARPA иссякло.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;Rppp&quot;&gt;Потребовалась аппаратная случайность в начале 2000-х, целых четыре десятилетия после публикации первой статьи об обратном распространении, чтобы понимание массивного параллелизма стало полезным для коннекционистских глубоких нейронных сетей. Многие изобретения используются для целей, не предусмотренных их создателями. Фонограф Эдисона никогда не предназначался для воспроизведения музыки. Он представлял себе это как сохранение последних слов умирающих людей или обучение правописанию. На самом деле, он был разочарован его использованием для воспроизведения популярной музыки, так как считал это слишком «низким» применением своего изобретения &lt;a href=&quot;http://Guns,%20Germs,%20and%20Steel:%20the%20Fates%20of%20Human%20Societies&quot; target=&quot;_blank&quot;&gt;[40]&lt;/a&gt;. В том же ключе глубокие нейронные сети начали работать только тогда, когда существующая технология была неожиданно перепрофилирована.&lt;/p&gt;
  &lt;p id=&quot;p8Y4&quot;&gt;Графический процессор (GPU) был первоначально представлен в 1970-х годах как специализированный ускоритель для видеоигр и разработки графики для фильмов и анимации. В 2000-х, как и фонограф Эдисона, графические процессоры были переназначены для совершенно невообразимого варианта использования — для обучения глубоких нейронных сетей &lt;a href=&quot;http://High%20Performance%20Convolutional%20Neural%20Networks%20for%20Document%20Processing&quot; target=&quot;_blank&quot;&gt;[41, 42, 43, 44, 45]&lt;/a&gt;. У графических процессоров было одно важное преимущество перед центральными процессорами — они гораздо лучше распараллеливали набор простых разложимых инструкций, таких как матричные умножения &lt;a href=&quot;http://Graphics%20processing%20unit%20(GPU)%20programming%20strategies%20and%20trends%20in%20GPU%20computing%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[46, 47]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;sUSg&quot;&gt;Это более высокое количество плавающих операционных точек в секунду (FLOPS) в сочетании с разумным распределением обучения между графическими процессорами разблокировало обучение более глубоких сетей. Ключевым фактором оказалось количество слоев в сети. Производительность на ImageNet подскочила с еще более глубокими сетями в 2011 &lt;a href=&quot;http://Flexible,%20High%20Performance%20Convolutional%20Neural%20Networks%20for%20Image%20Classification.&quot; target=&quot;_blank&quot;&gt;[48]&lt;/a&gt;, 2012 &lt;a href=&quot;http://ImageNet%20Classification%20with%20Deep%20Convolutional%20Neural%20Networks%20%5BPDF%5D&quot; target=&quot;_blank&quot;&gt;[49]&lt;/a&gt; и 2015 &lt;a href=&quot;http://Going%20deeper%20with%20convolutions&quot; target=&quot;_blank&quot;&gt;[50]&lt;/a&gt;. Ярким примером такого скачка эффективности является сравнение ставшей уже известной статьи Google 2012 года, в которой для классификации кошек использовалось 16 000 ядер ЦП &lt;a href=&quot;http://Building%20High-Level%20Features%20Using%20Large%20Scale%20Unsupervised%20Learning&quot; target=&quot;_blank&quot;&gt;[51]&lt;/a&gt;, с опубликованной годом позже статьей, в которой та же задача решалась только с двумя ядрами ЦП и четырьмя графическими процессорами. &lt;a href=&quot;http://Deep%20learning%20with%20COTS%20HPC%20systems%20%5BHTML%5D&quot; target=&quot;_blank&quot;&gt;[52]&lt;/a&gt;&lt;/p&gt;
  &lt;h3 id=&quot;QSdv&quot;&gt;Программные лотереи&lt;/h3&gt;
  &lt;p id=&quot;dITq&quot;&gt;Программное обеспечение также играет роль в определении того, какие исследовательские идеи выиграют, а какие проиграют. Prolog и LISP были двумя языками, пользующимися большой популярностью до середины 90-х годов в сообществе ИИ. Ожидалось, что в течение большей части этого периода студенты, изучающие ИИ, будут активно осваивать один или оба этих языка &lt;a href=&quot;http://Principles%20of%20Expert%20Systems&quot; target=&quot;_blank&quot;&gt;[53]&lt;/a&gt;. LISP и Prolog особенно хорошо подходили для обработки логических выражений, которые были основным компонентом логических и экспертных систем.&lt;/p&gt;
  &lt;figure id=&quot;W8Yl&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img2.teletype.in/files/16/d9/16d9acc7-3acc-4297-a984-b6134d1166f3.png&quot; width=&quot;515&quot; /&gt;
    &lt;figcaption&gt;Обложка журнала Byte, август 1979г., том 4. LISP был доминирующим языком для исследований искусственного интеллекта в 1990-х годах. LISP особенно хорошо подходил для обработки логических выражений, которые были основным компонентом логических и экспертных систем.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;788z&quot;&gt;Для исследователей, которые хотели работать над коннекционистскими идеями, такими как глубокие нейронные сети, не было четко подходящего языка до появления Matlab в 1992 году &lt;a href=&quot;http://Neural%20Network%20Toolbox%20For%20Use%20with%20Matlab%20-%20User%20Guide%20Verion%203.0&quot; target=&quot;_blank&quot;&gt;[54]&lt;/a&gt;. Реализация коннекционистских сетей на LISP или Prolog была громоздкой, и большинство исследователей работали на языках низкого уровня, таких как C++ &lt;a href=&quot;Course:%2015-880(A)%20%E2%80%94%20Introduction%20to%20Neural%20Networks%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[55]&lt;/a&gt;. Только в 2000-х годах с появлением LUSH &lt;a href=&quot;http://Technical%20report:%20Lush%20reference%20manual,%20code%20available%20at%20http://lush.sourceforge.net&quot; target=&quot;_blank&quot;&gt;[56]&lt;/a&gt; и впоследствии TORCH &lt;a href=&quot;Torch:%20A%20Modular%20Machine%20Learning%20Software%20Library&quot; target=&quot;_blank&quot;&gt;[57]&lt;/a&gt; вокруг программного обеспечения, разработанного для подходов с глубокими нейронными сетями, начала формироваться более здоровая экосистема.&lt;/p&gt;
  &lt;p id=&quot;WZmN&quot;&gt;Где есть проигравший, там есть и победитель. С 1960-х до середины 80-х большинство основных исследований были сосредоточены на символических подходах к ИИ &lt;a href=&quot;http://Artificial%20Intelligence:%20The%20Very%20Idea&quot; target=&quot;_blank&quot;&gt;[58]&lt;/a&gt;. В отличие от глубоких нейронных сетей, где обучение адекватному представлению делегировано самой модели, символические подходы направлены на создание базы знаний и использование правил принятия решений для воспроизведения того, как люди подходят к проблеме. Это часто кодифицировали как последовательность логических утверждений «что, если», которые хорошо подходили для LISP и PROLOG. Широкую и устойчивую популярность исследований символических подходов к ИИ нельзя рассматривать независимо от того, насколько легко они вписываются в существующие программные и аппаратные среды.&lt;/p&gt;
  &lt;h2 id=&quot;1X5x&quot;&gt;Постоянство аппаратной лотереи&lt;/h2&gt;
  &lt;p id=&quot;ygpL&quot;&gt;Сегодня возобновился интерес к совместному сотрудничеству между сообществами аппаратного, программного обеспечения и машинного обучения. Мы переживаем второй возврат маятника к специализированному оборудованию. Катализаторами являются изменение экономики аппаратного обеспечения, вызванное окончанием действия закона Мура и нарушением масштабирования Деннарда&lt;a href=&quot;http://A%20New%20Golden%20Age%20for%20Computer%20Architecture%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[1]&lt;/a&gt;, гонка «чем больше, тем лучше» в количестве параметров модели, охватившая область машинного обучения &lt;a href=&quot;http://AI%20and%20Compute%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[2]&lt;/a&gt;, растущая энергия затраты &lt;a href=&quot;http://1.1%20Computing%E2%80%99s%20energy%20problem%20(and%20what%20we%20can%20do%20about%20it)&quot; target=&quot;_blank&quot;&gt;[59, 60]&lt;/a&gt; и головокружительные требования развертывания машинного обучения на периферийных устройствах &lt;a href=&quot;TinyML:%20Machine%20Learning%20with%20TensorFlow%20Lite%20on%20Arduino%20and%20Ultra-Low-Power%20Microcontrollers%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[4]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;5WBd&quot;&gt;Конец закона Мура означает, что нам не гарантировано больше вычислительных ресурсов, аппаратное обеспечение должно их заработать. Для повышения эффективности происходит переход от оборудования, не зависящего от задач, такого как процессоры, к специализированному оборудованию, которое адаптирует дизайн для повышения эффективности определенных задач. Первые примеры специализированного аппаратного обеспечения, выпущенного за последние несколько лет — TPU &lt;a href=&quot;http://In-Datacenter%20Performance%20Analysis%20of%20a%20Tensor%20Processing%20Unit%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[61]&lt;/a&gt;, Edge-TPU &lt;a href=&quot;http://EfficientNet-EdgeTPU:%20Creating%20Accelerator-Optimized%20Neural%20Networks%20with%20AutoML%20%5BHTML%5D&quot; target=&quot;_blank&quot;&gt;[62]&lt;/a&gt;, Arm Cortex-M55 &lt;a href=&quot;http://Enhancing%20AI%20Performance%20for%20IoT%20Endpoint%20Devices%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;&lt;s&gt;[63]&lt;/s&gt;&lt;/a&gt;, big sur от Facebook &lt;a href=&quot;http://The%20next%20step%20in%20Facebook%20AI%20hardware%20infrastructure%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[64] &lt;/a&gt;— явно оптимизированы для дорогостоящих операций, характерных для глубоких нейронных сетей, таких как умножение матриц.&lt;/p&gt;
  &lt;p id=&quot;DAGO&quot;&gt;Более тесное сотрудничество между аппаратным и исследовательским сообществами, несомненно, продолжит повышать эффективность обучения и развертывания глубоких нейронных сетей. Например, неструктурированное сокращение &lt;a href=&quot;http://Selective%20Brain%20Damage:%20Measuring%20the%20Disparate%20Impact%20of%20Model%20Pruning%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[65, 66, 67]&lt;/a&gt; и весовое квантование &lt;a href=&quot;HAWQ:%20Hessian%20AWare%20Quantization%20of%20Neural%20Networks%20With%20Mixed-Precision&quot; target=&quot;_blank&quot;&gt;[68]&lt;/a&gt; являются очень успешными методами сжатия в глубоких нейронных сетях, но они несовместимы с текущим аппаратным обеспечением и ядрами компиляции.&lt;/p&gt;
  &lt;p id=&quot;ooBh&quot;&gt;Хотя эти методы сжатия в настоящее время не поддерживаются, многие умные архитекторы аппаратного обеспечения в настоящее время думают о том, как решить эту проблему. Разумно предсказать, что следующие несколько поколений чипов или специализированных ядер исправят существующую предвзятость аппаратных средств против этих методов &lt;a href=&quot;HAQ:%20Hardware-Aware%20Automated%20Quantization&quot; target=&quot;_blank&quot;&gt;[69, 70]&lt;/a&gt;. Некоторые из первых проектов, которые облегчают разреженность, уже появились на рынке &lt;a href=&quot;http://NVIDIA%20Ampere%20Architecture%20In-Depth.%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[71]&lt;/a&gt;. Параллельно ведутся интересные исследования по разработке специализированных программных ядер для поддержки неструктурированной разреженности &lt;a href=&quot;http://Fast%20Sparse%20ConvNets&quot; target=&quot;_blank&quot;&gt;[72, 73, 74]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;jbeC&quot;&gt;Во многих отношениях аппаратное обеспечение догоняет нынешнее состояние исследований в области машинного обучения. Аппаратное обеспечение является экономически жизнеспособным только в том случае, если срок службы варианта использования составляет более трех лет &lt;a href=&quot;http://1.1%20The%20Deep%20Learning%20Revolution%20and%20Its%20Implications%20for%20Computer%20Architecture%20and%20Chip%20Design&quot; target=&quot;_blank&quot;&gt;[17]&lt;/a&gt;. Ставка на идеи, которые имеют долговечность, является ключевым фактором для разработчиков аппаратного обеспечения. Таким образом, усилия по совместному проектированию были почти полностью сосредоточены на оптимизации моделей предыдущего поколения с известными вариантами коммерческого использования. Например, матричные умножения — безопасная цель для оптимизации, потому что они никуда не денутся, — привязаны к широкому использованию и принятию глубоких нейронных сетей в производственных системах. Разрешение неструктурированной разреженности и квантование по весу также являются безопасными целями, поскольку существует широкий консенсус в отношении того, что они обеспечат более высокие уровни сжатия.&lt;/p&gt;
  &lt;p id=&quot;ZGzf&quot;&gt;Остается отдельный вопрос о том, достаточно ли универсальны аппаратные инновации, чтобы открывать или идти в ногу с совершенно новыми направлениями исследований в области машинного обучения. Трудно ответить на этот вопрос, потому что данные здесь ограничены — трудно смоделировать контрфактический вариант успеха этой идеи на другом оборудовании. Однако, несмотря на неотъемлемую сложность этой задачи, уже есть убедительные доказательства того, что специализированное аппаратное обеспечение делает более дорогостоящим достижение успеха исследовательских идей, выходящих за рамки основного направления.&lt;/p&gt;
  &lt;p id=&quot;YkC7&quot;&gt;В 2019 году была опубликована статья под названием «Машинное обучение застряло в колее». &lt;a href=&quot;http://Machine%20Learning%20Systems%20Are%20Stuck%20in%20a%20Rut%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[75]&lt;/a&gt; Авторы рассматривают сложность обучения нового типа архитектуры компьютерного зрения, называемого капсульными сетями, на специализированном оборудовании &lt;a href=&quot;http://Dynamic%20Routing%20Between%20Capsules%20%5BPDF%5D&quot; target=&quot;_blank&quot;&gt;[76]&lt;/a&gt;. Капсульные сети включают в себя новые компоненты, такие как операции сжатия и маршрутизация по соглашению. Эти варианты архитектуры были направлены на устранение ключевых недостатков сверточных нейронных сетей (отсутствие вращательной инвариантности и понимания пространственной иерархии), но отклонялись от типичной архитектуры нейронных сетей как последовательности матричных умножений. В результате, в то время как операции капсульных сетей могут быть достаточно хорошо реализованы на процессорах, производительность резко падает на ускорителях, таких как GPU и TPU, которые были чрезмерно оптимизированы для умножения матриц.&lt;/p&gt;
  &lt;p id=&quot;ioVX&quot;&gt;Согласны ли вы или нет с тем, что капсульные сети — это будущее компьютерного зрения, авторы говорят кое-что интересное о сложности попыток обучить новый тип архитектуры классификации изображений на специализированном оборудовании. При разработке аппаратного обеспечения приоритет отдавался коммерческим вариантам использования, в то время как встроенная гибкость, позволяющая приспособиться к исследовательским идеям следующего поколения, остается далеко второстепенным соображением.&lt;/p&gt;
  &lt;p id=&quot;a67L&quot;&gt;В то время как специализация делает глубокие нейронные сети более эффективными, она также делает гораздо более дорогостоящим отклонение от общепринятых строительных блоков. Это ставит вопрос о том, насколько исследователи будут неявно перерабатывать идеи, которые хорошо работают на доступном оборудовании, вместо того, чтобы рисковать идеями, которые в настоящее время неосуществимы? Какие неудачи мы до сих пор не имеем аппаратного обеспечения, чтобы считать успехом? &lt;code&gt;(en) What are the failures we still don’t have the hardware to see as a success?&lt;/code&gt;&lt;/p&gt;
  &lt;h2 id=&quot;38Nn&quot;&gt;Вероятность будущих аппаратных лотерей&lt;/h2&gt;
  &lt;blockquote id=&quot;Z19Z&quot; data-align=&quot;center&quot;&gt;&amp;quot;Перед нами открываются захватывающие дух возможности, замаскированные под неразрешимые проблемы&amp;quot; -Джон Гарднер, 1965&lt;/blockquote&gt;
  &lt;p id=&quot;n0j7&quot;&gt;В сообществе машинного обучения ведутся открытые дебаты о том, насколько будущие алгоритмы будут отклоняться от таких моделей, как глубокие нейронные сети &lt;a href=&quot;http://The%20Bitter%20Lesson%20%5BHTML%5D&quot; target=&quot;_blank&quot;&gt;[77, 78]&lt;/a&gt;. Риск, которому вы подвергаетесь в зависимости от оборудования, специализированного для предметной области, связан с вашей позицией в этом споре.&lt;/p&gt;
  &lt;p id=&quot;7EEw&quot;&gt;Делать большие ставки на специализированное оборудование имеет смысл, если вы считаете, что будущие прорывы зависят от сопряжения глубоких нейронных сетей с постоянно растущим объемом данных и вычислений. Несколько крупных исследовательских лабораторий делают эту ставку, участвуя в гонке «чем больше, тем лучше» по количеству параметров модели и собирая все более обширные наборы данных. Однако неясно, является ли это устойчивым. Масштабируемость алгоритмов часто рассматривается как градиент производительности по отношению к доступным ресурсам. Как повысится производительность при наличии большего количества ресурсов?&lt;/p&gt;
  &lt;p id=&quot;Asaz&quot;&gt;Для многих подполей мы сейчас находимся в режиме, когда норма прибыли для дополнительных параметров снижается &lt;a href=&quot;http://%7BThe%20Computational%20Limits%20of%20Deep%20Learning%7D&quot; target=&quot;_blank&quot;&gt;[79, 80]&lt;/a&gt;. Например, в то время как параметры между архитектурами Inception V3 &lt;a href=&quot;http://%7BInception-v4,%20Inception-ResNet%20and%20the%20Impact%20of%20Residual%20Connections%20on%20Learning%7D&quot; target=&quot;_blank&quot;&gt;[81]&lt;/a&gt; и Inception V4 &lt;a href=&quot;http://%7BRethinking%20the%20Inception%20Architecture%20for%20Computer%20Vision%7D&quot; target=&quot;_blank&quot;&gt;[82]&lt;/a&gt; почти удваиваются (с 21,8 до 41,1 миллиона параметров), точность в ImageNet различается менее чем на 2 % между этими двумя сетями (78,8 против 80 %). &lt;a href=&quot;http://Do%20Better%20ImageNet%20Models%20Transfer%20Better?%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[83]&lt;/a&gt;. Цена добавления дополнительных параметров к проблеме становится болезненно очевидной. Только обучение GPT-3 оценивается в более чем 12 миллионов долларов &lt;a href=&quot;http://OpenAI%20launches%20an%20API%20to%20commercialize%20its%20research%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[84]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;zntF&quot;&gt;Возможно, более тревожным является то, насколько мы далеки от того типа интеллекта, который демонстрируют люди. Человеческий мозг, несмотря на его сложность, остается чрезвычайно энергоэффективным. В нашем мозгу более 85 миллиардов нейронов, но он работает на энергетическом эквиваленте электрической бритвы&lt;a href=&quot;http://On%20the%20frontiers%20of%20biomedicine%20with%20professor%20Rahul%20Sarpeshkar%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[9]&lt;/a&gt;. Хотя глубокие нейронные сети могут быть масштабируемыми, это может быть непомерно дорого в режиме интеллекта, сравнимого с человеческим. Подходящая метафора состоит в том, что мы пытаемся построить лестницу на Луну.&lt;/p&gt;
  &lt;p id=&quot;y6cD&quot;&gt;Биологические примеры интеллекта достаточно отличаются от глубоких нейронных сетей, чтобы предположить, что было бы рискованно утверждать, что глубокие нейронные сети — единственный путь вперед. В то время как алгоритмы общего назначения, такие как глубокие нейронные сети, полагаются на глобальные обновления, чтобы изучить полезное представление, наш мозг этого не делает. Наш собственный интеллект опирается на децентрализованные локальные обновления, которые выявляют глобальный сигнал способами, которые до сих пор не совсем понятны &lt;a href=&quot;http://Backpropagation%20through%20time%20and%20the%20brain%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[85, 86, 87]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;xAn4&quot;&gt;Кроме того, наш мозг способен обучаться эффективным представлениям из гораздо меньшего количества помеченных примеров, чем глубокие нейронные сети &lt;a href=&quot;http://A%20Critique%20of%20Pure%20Learning:%20What%20Artificial%20Neural%20Networks%20can%20Learn%20from%20Animal%20Brains&quot; target=&quot;_blank&quot;&gt;[88]&lt;/a&gt;. Для типичных моделей глубокого обучения вся модель активируется для каждого примера, что приводит к квадратичному увеличению затрат на обучение. Напротив, данные свидетельствуют о том, что мозг не выполняет полный проход вперед и назад для всех входных данных. Вместо этого мозг моделирует, какие входные данные ожидаются на фоне поступающих сенсорных данных. Основываясь на уверенности в совпадении, мозг просто заполняет. То, что мы видим, в значительной степени является виртуальной реальностью, вычисляемой по памяти &lt;a href=&quot;http://Motion%20Integration%20and%20Postdiction%20in%20Visual%20Awareness%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[89, 90, 91]&lt;/a&gt;.&lt;/p&gt;
  &lt;figure id=&quot;jCUs&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img4.teletype.in/files/f2/92/f2925e2f-c616-42fe-9959-485efb503558.png&quot; width=&quot;515&quot; /&gt;
    &lt;figcaption&gt;Задержка человека для определенных задач предполагает, что у нас есть специальные пути для различных раздражителей. Например, человеку легко ходить и говорить одновременно. Тем не менее, попытки читать и ходить требуют гораздо больших когнитивных усилий.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;uxlz&quot;&gt;У людей в нашем биологическом оборудовании разработаны высокооптимизированные и специфические пути для различных задач &lt;a href=&quot;http://Signal-processing%20machines%20at%20the%20postsynaptic%20density.&quot; target=&quot;_blank&quot;&gt;[92, 93]&lt;/a&gt;. Например, человеку легко ходить и говорить одновременно. Однако попытки читать и говорить намного утомительнее с когнитивной точки зрения &lt;a href=&quot;http://Studies%20of%20Interference%20in%20Serial%20Verbal%20Reactions&quot; target=&quot;_blank&quot;&gt;[94]&lt;/a&gt;. Это предполагает, что способ организации сети и наши индуктивные смещения так же важны, как и общий размер сети &lt;a href=&quot;http://The%20elephant%20brain%20in%20numbers&quot; target=&quot;_blank&quot;&gt;[95, 96, 97]&lt;/a&gt;. Наш мозг способен точно настраивать и сохранять человеческие навыки на протяжении всей нашей жизни &lt;a href=&quot;http://Computational%20principles%20of%20synaptic%20memory%20consolidation&quot; target=&quot;_blank&quot;&gt;[98, 99, 100, 101, 102, 103, 104]&lt;/a&gt;. Напротив, глубокие нейронные сети, которые обучаются на новых данных, часто демонстрируют катастрофическое забывание, когда производительность исходной задачи ухудшается, потому что новая информация мешает ранее усвоенному поведению &lt;a href=&quot;http://Why%20There%20are%20Complementary%20Learning%20Systems%20in%20the%20Hippocampus%20and%20Neocortex:%20Insights%20from%20the%20Successes%20and%20Failures%20of%20Connectionist%20Models%20of%20Learning%20and%20Memory&quot; target=&quot;_blank&quot;&gt;[105, 106, 107]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;M7Sh&quot;&gt;Смысл этих примеров не в том, чтобы убедить вас, что глубокие нейронные сети — это не путь вперед. Но, скорее, есть явно другие модели интеллекта, которые предполагают, что это может быть не единственный путь. Не исключено, что следующий прорыв потребует принципиально иного способа моделирования мира с другим сочетанием аппаратного, программного обеспечения и алгоритма. Мы вполне можем оказаться в эпицентре современной аппаратной лотереи.&lt;/p&gt;
  &lt;figure id=&quot;EpVM&quot; class=&quot;m_original&quot; data-caption-align=&quot;center&quot;&gt;
    &lt;img src=&quot;https://img4.teletype.in/files/f8/bc/f8bcd68a-c181-4afd-ac66-4c681b3f9380.png&quot; width=&quot;431&quot; /&gt;
    &lt;figcaption&gt;Человеческий мозг, несмотря на его сложность, остается чрезвычайно энергоэффективным. В нашем мозгу более 85 миллиардов нейронов, но он работает на энергии, эквивалентной электрической бритве.&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;UK0a&quot;&gt;Путь вперед&lt;/h2&gt;
  &lt;blockquote id=&quot;2UEZ&quot; data-align=&quot;center&quot;&gt;&amp;quot;Любая система машинного кодирования должна оцениваться в основном с точки зрения того, насколько легко оператору получить результаты.&amp;quot; -Джон Мокли, 1973&lt;/blockquote&gt;
  &lt;p id=&quot;1m9X&quot;&gt;Научный прогресс возникает при стечении факторов, позволяющих ученому преодолеть «липкость» существующей парадигмы. Скорость, с которой произошли сдвиги парадигмы в исследованиях ИИ, непропорционально определялась степенью согласованности между аппаратным обеспечением, программным обеспечением и алгоритмом. Таким образом, любая попытка избежать аппаратных лотерей должна быть направлена ​​на то, чтобы сделать изучение различных комбинаций аппаратного, программного обеспечения и алгоритмов более дешевым и менее трудоемким.&lt;/p&gt;
  &lt;p id=&quot;XGGN&quot;&gt;Это легче сказать, чем сделать. Расширение пространства поиска возможных комбинаций аппаратных средств, программного обеспечения и алгоритмов является грандиозной задачей. Изучение новых типов аппаратного обеспечения дорого обходится как с точки зрения времени, так и требуемых капиталовложений. Производство чипа следующего поколения обычно стоит 30-80 миллионов долларов и занимает 2-3 года на разработку &lt;a href=&quot;http://The%20era%20of%20general%20purpose%20computers%20is%20ending%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[16]&lt;/a&gt;. Одни только фиксированные затраты на строительство производственного предприятия огромны; оценивается в $7 млрд долларов в 2017 году &lt;a href=&quot;http://The%20Decline%20of%20Computers%20As%20a%20General%20Purpose%20Technology:%20Why%20Deep%20Learning%20and%20the%20End%20of%20Moore%E2%80%99s%20Law%20are%20Fragmenting%20Computing&quot; target=&quot;_blank&quot;&gt;[108]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;hjT1&quot;&gt;Эксперименты с использованием обучения с подкреплением для оптимизации размещения чипов могут помочь снизить затраты &lt;a href=&quot;http://%7BChip%20Placement%20with%20Deep%20Reinforcement%20Learning%7D&quot; target=&quot;_blank&quot;&gt;[109]&lt;/a&gt;. Возобновился также интерес к реконфигурируемому оборудованию, такому как программируемая пользователем вентильная матрица (FPGA) &lt;a href=&quot;http://Reconfigurable%20Computing:%20The%20Theory%20and%20Practice%20of%20FPGA-Based%20Computation&quot; target=&quot;_blank&quot;&gt;[110]&lt;/a&gt; и масштабная реконфигурируемая матрица (CGRA) &lt;a href=&quot;Plasticine:%20A%20reconfigurable%20architecture%20for%20parallel%20patterns&quot; target=&quot;_blank&quot;&gt;[111]&lt;/a&gt;. Эти устройства позволяют переконфигурировать логику микросхемы, чтобы избежать привязки к одному варианту использования. Однако компромиссом для гибкости является гораздо более высокий показатель FLOPS и необходимость разработки специализированного программного обеспечения. Кодирование даже простых алгоритмов на ППВМ остается очень болезненным и трудоемким &lt;a href=&quot;http://The%20future%20of%20computing%20beyond%20Moore%E2%80%99s%20Law&quot; target=&quot;_blank&quot;&gt;[112]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;1wgJ&quot;&gt;В краткосрочной и среднесрочной перспективе разработка аппаратного обеспечения, вероятно, останется дорогостоящей и продолжительной. Стоимость производства аппаратного обеспечения важна, поскольку она определяет степень риска и экспериментов, на которые готовы пойти разработчики аппаратного обеспечения. Инвестиции в оборудование, предназначенное для глубоких нейронных сетей, гарантированы, поскольку нейронные сети являются краеугольным камнем достаточного количества коммерческих вариантов использования. Широкая прибыльность глубокого обучения подстегнула здоровую экосистему аппаратных стартапов, нацеленных на дальнейшее ускорение глубоких нейронных сетей &lt;a href=&quot;http://Big%20Bets%20on%20A.I.%20Open%20a%20New%20Frontier%20for%20Chip%20Start-Ups,%20Too%20%5BHTML%5D&quot; target=&quot;_blank&quot;&gt;[113]&lt;/a&gt;, и побудила крупные компании разрабатывать собственное аппаратное обеспечение собственными силами &lt;a href=&quot;http://FPGAs%20versus%20GPUs%20in%20Data%20centers&quot; target=&quot;_blank&quot;&gt;[114, 61, 64]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;6HN8&quot;&gt;Узким местом по-прежнему будет финансирование оборудования для вариантов использования, которые не являются немедленно коммерчески жизнеспособными. Эти более рискованные направления включают биологическое оборудование &lt;a href=&quot;http://How%20to%20Make%20a%20Synthetic%20Multicellular%20Computer&quot; target=&quot;_blank&quot;&gt;[115, 116, 117]&lt;/a&gt;, аналоговое оборудование с вычислениями в памяти &lt;a href=&quot;http://Equivalent-accuracy%20accelerated%20neural-network%20training%20using%20analogue%20memory&quot; target=&quot;_blank&quot;&gt;[118]&lt;/a&gt;, нейроморфные вычисления &lt;a href=&quot;http://Progress%20in%20Neuromorphic%20Computing%20:%20Drawing%20Inspiration%20from%20Nature%20for%20Gains%20in%20AI%20and%20Computing&quot; target=&quot;_blank&quot;&gt;[119]&lt;/a&gt;, оптические вычисления &lt;a href=&quot;http://All-optical%20machine%20learning%20using%20diffractive%20deep%20neural%20networks%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[120]&lt;/a&gt; и подходы, основанные на квантовых вычислениях &lt;a href=&quot;http://%7BValidating%20quantum%20computers%20using%20randomized%20model%20circuits%7D&quot; target=&quot;_blank&quot;&gt;[121]&lt;/a&gt;. Есть также рискованные попытки разработки транзисторов с использованием новых материалов &lt;a href=&quot;http://The%20chip%20design%20game%20at%20the%20end%20of%20Moore%E2%80%99s%20law&quot; target=&quot;_blank&quot;&gt;[122, 123]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;ZrtP&quot;&gt;Уроки предыдущих аппаратных лотерей показывают, что инвестиции должны быть устойчивыми и исходить как из частных, так и из государственных программ финансирования. Наблюдается медленное пробуждение общественного интереса к предоставлению таких специализированных ресурсов, таких как Инициатива по возрождению электроники DARPA 2018 года, которая выделила 1,5 миллиарда долларов на финансирование исследований в области микроэлектронных технологий &lt;a href=&quot;http://DARPA%20Announces%20Next%20Phase%20of%20Electronics%20Resurgence%20Initiative%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[124] &lt;/a&gt;. Китай также объявил о создании фонда в размере 47 миллиардов долларов для поддержки исследований в области полупроводников &lt;a href=&quot;http://China%20Plans%20$47$%20Billion%20Fund%20to%20Boost%20Its%20Semiconductor%20Industry%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[125]&lt;/a&gt;. Тем не менее, даже инвестиции такого масштаба могут оказаться крайне недостаточными, так как оборудование, основанное на новых материалах, требует длительных периодов времени в 10-20 лет, а государственные инвестиции в настоящее время намного ниже отраслевого уровня научно-исследовательских и опытно-конструкторских работ&lt;a href=&quot;http://The%20future%20of%20computing%20beyond%20Moore%E2%80%99s%20Law&quot; target=&quot;_blank&quot;&gt;[112]&lt;/a&gt;.&lt;/p&gt;
  &lt;h3 id=&quot;Lm9M&quot;&gt;Программная революция&lt;/h3&gt;
  &lt;p id=&quot;p3Hv&quot;&gt;Промежуточная цель — предоставить исследователям лучшую обратную связь о том, как наши алгоритмы взаимодействуют с имеющимся у нас оборудованием. Исследователи машинного обучения не тратят много времени на разговоры о том, как аппаратное обеспечение выбирает, какие идеи будут успешными, а какие нет. Это в первую очередь потому, что трудно количественно оценить стоимость беспокойства. В настоящее время не существует простых и дешевых в использовании интерфейсов для сравнения производительности алгоритмов с несколькими типами оборудования одновременно. Существуют разочаровывающие различия в подмножестве программных операций, поддерживаемых на разных типах оборудования, которые препятствуют переносимости алгоритмов между типами оборудования &lt;a href=&quot;http://Software%20Productivity%20for%20Extreme-Scale%20Science&quot; target=&quot;_blank&quot;&gt;[126]&lt;/a&gt;. Программные ядра часто чрезмерно оптимизированы для определенного типа оборудования, что приводит к большим расхождениям в эффективности при использовании с другим оборудованием &lt;a href=&quot;http://A%20New%20Golden%20Age%20for%20Computer%20Architecture%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[1]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;Klra&quot;&gt;Эти проблемы усугубляются еще более огромным и разнородным аппаратным ландшафтом &lt;a href=&quot;http://MLPerf%20Inference%20Benchmark&quot; target=&quot;_blank&quot;&gt;[127, 128]&lt;/a&gt;. По мере того, как аппаратный ландшафт становится все более фрагментированным и специализированным, для написания быстрого и эффективного кода потребуются все более нишевые и специализированные навыки &lt;a href=&quot;http://Implementing%20Domain-Specific%20Languages%20for%20Heterogeneous%20Parallel%20Computing&quot; target=&quot;_blank&quot;&gt;[129]&lt;/a&gt;. Это означает, что прогресс в исследованиях в области информатики будет все более неравномерным. В то время как некоторые типы аппаратного обеспечения выиграют от здоровой программной экосистемы, прогресс в других языках будет спорадическим и часто тормозится отсутствием важных конечных пользователей &lt;a href=&quot;http://The%20Decline%20of%20Computers%20As%20a%20General%20Purpose%20Technology:%20Why%20Deep%20Learning%20and%20the%20End%20of%20Moore%E2%80%99s%20Law%20are%20Fragmenting%20Computing&quot; target=&quot;_blank&quot;&gt;[108,&lt;/a&gt; &lt;a href=&quot;http://There%7B%5Ctextquoteright%7Ds%20plenty%20of%20room%20at%20the%20Top:%20What%20will%20drive%20computer%20performance%20after%20Moore%7B%5Ctextquoteright%7Ds%20law?%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;130]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;wS19&quot;&gt;Один из способов уменьшить эту потребность в специализированном программном обеспечении — сосредоточиться на разработке предметно-ориентированных языков, предназначенных для узкой предметной области. В то время как вы отказываетесь от выразительных возможностей, предметно-ориентированные языки обеспечивают большую переносимость между различными типами оборудования. Это позволяет разработчикам сосредоточиться на назначении кода, не беспокоясь о деталях реализации &lt;a href=&quot;http://Beyond%20Parallel%20Programming%20with%20Domain%20Specific%20Languages%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[131, 132, 133]&lt;/a&gt;. Другим перспективным направлением является автоматическая автонастройка алгоритмических параметров программы на основе последующего выбора оборудования. Это облегчает развертывание за счет адаптации программы для достижения хорошей производительности и балансировки нагрузки на различном оборудовании &lt;a href=&quot;http://Autotuning%20Numerical%20Dense%20Linear%20Algebra%20for%20Batched%20Computation%20With%20GPU%20Hardware%20Accelerators&quot; target=&quot;_blank&quot;&gt;[134, 135, 136, 137]&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;JUq0&quot;&gt;Сложность обоих этих подходов заключается в том, что в случае успеха это еще больше абстрагирует людей от деталей реализации. Параллельно нам нужны более совершенные инструменты профилирования, чтобы исследователи могли иметь более обоснованное мнение о том, как должно развиваться аппаратное и программное обеспечение. В идеале программное обеспечение могло бы даже дать рекомендации о том, какой тип оборудования использовать с учетом конфигурации алгоритма. Регистрация того, что отличается от наших ожиданий, остается ключевым катализатором новых научных открытий.&lt;/p&gt;
  &lt;p id=&quot;MdSG&quot;&gt;Программное обеспечение должно выполнять больше работы, но оно также имеет хорошие возможности для этого. Мы пренебрегали эффективным программным обеспечением на протяжении всей эпохи закона Мура, полагая, что предсказуемый прирост вычислительных ресурсов компенсирует неэффективность программного стека. Это означает, что есть много низко висящих плодов, по мере того, как мы начинаем оптимизировать код для получения более эффективного кода&lt;a href=&quot;http://Spending%20Moore%E2%80%99s%20Dividend%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt; [138, 139]&lt;/a&gt;. &lt;code&gt;(en) This means there are many low hanging fruit as we begin to optimize for more efficient code.&lt;/code&gt;&lt;/p&gt;
  &lt;h2 id=&quot;JvHt&quot;&gt;Прощальные мысли&lt;/h2&gt;
  &lt;p id=&quot;uoUK&quot;&gt;Джордж Гилдер, американский инвестор, убедительно описал компьютерный чип как «начертание миров на песчинках» &lt;a href=&quot;Telecosm:%20How%20Infinite%20Bandwidth%20Will%20Revolutionize%20Our%20World%20%5Blink%5D&quot; target=&quot;_blank&quot;&gt;[140]&lt;/a&gt;. Производительность алгоритма фундаментально связана с аппаратным и программным обеспечением, на котором он работает. В этом эссе предлагается термин «аппаратная лотерея» для описания того, как эти последующие решения определяют успех или неудачу исследовательской идеи. Примеры из ранней истории компьютерных наук иллюстрируют, как аппаратные лотереи могут задерживать прогресс исследований, выставляя успешные идеи за неудачные. Эти уроки особенно важны, учитывая появление специализированного аппаратного обеспечения, которое делает отклонение от проторенных путей исследовательских идей все более дорогостоящим. В этом эссе утверждается, что выгоды от прогресса в области вычислений, вероятно, станут еще более неравномерными, при этом одни направления исследований будут продвигаться вперед, а прогресс в других будет еще больше затруднен.&lt;/p&gt;
  &lt;hr /&gt;
  &lt;section style=&quot;background-color:hsl(hsl(0,   0%,  var(--autocolor-background-lightness, 95%)), 85%, 85%);&quot;&gt;
    &lt;blockquote id=&quot;Ckv2&quot; data-align=&quot;center&quot;&gt;Перевод &lt;a href=&quot;https://hardwarelottery.github.io/&quot; target=&quot;_blank&quot;&gt;оригинальной статьи The Hardware Lottery.&lt;/a&gt;&lt;strong&gt; Контент оригинальной статьи принадлежит автору.&lt;/strong&gt;&lt;/blockquote&gt;
  &lt;/section&gt;
  &lt;h2 id=&quot;Xbzl&quot;&gt;Об авторе&lt;/h2&gt;
  &lt;p id=&quot;CGi7&quot;&gt;Сара Хукер — научный сотрудник Google Brain, работающая над моделями обучения, которые удовлетворяют нескольким желаемым критериям: высокая производительность, интерпретируемость, компактность и надежность. Она интересуется пересечением аппаратного обеспечения, программного обеспечения и алгоритмов. Корреспонденцию об этом эссе можно отправить по адресу shaker@google.com.&lt;/p&gt;
  &lt;h2 id=&quot;lVhM&quot;&gt;Ссылки&lt;/h2&gt;
  &lt;ol id=&quot;NLb8&quot;&gt;
    &lt;li id=&quot;tDN3&quot;&gt;&lt;strong&gt;A New Golden Age for Computer Architecture&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1145/3282307&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;Hennessy, J.L. and Patterson, D.A., 2019. Commun. ACM, Vol 62(2), pp. 48–60. Association for Computing Machinery. &lt;a href=&quot;https://doi.org/10.1145/3282307&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/3282307&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;RLNz&quot;&gt;&lt;strong&gt;AI and Compute&lt;/strong&gt; &lt;a href=&quot;https://openai.com/blog/ai-and-compute/&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;Amodei, D., Hernandez, D., Sastry, G., Clark, J., Brockman, G. and Sutskever, I., 2018.&lt;/li&gt;
    &lt;li id=&quot;HE8w&quot;&gt;&lt;strong&gt;{The Computational Limits of Deep Learning}&lt;/strong&gt; &lt;br /&gt;{Thompson}, N.C., {Greenewald}, K., {Lee}, K. and {Manso}, G.F., 2020. arXiv e-prints, pp. arXiv:2007.05558.&lt;/li&gt;
    &lt;li id=&quot;lzns&quot;&gt;&lt;strong&gt;TinyML: Machine Learning with TensorFlow Lite on Arduino and Ultra-Low-Power Microcontrollers&lt;/strong&gt; &lt;a href=&quot;https://books.google.com/books?id=sB3mxQEACAAJ&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;Warden, P. and Situnayake, D., 2019. O’Reilly Media, Incorporated.&lt;/li&gt;
    &lt;li id=&quot;X3ct&quot;&gt;&lt;strong&gt;Little Engines That Could’ve: The Calculating Machines of Charles Babbage&lt;/strong&gt;&lt;br /&gt;B. Collier.&lt;br /&gt;Garland Publishing, Inc. 1991.&lt;/li&gt;
    &lt;li id=&quot;J1nl&quot;&gt;&lt;strong&gt;Grace Hopper, computing pioneer&lt;/strong&gt; &lt;a href=&quot;https://news.harvard.edu/gazette/story/2014/12/grace-hopper-computing-pioneer/&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;W. Isaacson.&lt;br /&gt;The Harvard Gazette. 2014.&lt;/li&gt;
    &lt;li id=&quot;8tfX&quot;&gt;&lt;strong&gt;Frank Rosenblatt: Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms&lt;/strong&gt;&lt;br /&gt;C. Van Der Malsburg.&lt;br /&gt;, pp. 245—248. Springer Berlin Heidelberg. 1986.&lt;/li&gt;
    &lt;li id=&quot;ArKf&quot;&gt;&lt;strong&gt;The Jacquard Machine Analyzed and Explained: The Preparation of Jacquard Cards and Practical Hints to Learners of Jacquard Designing&lt;/strong&gt; &lt;a href=&quot;https://books.google.com/books?id=-6FtmgEACAAJ&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;E. Posselt. E.A. Posselt. 1888.&lt;/li&gt;
    &lt;li id=&quot;Fqz5&quot;&gt;&lt;strong&gt;On the frontiers of biomedicine with professor Rahul Sarpeshkar&lt;/strong&gt; &lt;a href=&quot;https://dartmouthalumnimagazine.com/articles/cell-power&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Sainani. Dartmouth Magazine. 2017.&lt;/li&gt;
    &lt;li id=&quot;VfqL&quot;&gt;&lt;strong&gt;Cramming more components onto integrated circuits&lt;/strong&gt; &lt;a href=&quot;https://www.cs.utexas.edu/~fussell/courses/cs352h/papers/moore.pdf&quot; target=&quot;_blank&quot;&gt;[PDF]&lt;/a&gt;&lt;br /&gt;G. Moore. Electronics, Vol 38(8). 1965.&lt;/li&gt;
    &lt;li id=&quot;T2ZR&quot;&gt;&lt;strong&gt;Design of ion-implanted MOSFET’s with very small physical dimensions&lt;/strong&gt;&lt;br /&gt;R.H. {Dennard}, F.H. {Gaensslen}, H. {Yu}, V.L. {Rideout}, E. {Bassous}, A.R. {LeBlanc}.&lt;br /&gt;IEEE Journal of Solid-State Circuits, Vol 9(5), pp. 256-268. 1974.&lt;/li&gt;
    &lt;li id=&quot;QNAt&quot;&gt;&lt;strong&gt;Moore’s Law&lt;/strong&gt; &lt;a href=&quot;https://www.computerhistory.org/revolution/digital-logic/12/267&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;. CHM.&lt;br /&gt; 2020.&lt;/li&gt;
    &lt;li id=&quot;wzdt&quot;&gt;&lt;strong&gt;Accelerating AI: Past, Present, and Future&lt;/strong&gt; &lt;a href=&quot;https://www.youtube.com/watch?v=8n2HLp2gtYs&amp;t=2116s&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Asanovic. 2018.&lt;/li&gt;
    &lt;li id=&quot;xJQi&quot;&gt;&lt;strong&gt;The Rise and Fall of Thinking Machines&lt;/strong&gt; &lt;a href=&quot;https://www.inc.com/magazine/19950915/2622.html&quot; target=&quot;_blank&quot;&gt;[HTML]&lt;/a&gt;&lt;br /&gt;G. Taubes. 1995.&lt;/li&gt;
    &lt;li id=&quot;zaUF&quot;&gt;&lt;strong&gt;When will computer hardware match the human brain&lt;/strong&gt;&lt;br /&gt;H. Moravec.&lt;br /&gt;Journal of Transhumanism, Vol 1. 1998.&lt;/li&gt;
    &lt;li id=&quot;M4RR&quot;&gt;&lt;strong&gt;The era of general purpose computers is ending&lt;/strong&gt; &lt;a href=&quot;https://www.nextplatform.com/2019/02/05/the-era-of-general-purpose-computers-is-ending/&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;M. Feldman. 2019.&lt;/li&gt;
    &lt;li id=&quot;fqZd&quot;&gt;&lt;strong&gt;1.1 The Deep Learning Revolution and Its Implications for Computer Architecture and Chip Design&lt;/strong&gt;&lt;br /&gt;J. Dean.&lt;br /&gt;2020 IEEE International Solid- State Circuits Conference - (ISSCC), pp. 8-14. 2020.&lt;/li&gt;
    &lt;li id=&quot;YbK9&quot;&gt;&lt;strong&gt;Analyzing Worldwide Research in Hardware Architecture, 1997-2011&lt;/strong&gt;&lt;br /&gt;D. Singh, A. Perdigones, J. Garcia, I. Cañas, F. Mazarrón.&lt;br /&gt;Communications of the ACM, Vol Volume 58, pp. Pages 76-85. 2015. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1145/2688498.2688499&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/2688498.2688499&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;omnl&quot;&gt;&lt;strong&gt;Anna Karenina&lt;/strong&gt; &lt;a href=&quot;https://books.google.com/books?id=1DooDwAAQBAJ&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;L. Tolstoy, R. Bartlett.&lt;br /&gt;Oxford University Press. 2016.&lt;/li&gt;
    &lt;li id=&quot;z7bc&quot;&gt;&lt;strong&gt;The Anna Karenina Principle Applied to Ecological Risk Assessments of Multiple Stressors&lt;/strong&gt;&lt;br /&gt;D. Moore.&lt;br /&gt;Human and Ecological Risk Assessment: An International Journal, Vol 7(2), pp. 231-237. 2001. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1080/20018091094349&quot; target=&quot;_blank&quot;&gt;DOI: 10.1080/20018091094349&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;0xn8&quot;&gt;&lt;strong&gt;The Age of Intelligent Machines&lt;/strong&gt;&lt;br /&gt;R. Kurzweil. MIT Press. 1990.&lt;/li&gt;
    &lt;li id=&quot;2mj0&quot;&gt;&lt;strong&gt;Computer History 1949 -1960 Early Vacuum Tube Computers Overview, History Project Educational&lt;/strong&gt; &lt;a href=&quot;https://www.youtube.com/watch?v=WnNm_uJYWhA&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;C.H.A. Project. 2018.&lt;/li&gt;
    &lt;li id=&quot;Y2qS&quot;&gt;&lt;strong&gt;Learning matrices and their applications&lt;/strong&gt;&lt;br /&gt;S. K, U. Piske.&lt;br /&gt;IEEE Transactions on Electronic Computers, Vol EC-12(6), pp. 846-862. 1963.&lt;/li&gt;
    &lt;li id=&quot;yORj&quot;&gt;&lt;strong&gt;Taylor expansion of the accumulated rounding error&lt;/strong&gt;&lt;br /&gt;S. Linnainmaa.&lt;br /&gt;BIT Numerical Mathematics, Vol 16, pp. 146-160. 1976.&lt;/li&gt;
    &lt;li id=&quot;cBzL&quot;&gt;&lt;strong&gt;Learning Representations by Back-Propagating Errors&lt;/strong&gt;&lt;br /&gt;D.E. Rumelhart, G.E. Hinton, R.J. Williams.&lt;br /&gt;Neurocomputing: Foundations of Research, pp. 696–699. MIT Press. 1988.&lt;/li&gt;
    &lt;li id=&quot;zwai&quot;&gt;&lt;strong&gt;Neocognitron: A new algorithm for pattern recognition tolerant of deformations and shifts in position&lt;/strong&gt; &lt;a href=&quot;http://www.sciencedirect.com/science/article/pii/0031320382900243&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Fukushima, S. Miyake.&lt;br /&gt;Pattern Recognition, Vol 15(6), pp. 455 - 469. 1982.&lt;/li&gt;
    &lt;li id=&quot;IrVf&quot;&gt;&lt;strong&gt;Backpropagation Applied to Handwritten Zip Code Recognition&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1162/neco.1989.1.4.541&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;Y. LeCun, B. Boser, J.S. Denker, D. Henderson, R.E. Howard, W. Hubbard, L.D. Jackel.&lt;br /&gt;, Vol 1(4), pp. 541–551. MIT Press. 1989.&lt;/li&gt;
    &lt;li id=&quot;Gro1&quot;&gt;&lt;strong&gt;What makes TPUs fine-tuned for deep learning?&lt;/strong&gt; &lt;a href=&quot;https://cloud.google.com/blog/products/ai-machine-learning/what-makes-tpus-fine-tuned-for-deep-learning&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Sato. 2018.&lt;/li&gt;
    &lt;li id=&quot;MWhw&quot;&gt;&lt;strong&gt;Understanding computers : software&lt;/strong&gt;&lt;br /&gt;T. books.&lt;br /&gt;Time - life books. 1985.&lt;/li&gt;
    &lt;li id=&quot;O5oO&quot;&gt;&lt;strong&gt;Parallel Models of Associative Memory&lt;/strong&gt;&lt;br /&gt;G.E. Hinton, J.A. Anderson. 1989.&lt;/li&gt;
    &lt;li id=&quot;ZICy&quot;&gt;&lt;strong&gt;Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Vol. 1: Foundations&lt;/strong&gt;&lt;br /&gt;D.E. Rumelhart, J.L. McClelland, C. PDP Research Group.&lt;br /&gt;MIT Press. 1986.&lt;/li&gt;
    &lt;li id=&quot;nqL6&quot;&gt;&lt;strong&gt;Artificial neural networks in hardware: A survey of two decades of progress&lt;/strong&gt; &lt;a href=&quot;http://www.sciencedirect.com/science/article/pii/S092523121000216X&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;J. Misra, I. Saha.&lt;br /&gt;Neurocomputing, Vol 74(1), pp. 239 - 255. 2010. &lt;br /&gt; DOI: &lt;a href=&quot;https://doi.org/10.1016/j.neucom.2010.03.021&quot; target=&quot;_blank&quot;&gt;https://doi.org/10.1016/j.neucom.2010.03.021&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;3S3c&quot;&gt;&lt;strong&gt;{Review of hardware neural networks: A User’s perspective}&lt;/strong&gt;&lt;br /&gt;C.S. Lindsey, T. Lindblad.&lt;br /&gt;{3rd Workshop on Neural Networks: From Biology to High-energy Physics}, pp. 0215—224. 1994.&lt;/li&gt;
    &lt;li id=&quot;6KS2&quot;&gt;&lt;strong&gt;Parallel Implementations of neural network training: two back-propagation approaches.&lt;/strong&gt; &lt;a href=&quot;https://drive.google.com/file/d/1I1fs4sczbCaACzA9XwxR3DiuXVtqmejL/view&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;J. Dean. 1990.&lt;/li&gt;
    &lt;li id=&quot;KxyM&quot;&gt;&lt;strong&gt;SPACE: Symbolic Processing in Associative Computing Elements&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1007/978-1-4899-1331-9_24&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;D.B. Howe, K. Asanovi{&amp;#x27;{c}}.&lt;br /&gt;VLSI for Neural Networks and Artificial Intelligence, pp. 243—252. Springer US. 1994. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1007/978-1-4899-1331-9_24&quot; target=&quot;_blank&quot;&gt;DOI: 10.1007/978-1-4899-1331-9_24&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;u0EF&quot;&gt;&lt;strong&gt;The ring array processor: A multiprocessing peripheral for connectionist applications&lt;/strong&gt; &lt;a href=&quot;http://www.sciencedirect.com/science/article/pii/074373159290067W&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;N. Morgan, J. Beck, P. Kohn, J. Bilmes, E. Allman, J. Beer.&lt;br /&gt;Journal of Parallel and Distributed Computing, Vol 14(3), pp. 248 - 259. 1992. &lt;br /&gt; &lt;a href=&quot;https://doi.org/https://doi.org/10.1016/0743-7315(92)90067-W&quot; target=&quot;_blank&quot;&gt;DOI: &lt;/a&gt;&lt;a href=&quot;https://doi.org/10.1016/0743-7315&quot; target=&quot;_blank&quot;&gt;https://doi.org/10.1016/0743-7315&lt;/a&gt;&lt;a href=&quot;https://doi.org/https://doi.org/10.1016/0743-7315(92)90067-W&quot; target=&quot;_blank&quot;&gt;(92)90067-W&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;YsjJ&quot;&gt;&lt;strong&gt;The fifth generation: Artificial intelligence and Japan’s computer challenge to the world, by Edward A. Feigenbaum and Pamela McCorduck. Reading, MA: Addison-Wesley, 1983, 275 pp. Price: \$15.35&lt;/strong&gt; &lt;a href=&quot;https://onlinelibrary.wiley.com/doi/abs/10.2307/3324061&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;M.G. Morgan.&lt;br /&gt;Journal of Policy Analysis and Management, Vol 3(1), pp. 156-156. 1983. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.2307/3324061&quot; target=&quot;_blank&quot;&gt;DOI: 10.2307/3324061&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;I8Qi&quot;&gt;&lt;strong&gt;HiPNeT-1: A Highly Pipelined Architecture for Neural Network Training&lt;/strong&gt;&lt;br /&gt;B. Kingsbury, N. Morgan, J. Wawrzynek.&lt;br /&gt;, pp. . 1998.&lt;/li&gt;
    &lt;li id=&quot;NeK1&quot;&gt;&lt;strong&gt;Application of the ANNA neural network chip to high-speed character recognition&lt;/strong&gt;&lt;br /&gt;E. {Sackinger}, B.E. {Boser}, J. {Bromley}, Y. {LeCun}, L.D. {Jackel}.&lt;br /&gt;IEEE Transactions on Neural Networks, Vol 3(3), pp. 498-505. 1992.&lt;/li&gt;
    &lt;li id=&quot;JLyy&quot;&gt;&lt;strong&gt;Guns, Germs, and Steel: the Fates of Human Societies&lt;/strong&gt;&lt;br /&gt;J. Diamond. 1998.&lt;/li&gt;
    &lt;li id=&quot;Ui1A&quot;&gt;&lt;strong&gt;High Performance Convolutional Neural Networks for Document Processing&lt;/strong&gt;&lt;br /&gt;K. Chellapilla, S. Puri, P. Simard.&lt;br /&gt; 2006. &lt;/li&gt;
    &lt;li id=&quot;yBvT&quot;&gt;&lt;strong&gt;GPU implementation of neural networks&lt;/strong&gt; &lt;a href=&quot;http://www.sciencedirect.com/science/article/pii/S0031320304000524&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Oh, K. Jung.&lt;br /&gt;Pattern Recognition, Vol 37(6), pp. 1311 - 1314. 2004. &lt;br /&gt; &lt;a href=&quot;https://doi.org/https://doi.org/10.1016/j.patcog.2004.01.013&quot; target=&quot;_blank&quot;&gt;DOI: https://doi.org/10.1016/j.patcog.2004.01.013&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;Zomm&quot;&gt;&lt;strong&gt;{Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition}&lt;/strong&gt;&lt;br /&gt;D. {Claudiu Ciresan}, U. {Meier}, L.M. {Gambardella}, J. {Schmidhuber}.&lt;br /&gt;arXiv e-prints, pp. arXiv:1003.0358. 2010. &lt;/li&gt;
    &lt;li id=&quot;at8l&quot;&gt;&lt;strong&gt;Understanding the Efficiency of GPU Algorithms for Matrix-Matrix Multiplication&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1145/1058129.1058148&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Fatahalian, J. Sugerman, P. Hanrahan.&lt;br /&gt;Proceedings of the ACM SIGGRAPH/EUROGRAPHICS Conference on Graphics Hardware, pp. 133–137. Association for Computing Machinery. 2004. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1145/1058129.1058148&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/1058129.1058148&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;pKrE&quot;&gt;&lt;strong&gt;Accelerated 2D Image Processing on GPUs&lt;/strong&gt;&lt;br /&gt;B.R. Payne, S.O. Belkasim, G.S. Owen, M.C. Weeks, Y. Zhu.&lt;br /&gt;Computational Science — ICCS 2005, pp. 256—264. Springer Berlin Heidelberg. 2005.&lt;/li&gt;
    &lt;li id=&quot;n660&quot;&gt;&lt;strong&gt;Graphics processing unit (GPU) programming strategies and trends in GPU computing&lt;/strong&gt; &lt;a href=&quot;http://www.sciencedirect.com/science/article/pii/S0743731512000998&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;A.R. Brodtkorb, T.R. Hagen, M.L. Sætra.&lt;br /&gt;Journal of Parallel and Distributed Computing, Vol 73(1), pp. 4 - 13. 2013. &lt;br /&gt; &lt;a href=&quot;https://doi.org/https://doi.org/10.1016/j.jpdc.2012.04.003&quot; target=&quot;_blank&quot;&gt;DOI: https://doi.org/10.1016/j.jpdc.2012.04.003&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;0v5k&quot;&gt;&lt;strong&gt;Which GPU for deep learning?&lt;/strong&gt; &lt;a href=&quot;https://bit.ly/35qq8xe&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;T. Dettmers. 2020.&lt;/li&gt;
    &lt;li id=&quot;6SrA&quot;&gt;&lt;strong&gt;Flexible, High Performance Convolutional Neural Networks for Image Classification.&lt;/strong&gt;&lt;br /&gt;D. Ciresan, U. Meier, J. Masci, L.M. Gambardella, J. Schmidhuber.&lt;br /&gt;International Joint Conference on Artificial Intelligence IJCAI-2011, pp. 1237-1242. 2011. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.5591/978-1-57735-516-8/IJCAI11-210&quot; target=&quot;_blank&quot;&gt;DOI: 10.5591/978-1-57735-516-8/IJCAI11-210&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;EVbP&quot;&gt;&lt;strong&gt;ImageNet Classification with Deep Convolutional Neural Networks&lt;/strong&gt; &lt;a href=&quot;http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf&quot; target=&quot;_blank&quot;&gt;[PDF]&lt;/a&gt;&lt;br /&gt;A. Krizhevsky, I. Sutskever, G.E. Hinton.&lt;br /&gt;Advances in Neural Information Processing Systems 25, pp. 1097—1105. 2012&lt;/li&gt;
    &lt;li id=&quot;5aQm&quot;&gt;&lt;strong&gt;Going deeper with convolutions&lt;/strong&gt;&lt;br /&gt;C. {Szegedy}, {. Liu}, {. Jia}, P. {Sermanet}, S. {Reed}, D. {Anguelov}, D. {Erhan}, V. {Vanhoucke}, A. {Rabinovich}.&lt;br /&gt;2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Vol (), pp. 1-9. 2015.&lt;/li&gt;
    &lt;li id=&quot;Yezh&quot;&gt;&lt;strong&gt;Building High-Level Features Using Large Scale Unsupervised Learning&lt;/strong&gt;&lt;br /&gt;Q.V. Le, M. Ranzato, R. Monga, M. Devin, K. Chen, G.S. Corrado, J. Dean, A.Y. Ng.&lt;br /&gt;Proceedings of the 29th International Coference on International Conference on Machine Learning, pp. 507–514. Omnipress. 2012.&lt;/li&gt;
    &lt;li id=&quot;PZ53&quot;&gt;&lt;strong&gt;Deep learning with COTS HPC systems&lt;/strong&gt; &lt;a href=&quot;http://proceedings.mlr.press/v28/coates13.html&quot; target=&quot;_blank&quot;&gt;[HTML]&lt;/a&gt;&lt;br /&gt;A. Coates, B. Huval, T. Wang, D. Wu, B. Catanzaro, N. Andrew.&lt;br /&gt;Proceedings of the 30th International Conference on Machine Learning, Vol 28(3), pp. 1337—1345. PMLR. 2013.&lt;/li&gt;
    &lt;li id=&quot;pS86&quot;&gt;&lt;strong&gt;Principles of Expert Systems&lt;/strong&gt;&lt;br /&gt;P. Lucas, L. van der Gaag.&lt;br /&gt; 1991.&lt;/li&gt;
    &lt;li id=&quot;Dx9C&quot;&gt;&lt;strong&gt;Neural Network Toolbox For Use with Matlab - User Guide Verion 3.0&lt;/strong&gt;&lt;br /&gt;H. Demuth, M. Beale. 1993.&lt;/li&gt;
    &lt;li id=&quot;tBKV&quot;&gt;&lt;strong&gt;Course: 15-880(A) — Introduction to Neural Networks&lt;/strong&gt; &lt;a href=&quot;https://www.cs.cmu.edu/afs/cs/project/ai-repository/ai/areas/neural/edu/15_882a/&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;D. Touretzky, A. Waibel. 1995.&lt;/li&gt;
    &lt;li id=&quot;5nVb&quot;&gt;&lt;strong&gt;Technical report: Lush reference manual, code available at &lt;a href=&quot;http://lush.sourceforge.net&quot; target=&quot;_blank&quot;&gt;http://lush.sourceforge.net&lt;/a&gt;&lt;/strong&gt;&lt;br /&gt;Y. Lecun, L. Bottou. 2002.&lt;/li&gt;
    &lt;li id=&quot;JXeK&quot;&gt;&lt;strong&gt;Torch: A Modular Machine Learning Software Library&lt;/strong&gt;&lt;br /&gt;R. Collobert, S. Bengio, J. Marithoz.&lt;br /&gt;, pp. . 2002.&lt;/li&gt;
    &lt;li id=&quot;alX2&quot;&gt;&lt;strong&gt;Artificial Intelligence: The Very Idea&lt;/strong&gt;&lt;br /&gt;J. Haugeland.&lt;br /&gt;Massachusetts Institute of Technology. 1985.&lt;/li&gt;
    &lt;li id=&quot;5eUp&quot;&gt;&lt;strong&gt;1.1 Computing’s energy problem (and what we can do about it)&lt;/strong&gt;&lt;br /&gt;M. {Horowitz}.&lt;br /&gt;2014 IEEE International Solid-State Circuits Conference Digest of Technical Papers (ISSCC), Vol (), pp. 10-14. 2014. &lt;/li&gt;
    &lt;li id=&quot;wajT&quot;&gt;&lt;strong&gt;Energy and Policy Considerations for Deep Learning in NLP&lt;/strong&gt;&lt;br /&gt;E. Strubell, A. Ganesh, A. McCallum.&lt;br /&gt; 2019.&lt;/li&gt;
    &lt;li id=&quot;POtg&quot;&gt;&lt;strong&gt;In-Datacenter Performance Analysis of a Tensor Processing Unit&lt;/strong&gt; &lt;a href=&quot;http://arxiv.org/abs/1704.04760&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;N.P. Jouppi, C. Young, N. Patil, D.A. Patterson, G. Agrawal, R. Bajwa, S. Bates, S. Bhatia, N. Boden, A. Borchers, R. Boyle, P. Cantin, C. Chao, C. Clark, J. Coriell, M. Daley, M. Dau, J. Dean, B. Gelb, T.V. Ghaemmaghami, R. Gottipati, W. Gulland, R. Hagmann, R.C. Ho, D. Hogberg, J. Hu, R. Hundt, D. Hurt, J. Ibarz, A. Jaffey, A. Jaworski, A. Kaplan, H. Khaitan, A. Koch, N. Kumar, S. Lacy, J. Laudon, J. Law, D. Le, C. Leary, Z. Liu, K. Lucke, A. Lundin, G. MacKean, A. Maggiore, M. Mahony, K. Miller, R. Nagarajan, R. Narayanaswami, R. Ni, K. Nix, T. Norrie, M. Omernick, N. Penukonda, A. Phelps, J. Ross, A. Salek, E. Samadiani, C. Severn, G. Sizikov, M. Snelham, J. Souter, D. Steinberg, A. Swing, M. Tan, G. Thorson, B. Tian, H. Toma, E. Tuttle, V. Vasudevan, R. Walter, W. Wang, E. Wilcox, D.H. Yoon.&lt;br /&gt; 2017.&lt;/li&gt;
    &lt;li id=&quot;Wsh8&quot;&gt;&lt;strong&gt;EfficientNet-EdgeTPU: Creating Accelerator-Optimized Neural Networks with AutoML&lt;/strong&gt; &lt;a href=&quot;https://ai.googleblog.com/2019/08/efficientnet-edgetpu-creating.html&quot; target=&quot;_blank&quot;&gt;[HTML]&lt;/a&gt;&lt;br /&gt;S. Gupta, M. Tan. 2019.&lt;/li&gt;
    &lt;li id=&quot;hEWL&quot;&gt;&lt;strong&gt;Enhancing AI Performance for IoT Endpoint Devices&lt;/strong&gt; &lt;a href=&quot;https://www.arm.com/company/news/2020/02/new-ai-technology-from-arm&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;. ARM. 2020.&lt;/li&gt;
    &lt;li id=&quot;S2TF&quot;&gt;&lt;strong&gt;The next step in Facebook AI hardware infrastructure&lt;/strong&gt; &lt;a href=&quot;https://bit.ly/3bgZFDn&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Lee, X. Wang. 2018.&lt;/li&gt;
    &lt;li id=&quot;ueMq&quot;&gt;&lt;strong&gt;Selective Brain Damage: Measuring the Disparate Impact of Model Pruning&lt;/strong&gt; &lt;a href=&quot;http://arxiv.org/abs/1911.05248&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;S. Hooker, A. Courville, Y. Dauphin, A. Frome.&lt;br /&gt;ArXiv, Vol abs/1911.05248. 2019. &lt;/li&gt;
    &lt;li id=&quot;GSvH&quot;&gt;&lt;strong&gt;The State of Sparsity in Deep Neural Networks&lt;/strong&gt;&lt;br /&gt;T. Gale, E. Elsen, S. Hooker. 2019. &lt;/li&gt;
    &lt;li id=&quot;LhK1&quot;&gt;&lt;strong&gt;Rigging the Lottery: Making All Tickets Winners&lt;/strong&gt;&lt;br /&gt;U. {Evci}, T. {Gale}, J. {Menick}, P.S. {Castro}, E. {Elsen}.&lt;br /&gt;arXiv e-prints. 2019.&lt;/li&gt;
    &lt;li id=&quot;0QGS&quot;&gt;&lt;strong&gt;HAWQ: Hessian AWare Quantization of Neural Networks With Mixed-Precision&lt;/strong&gt;&lt;br /&gt;D. Zhen, Z. Yao, A. Gholami, M. Mahoney, K. Keutzer.&lt;br /&gt;, pp. 293-302. 2019. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1109/ICCV.2019.00038&quot; target=&quot;_blank&quot;&gt;DOI: 10.1109/ICCV.2019.00038&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;f0tX&quot;&gt;&lt;strong&gt;HAQ: Hardware-Aware Automated Quantization&lt;/strong&gt;&lt;br /&gt;K. Wang, Z. Liu, Y. Lin, J. Lin, S. Han.&lt;br /&gt;ArXiv, Vol abs/1811.08886. 2018. &lt;/li&gt;
    &lt;li id=&quot;twIk&quot;&gt;&lt;strong&gt;{Computation on Sparse Neural Networks: an Inspiration for Future Hardware}&lt;/strong&gt;&lt;br /&gt;F. {Sun}, M. {Qin}, T. {Zhang}, L. {Liu}, Y. {Chen}, Y. {Xie}.&lt;br /&gt;arXiv e-prints, pp. arXiv:2004.11946. 2020.&lt;/li&gt;
    &lt;li id=&quot;iQV2&quot;&gt;&lt;strong&gt;NVIDIA Ampere Architecture In-Depth.&lt;/strong&gt; &lt;a href=&quot;https://developer.nvidia.com/blog/nvidia-ampere-architecture-in-depth/&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;R. Krashinsky, O. Giroux, S. Jones, N. Stam, S. Ramaswamy.&lt;br /&gt; 2020.&lt;/li&gt;
    &lt;li id=&quot;ZSIr&quot;&gt;&lt;strong&gt;Fast Sparse ConvNets&lt;/strong&gt;&lt;br /&gt;E. Elsen, M. Dukhan, T. Gale, K. Simonyan.&lt;br /&gt;Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2020. &lt;/li&gt;
    &lt;li id=&quot;ATD2&quot;&gt;&lt;strong&gt;{Sparse GPU Kernels for Deep Learning}&lt;/strong&gt;&lt;br /&gt;T. {Gale}, M. {Zaharia}, C. {Young}, E. {Elsen}.&lt;br /&gt;arXiv e-prints. 2020. &lt;/li&gt;
    &lt;li id=&quot;hosz&quot;&gt;&lt;strong&gt;GPU Kernels for Block-Sparse Weights&lt;/strong&gt;&lt;br /&gt;S. Gray, A. Radford, D.P. Kingma.&lt;br /&gt; 2017.&lt;/li&gt;
    &lt;li id=&quot;r96z&quot;&gt;&lt;strong&gt;Machine Learning Systems Are Stuck in a Rut&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1145/3317550.3321441&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;P. Barham, M. Isard.&lt;br /&gt;Proceedings of the Workshop on Hot Topics in Operating Systems, pp. 177–183. Association for Computing Machinery. 2019. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1145/3317550.3321441&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/3317550.3321441&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;ppvK&quot;&gt;&lt;strong&gt;Dynamic Routing Between Capsules&lt;/strong&gt; &lt;a href=&quot;http://papers.nips.cc/paper/6975-dynamic-routing-between-capsules.pdf&quot; target=&quot;_blank&quot;&gt;[PDF]&lt;/a&gt;&lt;br /&gt;S. Sabour, N. Frosst, G.E. Hinton.&lt;br /&gt;Advances in Neural Information Processing Systems 30, pp. 3856—3866. 2017.&lt;/li&gt;
    &lt;li id=&quot;1ppy&quot;&gt;&lt;strong&gt;The Bitter Lesson&lt;/strong&gt; &lt;a href=&quot;http://www.incompleteideas.net/IncIdeas/BitterLesson.html&quot; target=&quot;_blank&quot;&gt;[HTML]&lt;/a&gt;&lt;br /&gt;R. Sutton.&lt;br /&gt; 2019. &lt;/li&gt;
    &lt;li id=&quot;gXeT&quot;&gt;&lt;strong&gt;Do we still need models or just more data and compute?&lt;/strong&gt; &lt;a href=&quot;https://staff.fnwi.uva.nl/m.welling/wp-content/uploads/Model-versus-Data-AI-1.pdf&quot; target=&quot;_blank&quot;&gt;[PDF]&lt;/a&gt;&lt;br /&gt;M. Welling. 2019.&lt;/li&gt;
    &lt;li id=&quot;DO1d&quot;&gt;&lt;strong&gt;{The Computational Limits of Deep Learning}&lt;/strong&gt;&lt;br /&gt;N.C. {Thompson}, K. {Greenewald}, K. {Lee}, G.F. {Manso}.&lt;br /&gt;arXiv e-prints, pp. arXiv:2007.05558. 2020. &lt;/li&gt;
    &lt;li id=&quot;I56U&quot;&gt;&lt;strong&gt;{Language Models are Few-Shot Learners}&lt;/strong&gt;&lt;br /&gt;T.B. {Brown}, B. {Mann}, N. {Ryder}, M. {Subbiah}, J. {Kaplan}, P. {Dhariwal}, A. {Neelakantan}, P. {Shyam}, G. {Sastry}, A. {Askell}, S. {Agarwal}, A. {Herbert-Voss}, G. {Krueger}, T. {Henighan}, R. {Child}, A. {Ramesh}, D.M. {Ziegler}, J. {Wu}, C. {Winter}, C. {Hesse}, M. {Chen}, E. {Sigler}, M. {Litwin}, S. {Gray}, B. {Chess}, J. {Clark}, C. {Berner}, S. {McCand lish}, A. {Radford}, I. {Sutskever}, D. {Amodei}.&lt;br /&gt;arXiv e-prints, pp. arXiv:2005.14165. 2020.&lt;/li&gt;
    &lt;li id=&quot;aFOd&quot;&gt;&lt;strong&gt;{Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning}&lt;/strong&gt;&lt;br /&gt;C. {Szegedy}, S. {Ioffe}, V. {Vanhoucke}, A. {Alemi}.&lt;br /&gt;arXiv e-prints, pp. arXiv:1602.07261. 2016.&lt;/li&gt;
    &lt;li id=&quot;j0y7&quot;&gt;&lt;strong&gt;{Rethinking the Inception Architecture for Computer Vision}&lt;/strong&gt;&lt;br /&gt;C. {Szegedy}, V. {Vanhoucke}, S. {Ioffe}, J. {Shlens}, Z. {Wojna}.&lt;br /&gt;arXiv e-prints, pp. arXiv:1512.00567. 2015.&lt;/li&gt;
    &lt;li id=&quot;C7vn&quot;&gt;&lt;strong&gt;Do Better ImageNet Models Transfer Better?&lt;/strong&gt; &lt;a href=&quot;http://arxiv.org/abs/1805.08974&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;S. Kornblith, J. Shlens, Q.V. Le.&lt;br /&gt;CoRR, Vol abs/1805.08974. 2018.&lt;/li&gt;
    &lt;li id=&quot;txBy&quot;&gt;&lt;strong&gt;OpenAI launches an API to commercialize its research&lt;/strong&gt; &lt;a href=&quot;https://venturebeat.com/2020/06/11/openai-launches-an-api-to-commercialize-its-research/&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Wiggers. 2020.&lt;/li&gt;
    &lt;li id=&quot;nY1L&quot;&gt;&lt;strong&gt;Backpropagation through time and the brain&lt;/strong&gt; &lt;a href=&quot;http://www.sciencedirect.com/science/article/pii/S0959438818302009&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;T.P. Lillicrap, A. Santoro.&lt;br /&gt;Current Opinion in Neurobiology, Vol 55, pp. 82 - 89. 2019. &lt;br /&gt; &lt;a href=&quot;https://doi.org/https://doi.org/10.1016/j.conb.2019.01.011&quot; target=&quot;_blank&quot;&gt;DOI: https://doi.org/10.1016/j.conb.2019.01.011&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;AgFW&quot;&gt;&lt;strong&gt;Toward an Integration of Deep Learning and Neuroscience&lt;/strong&gt; &lt;a href=&quot;https://www.frontiersin.org/article/10.3389/fncom.2016.00094&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;A.H. Marblestone, G. Wayne, K.P. Kording.&lt;br /&gt;Frontiers in Computational Neuroscience, Vol 10, pp. 94. 2016. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.3389/fncom.2016.00094&quot; target=&quot;_blank&quot;&gt;DOI: 10.3389/fncom.2016.00094&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;I1YI&quot;&gt;&lt;strong&gt;Synaptic Modifications in Cultured Hippocampal Neurons: Dependence on Spike Timing, Synaptic Strength, and Postsynaptic Cell Type&lt;/strong&gt; &lt;a href=&quot;https://www.jneurosci.org/content/18/24/10464&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;G. Bi, M. Poo.&lt;br /&gt;Journal of Neuroscience, Vol 18(24), pp. 10464—10472. Society for Neuroscience. 1998. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1523/JNEUROSCI.18-24-10464.1998&quot; target=&quot;_blank&quot;&gt;DOI: 10.1523/JNEUROSCI.18-24-10464.1998&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;sNY8&quot;&gt;&lt;strong&gt;A Critique of Pure Learning: What Artificial Neural Networks can Learn from Animal Brains&lt;/strong&gt;&lt;br /&gt;A.M. Zador. bioRxiv. 2019.&lt;/li&gt;
    &lt;li id=&quot;8bYj&quot;&gt;&lt;strong&gt;Motion Integration and Postdiction in Visual Awareness&lt;/strong&gt; &lt;a href=&quot;https://science.sciencemag.org/content/287/5460/2036&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;D.M. Eagleman, T.J. Sejnowski.&lt;br /&gt;Science, Vol 287(5460), pp. 2036—2038. American Association for the Advancement of Science. 2000. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1126/science.287.5460.2036&quot; target=&quot;_blank&quot;&gt;DOI: 10.1126/science.287.5460.2036&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;OQ1R&quot;&gt;&lt;strong&gt;Prediction, cognition and the brain&lt;/strong&gt; &lt;a href=&quot;https://www.frontiersin.org/article/10.3389/fnhum.2010.00025&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;A. Bubic, D.Y. Von Cramon, R. Schubotz.&lt;br /&gt;Frontiers in Human Neuroscience, Vol 4, pp. 25. 2010. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.3389/fnhum.2010.00025&quot; target=&quot;_blank&quot;&gt;DOI: 10.3389/fnhum.2010.00025&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;qq8n&quot;&gt;&lt;strong&gt;Theory of cortical function&lt;/strong&gt; &lt;a href=&quot;https://www.pnas.org/content/114/8/1773&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;D.J. Heeger.&lt;br /&gt;Proceedings of the National Academy of Sciences, Vol 114(8), pp. 1773—1782. National Academy of Sciences. 2017. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1073/pnas.1619788114&quot; target=&quot;_blank&quot;&gt;DOI: 10.1073/pnas.1619788114&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;YkgV&quot;&gt;&lt;strong&gt;Signal-processing machines at the postsynaptic density.&lt;/strong&gt;&lt;br /&gt;M.B. Kennedy.&lt;br /&gt;Science, Vol 290 5492, pp. 750-4 . 2000. &lt;/li&gt;
    &lt;li id=&quot;X1Ll&quot;&gt;&lt;strong&gt;The Computer and the Brain&lt;/strong&gt; &lt;a href=&quot;https://books.google.com/books?id=Q30MqJjRv1gC&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;J. Von Neumann, P. Churchland, P. Churchland.&lt;br /&gt;Yale University Press. 2000.&lt;/li&gt;
    &lt;li id=&quot;lE40&quot;&gt;&lt;strong&gt;Studies of Interference in Serial Verbal Reactions&lt;/strong&gt;&lt;br /&gt;J.R. Stroop.&lt;br /&gt;Journal of Experimental Psychology, Vol 18(6), pp. 643. 1935. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1037/h0054651&quot; target=&quot;_blank&quot;&gt;DOI: 10.1037/h0054651&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;850D&quot;&gt;&lt;strong&gt;The elephant brain in numbers&lt;/strong&gt;&lt;br /&gt;S. Herculano-Houzel, K. Avelino-de-Souza, K. Neves, J. Porfirio, D.J. Messeder, L.M. Feijo, J. Maldonado, P.R. Manger.&lt;br /&gt;Frontiers in Neuroanatomy, Vol 8. 2014. &lt;/li&gt;
    &lt;li id=&quot;Wmcu&quot;&gt;&lt;strong&gt;Relational inductive biases, deep learning, and graph networks&lt;/strong&gt; &lt;a href=&quot;http://arxiv.org/abs/1806.01261&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;P.W. Battaglia, J.B. Hamrick, V. Bapst, A. Sanchez{-}Gonzalez, V.F. Zambaldi, M. Malinowski, A. Tacchetti, D. Raposo, A. Santoro, R. Faulkner, {. G{&amp;quot;{u}}l{\c{c}}ehre, H.F. Song, A.J. Ballard, J. Gilmer, G.E. Dahl, A. Vaswani, K.R. Allen, C. Nash, V. Langston, C. Dyer, N. Heess, D. Wierstra, P. Kohli, M. Botvinick, O. Vinyals, Y. Li, R. Pascanu.&lt;br /&gt;CoRR, Vol abs/1806.01261. 2018. &lt;/li&gt;
    &lt;li id=&quot;7sYg&quot;&gt;&lt;strong&gt;Core knowledge&lt;/strong&gt; &lt;a href=&quot;https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1467-7687.2007.00569.x&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;E.S. Spelke, K.D. Kinzler.&lt;br /&gt;Developmental Science, Vol 10(1), pp. 89-96. 2007. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1111/j.1467-7687.2007.00569.x&quot; target=&quot;_blank&quot;&gt;DOI: 10.1111/j.1467-7687.2007.00569.x&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;uiUh&quot;&gt;&lt;strong&gt;Computational principles of synaptic memory consolidation&lt;/strong&gt;&lt;br /&gt;M. Benna, S. Fusi.&lt;br /&gt;Nature Neuroscience, Vol 19, pp. . 2016. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1038/nn.4401&quot; target=&quot;_blank&quot;&gt;DOI: 10.1038/nn.4401&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;hqhQ&quot;&gt;&lt;strong&gt;Multisensory Development&lt;/strong&gt;&lt;br /&gt;A. Bremner, D. Lewkowicz, C. Spence.&lt;br /&gt;, pp. . 2013. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1093/acprof:oso/9780199586059.003.0001&quot; target=&quot;_blank&quot;&gt;DOI: 10.1093/acprof:oso/9780199586059.003.0001&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;cUSo&quot;&gt;&lt;strong&gt;The Handbook of Multisensory Processes&lt;/strong&gt; &lt;a href=&quot;https://books.google.com/books?id=CZS\_yDoFV7AC&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;G. Stein, G. Calvert, C. Spence, D. Spence, B. Stein, P. Stein.&lt;br /&gt;MIT Press. 2004. &lt;/li&gt;
    &lt;li id=&quot;xeq1&quot;&gt;&lt;strong&gt;Exploring Robotic Minds: Actions, Symbols, and Consciousness as Self-organizing Dynamic Phenomena&lt;/strong&gt; &lt;a href=&quot;https://books.google.com/books?id=QswnnQAACAAJ&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;J. Tani, O.U. Press.&lt;br /&gt;Oxford University Press. 2016. &lt;/li&gt;
    &lt;li id=&quot;aOub&quot;&gt;&lt;strong&gt;Memory and the Computational Brain: Why Cognitive Science Will Transform Neuroscience&lt;/strong&gt;&lt;br /&gt;C. Gallistel, A. King.&lt;br /&gt;, pp. 288-298. 2009. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1002/9781444310498.refs&quot; target=&quot;_blank&quot;&gt;DOI: 10.1002/9781444310498.refs&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;jgzd&quot;&gt;&lt;strong&gt;Episodic Memory: From Mind to Brain&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1146/annurev.psych.53.100901.135114&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;E. Tulving.&lt;br /&gt;Annual Review of Psychology, Vol 53(1), pp. 1-25. 2002. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1146/annurev.psych.53.100901.135114&quot; target=&quot;_blank&quot;&gt;DOI: 10.1146/annurev.psych.53.100901.135114&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;QnGN&quot;&gt;&lt;strong&gt;When and where do we apply what we learn? A taxonomy for far transfer.&lt;/strong&gt;&lt;br /&gt;S.M. Barnett, S. Ceci.&lt;br /&gt;Psychological bulletin, Vol 128 4, pp. 612-37 . 2002.&lt;/li&gt;
    &lt;li id=&quot;NlvI&quot;&gt;&lt;strong&gt;Why There are Complementary Learning Systems in the Hippocampus and Neocortex: Insights from the Successes and Failures of Connectionist Models of Learning and Memory&lt;/strong&gt;&lt;br /&gt;J. Mcclelland, B. Mcnaughton, R. O’Reilly.&lt;br /&gt;Psychological review, Vol 102, pp. 419-57. 1995. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1037/0033-295X.102.3.419&quot; target=&quot;_blank&quot;&gt;DOI: 10.1037/0033-295X.102.3.419&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;ieba&quot;&gt;&lt;strong&gt;Catastrophic Interference in Connectionist Networks: The Sequential Learning Problem&lt;/strong&gt;&lt;br /&gt;M. McCloskey, N.J. Cohen.&lt;br /&gt;, Vol 24, pp. 109 - 165. Academic Press. 1989. &lt;br /&gt; &lt;a href=&quot;https://doi.org/https://doi.org/10.1016/S0079-7421(08)60536-8&quot; target=&quot;_blank&quot;&gt;DOI: https://doi.org/10.1016/S0079-7421(08)60536-8&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;4TU6&quot;&gt;&lt;strong&gt;{Continual Lifelong Learning with Neural Networks: A Review}&lt;/strong&gt;&lt;br /&gt;G.I. {Parisi}, R. {Kemker}, J.L. {Part}, C. {Kanan}, S. {Wermter}.&lt;br /&gt;arXiv e-prints, pp. arXiv:1802.07569. 2018.&lt;/li&gt;
    &lt;li id=&quot;9FBZ&quot;&gt;&lt;strong&gt;The Decline of Computers As a General Purpose Technology: Why Deep Learning and the End of Moore’s Law are Fragmenting Computing&lt;/strong&gt;&lt;br /&gt;N. Thompson, S. Spanuth. 2018.&lt;/li&gt;
    &lt;li id=&quot;jUzy&quot;&gt;&lt;strong&gt;{Chip Placement with Deep Reinforcement Learning}&lt;/strong&gt;&lt;br /&gt;A. {Mirhoseini}, A. {Goldie}, M. {Yazgan}, J. {Jiang}, E. {Songhori}, S. {Wang}, Y. {Lee}, E. {Johnson}, O. {Pathak}, S. {Bae}, A. {Nazi}, J. {Pak}, A. {Tong}, K. {Srinivasa}, W. {Hang}, E. {Tuncer}, A. {Babu}, Q.V. {Le}, J. {Laudon}, R. {Ho}, R. {Carpenter}, J. {Dean}.&lt;br /&gt;arXiv e-prints, pp. arXiv:2004.10746. 2020.&lt;/li&gt;
    &lt;li id=&quot;3Dzd&quot;&gt;&lt;strong&gt;Reconfigurable Computing: The Theory and Practice of FPGA-Based Computation&lt;/strong&gt;&lt;br /&gt;S. Hauck, A. DeHon.&lt;br /&gt;Morgan Kaufmann Publishers Inc. 2007.&lt;/li&gt;
    &lt;li id=&quot;tcBM&quot;&gt;&lt;strong&gt;Plasticine: A reconfigurable architecture for parallel patterns&lt;/strong&gt;&lt;br /&gt;R. {Prabhakar}, Y. {Zhang}, D. {Koeplinger}, M. {Feldman}, T. {Zhao}, S. {Hadjis}, A. {Pedram}, C. {Kozyrakis}, K. {Olukotun}.&lt;br /&gt;2017 ACM/IEEE 44th Annual International Symposium on Computer Architecture (ISCA), Vol (), pp. 389-402. 2017.&lt;/li&gt;
    &lt;li id=&quot;gbrE&quot;&gt;&lt;strong&gt;The future of computing beyond Moore’s Law&lt;/strong&gt;&lt;br /&gt;J. Shalf.&lt;br /&gt;Philosophical Transactions of the Royal Society A, Vol 378. 2020.&lt;/li&gt;
    &lt;li id=&quot;CZxJ&quot;&gt;&lt;strong&gt;Big Bets on A.I. Open a New Frontier for Chip Start-Ups, Too&lt;/strong&gt; &lt;a href=&quot;https://www.nytimes.com/2018/01/14/technology/artificial-intelligence-chip-start-ups.html&quot; target=&quot;_blank&quot;&gt;[HTML]&lt;/a&gt;&lt;br /&gt;C. Metz. 2018.&lt;/li&gt;
    &lt;li id=&quot;QnTL&quot;&gt;&lt;strong&gt;FPGAs versus GPUs in Data centers&lt;/strong&gt;&lt;br /&gt;B. {Falsafi}, B. {Dally}, D. {Singh}, D. {Chiou}, J.J. {Yi}, R. {Sendag}.&lt;br /&gt;IEEE Micro, Vol 37(1), pp. 60-72. 2017. &lt;/li&gt;
    &lt;li id=&quot;bdqy&quot;&gt;&lt;strong&gt;How to Make a Synthetic Multicellular Computer&lt;/strong&gt;&lt;br /&gt;J. Macía, R. Sole.&lt;br /&gt;PloS one, Vol 9, pp. e81248. 2014. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1371/journal.pone.0081248&quot; target=&quot;_blank&quot;&gt;DOI: 10.1371/journal.pone.0081248&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;wcgu&quot;&gt;&lt;strong&gt;A synthetic biology challenge: Making cells compute&lt;/strong&gt;&lt;br /&gt;C. Tan, H. Song, J. Niemi, L. You.&lt;br /&gt;Molecular bioSystems, Vol 3, pp. 343-53. 2007. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1039/b618473c&quot; target=&quot;_blank&quot;&gt;DOI: 10.1039/b618473c&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;lybJ&quot;&gt;&lt;strong&gt;A scalable pipeline for designing reconfigurable organisms&lt;/strong&gt; &lt;a href=&quot;https://www.pnas.org/content/117/4/1853&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;S. Kriegman, D. Blackiston, M. Levin, J. Bongard.&lt;br /&gt;Proceedings of the National Academy of Sciences, Vol 117(4), pp. 1853—1859. National Academy of Sciences. 2020. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1073/pnas.1910837117&quot; target=&quot;_blank&quot;&gt;DOI: 10.1073/pnas.1910837117&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;7bRx&quot;&gt;&lt;strong&gt;Equivalent-accuracy accelerated neural-network training using analogue memory&lt;/strong&gt;&lt;br /&gt;S. Ambrogio, P. Narayanan, H. Tsai, R. Shelby, I. Boybat, C. Nolfo, S. Sidler, M. Giordano, M. Bodini, N. Farinha, B. Killeen, C. Cheng, Y. Jaoudi, G. Burr.&lt;br /&gt;Nature, Vol 558, pp. . 2018. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1038/s41586-018-0180-5&quot; target=&quot;_blank&quot;&gt;DOI: 10.1038/s41586-018-0180-5&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;nokD&quot;&gt;&lt;strong&gt;Progress in Neuromorphic Computing : Drawing Inspiration from Nature for Gains in AI and Computing&lt;/strong&gt;&lt;br /&gt;M. {Davies}.&lt;br /&gt;2019 International Symposium on VLSI Design, Automation and Test (VLSI-DAT), Vol (), pp. 1-1. 2019.&lt;/li&gt;
    &lt;li id=&quot;Dhgi&quot;&gt;&lt;strong&gt;All-optical machine learning using diffractive deep neural networks&lt;/strong&gt; &lt;a href=&quot;https://science.sciencemag.org/content/361/6406/1004&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;X. Lin, Y. Rivenson, N.T. Yardimci, M. Veli, Y. Luo, M. Jarrahi, A. Ozcan.&lt;br /&gt;Science, Vol 361(6406), pp. 1004—1008. American Association for the Advancement of Science. 2018. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1126/science.aat8084&quot; target=&quot;_blank&quot;&gt;DOI: 10.1126/science.aat8084&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;qv9J&quot;&gt;&lt;strong&gt;{Validating quantum computers using randomized model circuits}&lt;/strong&gt;&lt;br /&gt;A.W. {Cross}, L.S. {Bishop}, S. {Sheldon}, P.D. {Nation}, J.M. {Gambetta}.&lt;br /&gt;\pra, Vol 100(3). 2019.&lt;/li&gt;
    &lt;li id=&quot;8wcc&quot;&gt;&lt;strong&gt;The chip design game at the end of Moore’s law&lt;/strong&gt;&lt;br /&gt;R. {Colwell}.&lt;br /&gt;2013 IEEE Hot Chips 25 Symposium (HCS), Vol (), pp. 1-16. 2013. &lt;/li&gt;
    &lt;li id=&quot;polL&quot;&gt;&lt;strong&gt;Overview of Beyond-CMOS Devices and a Uniform Methodology for Their Benchmarking&lt;/strong&gt;&lt;br /&gt;D.E. {Nikonov}, I.A. {Young}.&lt;br /&gt;Proceedings of the IEEE, Vol 101(12), pp. 2498-2533. 2013.&lt;/li&gt;
    &lt;li id=&quot;P2wj&quot;&gt;&lt;strong&gt;DARPA Announces Next Phase of Electronics Resurgence Initiative&lt;/strong&gt; &lt;a href=&quot;https://www.darpa.mil/news-events/2018-11-01a&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;. DARPA. 2018.&lt;/li&gt;
    &lt;li id=&quot;SClG&quot;&gt;&lt;strong&gt;China Plans $47$ Billion Fund to Boost Its Semiconductor Industry&lt;/strong&gt; &lt;a href=&quot;https://on.wsj.com/32L7Kwn&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;Y. Kubota. 2018.&lt;/li&gt;
    &lt;li id=&quot;HQ7u&quot;&gt;&lt;strong&gt;Software Productivity for Extreme-Scale Science&lt;/strong&gt;&lt;br /&gt;H. Hotel, H. Johansen, D. Bernholdt, M. Heroux, R. Hornung.&lt;br /&gt; 2014.&lt;/li&gt;
    &lt;li id=&quot;sXsE&quot;&gt;&lt;strong&gt;MLPerf Inference Benchmark&lt;/strong&gt;&lt;br /&gt;V.J. {Reddi}, C. {Cheng}, D. {Kanter}, P. {Mattson}, G. {Schmuelling}, C. {Wu}, B. {Anderson}, M. {Breughe}, M. {Charlebois}, W. {Chou}, R. {Chukka}, C. {Coleman}, S. {Davis}, P. {Deng}, G. {Diamos}, J. {Duke}, D. {Fick}, J.S. {Gardner}, I. {Hubara}, S. {Idgunji}, T.B. {Jablin}, J. {Jiao}, T.S. {John}, P. {Kanwar}, D. {Lee}, J. {Liao}, A. {Lokhmotov}, F. {Massa}, P. {Meng}, P. {Micikevicius}, C. {Osborne}, G. {Pekhimenko}, A.T.R. {Rajan}, D. {Sequeira}, A. {Sirasao}, F. {Sun}, H. {Tang}, M. {Thomson}, F. {Wei}, E. {Wu}, L. {Xu}, K. {Yamada}, B. {Yu}, G. {Yuan}, A. {Zhong}, P. {Zhang}, Y. {Zhou}.&lt;br /&gt;2020 ACM/IEEE 47th Annual International Symposium on Computer Architecture (ISCA), Vol (), pp. 446-459. 2020. &lt;/li&gt;
    &lt;li id=&quot;mNVG&quot;&gt;&lt;strong&gt;Collective Knowledge: Towards R D sustainability&lt;/strong&gt;&lt;br /&gt;G. {Fursin}, A. {Lokhmotov}, E. {Plowman}.&lt;br /&gt;2016 Design, Automation Test in Europe Conferenc Exhibition (DATE), Vol (), pp. 864-869. 2016.&lt;/li&gt;
    &lt;li id=&quot;WUFY&quot;&gt;&lt;strong&gt;Implementing Domain-Specific Languages for Heterogeneous Parallel Computing&lt;/strong&gt;&lt;br /&gt;H. {Lee}, K. {Brown}, A. {Sujeeth}, H. {Chafi}, T. {Rompf}, M. {Odersky}, K. {Olukotun}.&lt;br /&gt;IEEE Micro, Vol 31(5), pp. 42-53. 2011.&lt;/li&gt;
    &lt;li id=&quot;CTiR&quot;&gt;&lt;strong&gt;There{\textquoteright}s plenty of room at the Top: What will drive computer performance after Moore{\textquoteright}s law?&lt;/strong&gt; &lt;a href=&quot;https://science.sciencemag.org/content/368/6495/eaam9744&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;C.E. Leiserson, N.C. Thompson, J.S. Emer, B.C. Kuszmaul, B.W. Lampson, D. Sanchez, T.B. Schardl.&lt;br /&gt;Science, Vol 368(6495). American Association for the Advancement of Science. 2020. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1126/science.aam9744&quot; target=&quot;_blank&quot;&gt;DOI: 10.1126/science.aam9744&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;XuJ9&quot;&gt;&lt;strong&gt;Beyond Parallel Programming with Domain Specific Languages&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1145/2692916.2557966&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;K. Olukotun.&lt;br /&gt;SIGPLAN Not., Vol 49(8), pp. 179–180. Association for Computing Machinery. 2014. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1145/2692916.2557966&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/2692916.2557966&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;JPjk&quot;&gt;&lt;strong&gt;When and How to Develop Domain-Specific Languages&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1145/1118890.1118892&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;M. Mernik, J. Heering, A.M. Sloane.&lt;br /&gt;ACM Comput. Surv., Vol 37(4), pp. 316–344. Association for Computing Machinery. 2005. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1145/1118890.1118892&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/1118890.1118892&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;WZQX&quot;&gt;&lt;strong&gt;Customizable Domain-Specific Computing&lt;/strong&gt;&lt;br /&gt;J. {Cong}, V. {Sarkar}, G. {Reinman}, A. {Bui}.&lt;br /&gt;IEEE Design Test of Computers, Vol 28(2), pp. 6-15. 2011.&lt;/li&gt;
    &lt;li id=&quot;HdCc&quot;&gt;&lt;strong&gt;Autotuning Numerical Dense Linear Algebra for Batched Computation With GPU Hardware Accelerators&lt;/strong&gt;&lt;br /&gt;J. {Dongarra}, M. {Gates}, J. {Kurzak}, P. {Luszczek}, Y.M. {Tsai}.&lt;br /&gt;Proceedings of the IEEE, Vol 106(11), pp. 2040-2055. 2018. &lt;/li&gt;
    &lt;li id=&quot;vn6g&quot;&gt;&lt;strong&gt;Automated empirical optimizations of software and the ATLAS project&lt;/strong&gt; &lt;a href=&quot;http://www.sciencedirect.com/science/article/pii/S0167819100000879&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;R.{. Whaley}, A. Petitet, J.J. Dongarra.&lt;br /&gt;Parallel Computing, Vol 27(1), pp. 3 - 35. 2001. &lt;br /&gt; &lt;a href=&quot;https://doi.org/https://doi.org/10.1016/S0167-8191(00)00087-9&quot; target=&quot;_blank&quot;&gt;DOI: https://doi.org/10.1016/S0167-8191(00)00087-9&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;8adb&quot;&gt;&lt;strong&gt;The Landscape of Parallel Computing Research: A View from Berkeley&lt;/strong&gt; &lt;a href=&quot;http://www2.eecs.berkeley.edu/Pubs/TechRpts/2006/EECS-2006-183.html&quot; target=&quot;_blank&quot;&gt;[HTML]&lt;/a&gt;&lt;br /&gt;K. Asanović, R. Bodik, B.C. Catanzaro, J.J. Gebis, P. Husbands, K. Keutzer, D.A. Patterson, W.L. Plishker, J. Shalf, S.W. Williams, K.A. Yelick.&lt;br /&gt; 2006. &lt;/li&gt;
    &lt;li id=&quot;i1tX&quot;&gt;&lt;strong&gt;OpenTuner: An Extensible Framework for Program Autotuning&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1145/2628071.2628092&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;J. Ansel, S. Kamil, K. Veeramachaneni, J. Ragan-Kelley, J. Bosboom, U. O’Reilly, S. Amarasinghe.&lt;br /&gt;Proceedings of the 23rd International Conference on Parallel Architectures and Compilation, pp. 303–316. Association for Computing Machinery. 2014. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1145/2628071.2628092&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/2628071.2628092&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;7Hnx&quot;&gt;&lt;strong&gt;Spending Moore’s Dividend&lt;/strong&gt; &lt;a href=&quot;https://doi.org/10.1145/1506409.1506425&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;J. Larus.&lt;br /&gt;Commun. ACM, Vol 52(5), pp. 62–69. Association for Computing Machinery. 2009. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1145/1506409.1506425&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/1506409.1506425&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;yGwy&quot;&gt;&lt;strong&gt;Software bloat analysis: Finding, removing, and preventing performance problems in modern large-scale object-oriented applications&lt;/strong&gt;&lt;br /&gt;H. Xu, N. Mitchell, M. Arnold, A. Rountev, G. Sevitsky.&lt;br /&gt;Proceedings of the FSE/SDP Workshop on the Future of Software Engineering Research, FoSER 2010, pp. 421-426. 2010. &lt;br /&gt; &lt;a href=&quot;https://doi.org/10.1145/1882362.1882448&quot; target=&quot;_blank&quot;&gt;DOI: 10.1145/1882362.1882448&lt;/a&gt;&lt;/li&gt;
    &lt;li id=&quot;rShb&quot;&gt;&lt;strong&gt;Telecosm: How Infinite Bandwidth Will Revolutionize Our World&lt;/strong&gt; &lt;a href=&quot;https://books.google.com/books?id=Kzo-KTxdwcEC&quot; target=&quot;_blank&quot;&gt;[link]&lt;/a&gt;&lt;br /&gt;G. Gilder. Free Press. 2000.&lt;/li&gt;
  &lt;/ol&gt;

</content></entry><entry><id>howareyou:k8s</id><link rel="alternate" type="text/html" href="https://teletype.in/@howareyou/k8s?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=howareyou"></link><title>Kubernetes 101: Поды, Ноды, Контейнеры, и Кластеры.</title><published>2023-05-18T07:24:21.807Z</published><updated>2023-05-18T07:26:40.924Z</updated><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://img1.teletype.in/files/8f/b8/8fb82b3d-2ac3-4681-a25a-6c806922f86a.png"></media:thumbnail><category term="devops" label="devops"></category><summary type="html">&lt;img src=&quot;https://img1.teletype.in/files/41/88/418871de-009d-44ad-b76e-ba5778a191ee.png&quot;&gt;Перевод оригинальной статьи Kubernetes 101: Pods, Nodes, Containers, and Clusters</summary><content type="html">
  &lt;hr /&gt;
  &lt;blockquote id=&quot;Jhl7&quot;&gt;Перевод оригинальной статьи &lt;strong&gt;&lt;a href=&quot;https://medium.com/google-cloud/kubernetes-101-pods-nodes-containers-and-clusters-c1509e409e16&quot; target=&quot;_blank&quot;&gt;Kubernetes 101: Pods, Nodes, Containers, and Clusters&lt;/a&gt;&lt;/strong&gt;&lt;/blockquote&gt;
  &lt;p id=&quot;Or0o&quot;&gt;Kubernetes быстро становится новым стандартом для развертывания и управления программным обеспечением в облаке. Однако со всей мощью, которую предоставляет Kubernetes, придется пройти крутую кривую обучения. Новичку попытка разобрать &lt;a href=&quot;https://kubernetes.io/docs/concepts/&quot; target=&quot;_blank&quot;&gt;официальную документацию&lt;/a&gt; может быть непосильной. Система состоит из множества разных частей, и бывает сложно определить, какие из этих частей подходят для вашего варианта использования. В этом сообщении в блоге будет представлен упрощенный взгляд на Kubernetes, но в нем будет предпринята попытка дать общий обзор наиболее важных компонентов, и того, как они взаимодействуют друг с другом.&lt;/p&gt;
  &lt;p id=&quot;rykp&quot;&gt;Во-первых, давайте посмотрим, как представлено оборудование&lt;/p&gt;
  &lt;p id=&quot;IQ5E&quot;&gt;&lt;/p&gt;
  &lt;h2 id=&quot;Amnb&quot;&gt;Аппаратное обеспечение&lt;/h2&gt;
  &lt;h3 id=&quot;NcyI&quot;&gt;Узлы (Ноды)&lt;/h3&gt;
  &lt;figure id=&quot;eC9B&quot; class=&quot;m_column&quot;&gt;
    &lt;img src=&quot;https://img1.teletype.in/files/41/88/418871de-009d-44ad-b76e-ba5778a191ee.png&quot; width=&quot;1108&quot; /&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;6fgO&quot;&gt;&lt;a href=&quot;https://kubernetes.io/docs/concepts/architecture/nodes/&quot; target=&quot;_blank&quot;&gt;Узел &lt;/a&gt;— это наименьшая единица вычислительного оборудования в Kubernetes. Это представление одной машины в вашем кластере. В большинстве производственных систем узел, скорее всего, будет либо физической машиной в центре обработки данных, либо виртуальной машиной, размещенной у облачного провайдера, такого как &lt;a href=&quot;https://cloud.google.com/&quot; target=&quot;_blank&quot;&gt;Google Cloud Platform&lt;/a&gt;. Однако не позволяйте условностям ограничивать вас; теоретически можно сделать узел &lt;a href=&quot;https://twitter.com/jkrippy/status/932800484703862784&quot; target=&quot;_blank&quot;&gt;практически&lt;/a&gt; &lt;a href=&quot;https://blog.hypriot.com/post/setup-kubernetes-raspberry-pi-cluster/&quot; target=&quot;_blank&quot;&gt;из чего угодно&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;CyzC&quot;&gt;Представление о машине как об «узле» позволяет нам добавить слой абстракции. Теперь вместо того, чтобы беспокоиться об уникальных характеристиках каждой отдельной машины, мы можем просто рассматривать каждую машину как набор ресурсов ЦП и ОЗУ, которые можно использовать. Таким образом, любая машина может заменить любую другую машину в кластере Kubernetes.&lt;/p&gt;
  &lt;p id=&quot;ShdM&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;Ld45&quot;&gt;Кластер&lt;/h3&gt;
  &lt;figure id=&quot;0174&quot; class=&quot;m_column&quot;&gt;
    &lt;img src=&quot;https://img3.teletype.in/files/6b/dd/6bdd9f62-a8df-45bb-8490-27ff70f6d613.png&quot; width=&quot;1432&quot; /&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;lzZp&quot;&gt;Хотя работа с отдельными узлами может быть полезна, это не путь Kubernetes. В общем, вы должны думать о кластере в целом, а не беспокоиться о состоянии отдельных узлов.&lt;/p&gt;
  &lt;p id=&quot;bjES&quot;&gt;В Kubernetes узлы объединяют свои ресурсы, чтобы сформировать более мощную машину. Когда вы развертываете программы в кластере, он интеллектуально распределяет работу по отдельным узлам за вас. Если какие-либо узлы будут добавлены или удалены, кластер будет переключаться между работой по мере необходимости. Для программы или программиста не должно иметь значения, на каких машинах фактически выполняется код.&lt;/p&gt;
  &lt;p id=&quot;rvPa&quot;&gt;Если такая система, похожая на коллективный разум, напоминает вам &lt;a href=&quot;https://memory-alpha.fandom.com/wiki/Borg&quot; target=&quot;_blank&quot;&gt;Борга из «Звездного пути»&lt;/a&gt;, вы не одиноки; «Борг» — это &lt;a href=&quot;https://kubernetes.io/blog/2015/04/borg-predecessor-to-kubernetes/&quot; target=&quot;_blank&quot;&gt;название внутреннего проекта Google&lt;/a&gt;, на котором был основан Kubernetes.&lt;/p&gt;
  &lt;p id=&quot;i9S8&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;8XzA&quot;&gt;Постоянные тома&lt;/h3&gt;
  &lt;p id=&quot;NzUZ&quot;&gt;Поскольку программы, работающие в вашем кластере, не гарантируют работу на определенном узле, данные не могут быть сохранены в любом произвольном месте в файловой системе. Если программа попытается сохранить данные в файл на потом, но затем будет перемещена на новый узел, файл больше не будет находиться там, где программа ожидает его видеть. По этой причине традиционное локальное хранилище, связанное с каждым узлом, рассматривается как временный кэш для хранения программ, но нельзя ожидать, что любые данные, сохраненные локально, сохранятся.&lt;/p&gt;
  &lt;figure id=&quot;HGMf&quot; class=&quot;m_column&quot;&gt;
    &lt;img src=&quot;https://img2.teletype.in/files/58/be/58be2659-ef4d-44f6-8b81-efdb3dcf1387.png&quot; width=&quot;1596&quot; /&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;YilR&quot;&gt;Для постоянного хранения данных Kubernetes использует &lt;a href=&quot;https://kubernetes.io/docs/concepts/storage/persistent-volumes/&quot; target=&quot;_blank&quot;&gt;постоянные тома&lt;/a&gt;. В то время как ресурсы ЦП и ОЗУ всех узлов эффективно объединены и управляются кластером, постоянное хранилище файлов — нет. Вместо этого локальные или облачные диски могут быть подключены к кластеру как постоянный том. Это можно рассматривать как подключение внешнего жесткого диска к кластеру. Постоянные тома предоставляют файловую систему, которую можно подключить к кластеру без привязки к какому-либо конкретному узлу.&lt;/p&gt;
  &lt;p id=&quot;zEB4&quot;&gt;&lt;/p&gt;
  &lt;h2 id=&quot;HiEL&quot;&gt;Программное обеспечение&lt;/h2&gt;
  &lt;h3 id=&quot;HJ4U&quot;&gt;Контейнеры&lt;/h3&gt;
  &lt;figure id=&quot;2Fp1&quot; class=&quot;m_column&quot;&gt;
    &lt;img src=&quot;https://img3.teletype.in/files/69/2d/692de88e-6f4a-4084-ae87-551b201550ef.png&quot; width=&quot;768&quot; /&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;ZGga&quot;&gt;Программы, работающие в Kubernetes, упакованы в &lt;a href=&quot;https://www.docker.com/resources/what-container/&quot; target=&quot;_blank&quot;&gt;контейнеры Linux&lt;/a&gt;. Контейнеры являются общепринятым стандартом, поэтому уже существует &lt;a href=&quot;https://hub.docker.com/search?q=&amp;type=image&quot; target=&quot;_blank&quot;&gt;множество готовых образов&lt;/a&gt;, которые можно развернуть в Kubernetes.&lt;/p&gt;
  &lt;p id=&quot;UbtL&quot;&gt;Контейнеризация позволяет создавать автономные среды выполнения Linux. Любая программа и все ее зависимости могут быть объединены в один файл, а затем опубликованы в Интернете. Любой может скачать контейнер и развернуть его в своей инфраструктуре с минимальной настройкой. Создание контейнера может быть выполнено программно, что позволяет формировать мощные конвейеры &lt;a href=&quot;https://blog.sonatype.com/achieving-ci/cd-with-kubernetes&quot; target=&quot;_blank&quot;&gt;CI и CD&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;XnJv&quot;&gt;В один контейнер можно добавить несколько программ, но по возможности следует ограничиться одним процессом на контейнер. Лучше иметь много маленьких контейнеров, чем один большой. Если каждый контейнер имеет четкую направленность, обновления легче развертывать, а проблемы легче диагностировать.&lt;/p&gt;
  &lt;p id=&quot;NcHP&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;Crmt&quot;&gt;Поды&lt;/h3&gt;
  &lt;figure id=&quot;P5SB&quot; class=&quot;m_column&quot;&gt;
    &lt;img src=&quot;https://img3.teletype.in/files/6a/4c/6a4c2629-3e5d-47b7-8270-056835ec8dc0.png&quot; width=&quot;641&quot; /&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;VWUr&quot;&gt;В отличие от других систем, которые вы могли использовать в прошлом, Kubernetes не запускает контейнеры напрямую; вместо этого он оборачивает один или несколько контейнеров в структуру более высокого уровня, называемую &lt;a href=&quot;https://kubernetes.io/docs/concepts/workloads/pods/&quot; target=&quot;_blank&quot;&gt;подом&lt;/a&gt;. Все контейнеры в одном поде будут использовать одни и те же ресурсы и локальную сеть. Контейнеры могут легко взаимодействовать с другими контейнерами в одном модуле, как если бы они находились на одном компьютере, сохраняя при этом определенную степень изоляции от других.&lt;/p&gt;
  &lt;p id=&quot;ccHe&quot;&gt;Поды используются в качестве единицы репликации в Kubernetes. Если ваше приложение становится слишком популярным и один экземпляр модуля не может нести нагрузку, Kubernetes можно настроить для развертывания новых реплик вашего модуля в кластере по мере необходимости. Даже когда нагрузка невелика, стандартно иметь несколько копий модуля, работающих в любое время в производственной системе, чтобы обеспечить балансировку нагрузки и устойчивость к сбоям.&lt;/p&gt;
  &lt;p id=&quot;dFCx&quot;&gt;Поды могут содержать несколько контейнеров, но вы должны ограничивать себя, когда это возможно. Поскольку модули масштабируются вверх и вниз как единое целое, все контейнеры в поде должны масштабироваться вместе, независимо от их индивидуальных потребностей. Это приводит к напрасной трате ресурсов и дорогому счету. Чтобы решить эту проблему, поды должны оставаться как можно меньше, как правило, содержащие только основной процесс и его тесно связанные вспомогательные контейнеры (эти вспомогательные контейнеры обычно называются «сайд-карами»).&lt;/p&gt;
  &lt;h3 id=&quot;5eMM&quot;&gt;&lt;/h3&gt;
  &lt;h3 id=&quot;fZ5w&quot;&gt;Деплойменты&lt;/h3&gt;
  &lt;figure id=&quot;jiso&quot; class=&quot;m_column&quot;&gt;
    &lt;img src=&quot;https://img2.teletype.in/files/52/a0/52a05c37-77fc-4fa1-bb8e-37972e6bd6d6.png&quot; width=&quot;1650&quot; /&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;ZLGi&quot;&gt;Хотя поды являются базовой единицей вычислений в Kubernetes, они обычно не запускаются напрямую в кластере. Вместо этого модули обычно управляются еще одним уровнем абстракции: &lt;a href=&quot;https://kubernetes.io/docs/concepts/workloads/controllers/deployment/&quot; target=&quot;_blank&quot;&gt;развертыванием&lt;/a&gt;.&lt;/p&gt;
  &lt;p id=&quot;vOLB&quot;&gt;Основная цель развертывания — объявить, сколько реплик пода должно работать одновременно. Когда развертывание добавляется в кластер, оно автоматически запускает запрошенное количество модулей, а затем отслеживает их. Если под умирает, развертывание автоматически воссоздает его.&lt;/p&gt;
  &lt;p id=&quot;GaSw&quot;&gt;Используя развертывание, вам не нужно иметь дело с подами вручную. Вы можете просто объявить желаемое состояние системы, и оно будет управляться автоматически.&lt;/p&gt;
  &lt;p id=&quot;PIGN&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;4a14&quot;&gt;Ingress (Точка входа)&lt;/h3&gt;
  &lt;figure id=&quot;jzAS&quot; class=&quot;m_column&quot;&gt;
    &lt;img src=&quot;https://img3.teletype.in/files/e0/f3/e0f3673c-fc2c-4831-87c9-24b5bf581f9b.png&quot; width=&quot;1274&quot; /&gt;
  &lt;/figure&gt;
  &lt;p id=&quot;JaIU&quot;&gt;Используя концепции, описанные выше, вы можете создать кластер узлов и запустить развертывание подов в кластере. Однако осталось решить еще одну проблему: разрешить внешний трафик для вашего приложения.&lt;/p&gt;
  &lt;p id=&quot;hB0P&quot;&gt;По умолчанию Kubernetes обеспечивает изоляцию между подами и внешним миром. Если вы хотите общаться со службой, работающей в поде, вам нужно открыть канал для связи. Это называется ingress (точка входа).&lt;/p&gt;
  &lt;p id=&quot;e2l7&quot;&gt;Есть несколько способов добавить точку входа в ваш кластер. Наиболее распространенными способами являются добавление контроллера &lt;a href=&quot;https://kubernetes.io/docs/concepts/services-networking/ingress/&quot; target=&quot;_blank&quot;&gt;Ingress &lt;/a&gt;или &lt;a href=&quot;https://kubernetes.io/docs/tasks/access-application-cluster/create-external-load-balancer/&quot; target=&quot;_blank&quot;&gt;LoadBalancer&lt;/a&gt;. Точные компромиссы между этими двумя вариантами выходят за рамки этой статьи, но вы должны знать, что точка входа — это то, что вам нужно обработать, прежде чем вы сможете экспериментировать с Kubernetes.&lt;/p&gt;
  &lt;p id=&quot;YN99&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;dKYE&quot;&gt;Что дальше&lt;/h3&gt;
  &lt;p id=&quot;Hct2&quot;&gt;То, что описано выше, — это упрощенная версия Kubernetes, но она должна дать вам основы, необходимые для начала экспериментов. Теперь, когда вы понимаете, из чего состоит система, пришло время использовать их для развертывания реального приложения. Ознакомьтесь с &lt;a href=&quot;https://medium.com/google-cloud/kubernetes-110-your-first-deployment-bf123c1d3f8&quot; target=&quot;_blank&quot;&gt;Kubernetes 110: Your First Deployment&lt;/a&gt;, чтобы начать.&lt;/p&gt;
  &lt;p id=&quot;1qeK&quot;&gt;Чтобы поэкспериментировать с Kubernetes локально, &lt;a href=&quot;https://kubernetes.io/docs/setup/&quot; target=&quot;_blank&quot;&gt;Minikube &lt;/a&gt;создаст виртуальный кластер на вашем персональном оборудовании. Если вы готовы опробовать облачный сервис, в &lt;a href=&quot;https://cloud.google.com/kubernetes-engine/&quot; target=&quot;_blank&quot;&gt;Google Kubernetes Engine&lt;/a&gt; есть коллекция &lt;a href=&quot;https://cloud.google.com/kubernetes-engine/docs/concepts/kubernetes-engine-overview&quot; target=&quot;_blank&quot;&gt;руководств&lt;/a&gt;, которые помогут вам начать работу.&lt;/p&gt;
  &lt;p id=&quot;F4KR&quot;&gt;Если вы новичок в мире контейнеров и веб-инфраструктуры, я предлагаю ознакомиться с&lt;a href=&quot;https://12factor.net/&quot; target=&quot;_blank&quot;&gt; методологией 12 Factor App&lt;/a&gt;. Здесь описываются некоторые из лучших практик, которые следует учитывать при разработке программного обеспечения для работы в такой среде, как Kubernetes.&lt;/p&gt;
  &lt;blockquote id=&quot;Ou2M&quot;&gt;Перевод оригинальной статьи &lt;strong&gt;&lt;a href=&quot;https://medium.com/google-cloud/kubernetes-101-pods-nodes-containers-and-clusters-c1509e409e16&quot; target=&quot;_blank&quot;&gt;Kubernetes 101: Pods, Nodes, Containers, and Clusters&lt;/a&gt; Контент оригинальной статьи принадлежит &lt;a href=&quot;https://twitter.com/DanSanche21&quot; target=&quot;_blank&quot;&gt;автору&lt;/a&gt;. &lt;/strong&gt;&lt;/blockquote&gt;

</content></entry><entry><id>howareyou:kpt</id><link rel="alternate" type="text/html" href="https://teletype.in/@howareyou/kpt?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=howareyou"></link><title>КПТ</title><published>2023-05-04T21:26:30.892Z</published><updated>2023-05-18T07:25:47.270Z</updated><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://img1.teletype.in/files/87/8a/878ae74b-b3ea-4a7e-b6b0-5f8e08f16c38.png"></media:thumbnail><summary type="html">Каждому из нас стоит обратить внимание на свое внутренне психическое состояние. Для того, чтобы ощущать себя здоровым, полным сил, и просто не психовать с любой мелочи. </summary><content type="html">
  &lt;hr /&gt;
  &lt;nav&gt;
    &lt;ul&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#6zOC&quot;&gt;Бэкграунд.&lt;/a&gt;&lt;/li&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#jcfx&quot;&gt;Мне все надоело. Ничего не хочется. Чувствую апатию. Что мне сделать?&lt;/a&gt;&lt;/li&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#9x8s&quot;&gt;Это все фуфло. Понимаешь, мне ничего не хочется!&lt;/a&gt;&lt;/li&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#5GvG&quot;&gt;То есть выполнение маленьких задач может повышать настроение и мотивацию? Есть ссылки на научные исследования?&lt;/a&gt;&lt;/li&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#RFw3&quot;&gt;Я придерживаюсь этого метода уже продолжительное время. Но моё настроение все ещё в упадке. Есть ещё какие-нибудь эффективные методики?&lt;/a&gt;&lt;/li&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#ZNU8&quot;&gt;Суть КПТ метода.&lt;/a&gt;&lt;/li&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#C7IO&quot;&gt;Алгоритм освоения метода КПТ.&lt;/a&gt;&lt;/li&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#G6MB&quot;&gt;Список инструментов в рамках КПТ.&lt;/a&gt;&lt;/li&gt;
      &lt;li class=&quot;m_level_1&quot;&gt;&lt;a href=&quot;#VhCJ&quot;&gt;Научное обоснование метода КПТ.&lt;/a&gt;&lt;/li&gt;
    &lt;/ul&gt;
  &lt;/nav&gt;
  &lt;hr /&gt;
  &lt;h3 id=&quot;6zOC&quot;&gt;Бэкграунд.&lt;/h3&gt;
  &lt;p id=&quot;va1W&quot;&gt;Каждому из нас стоит обратить внимание на свое внутренне психическое состояние. Для того, чтобы ощущать себя здоровым, полным сил, и просто не психовать с любой мелочи. &lt;/p&gt;
  &lt;p id=&quot;Beku&quot;&gt;Путь, который приводит к терапии -&amp;gt;&lt;/p&gt;
  &lt;p id=&quot;uKLm&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;jcfx&quot;&gt;Мне все надоело. Ничего не хочется. Чувствую апатию. Что мне сделать?&lt;/h3&gt;
  &lt;p id=&quot;2GRf&quot;&gt;Кажется, что у меня возникло чувство усталости и безразличия. Для начала, стоит попробовать найти причину своего состояния. Возможно, это может быть связано с перегрузкой на работе или дома, отсутствием достаточного количества отдыха или нехваткой интересных занятий в жизни.&lt;br /&gt;&lt;br /&gt;Один из способов борьбы с этим состоянием - поиск новых хобби или интересных занятий. Я могу попробовать заняться спортом, присоединиться к группе единомышленников (лолшто?), заниматься творчеством, путешествовать или научиться новому навыку.&lt;br /&gt;&lt;br /&gt;Если мое состояние не улучшается после мер, которые я уже предпринимал, - нужно обратиться за помощью к психотерапевту или другому специалисту, который поможет мне разобраться в ситуации и предложит эффективные способы борьбы с усталостью и безразличием.&lt;/p&gt;
  &lt;p id=&quot;WtZQ&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;9x8s&quot;&gt;Это все фуфло. Понимаешь, мне ничего не хочется!&lt;/h3&gt;
  &lt;p id=&quot;TMeZ&quot;&gt;Понимаю, что это может быть довольно тяжелое состояние. Чувство усталости и безразличия может возникать по разным причинам: перегрузка на работе или в личной жизни, социальная изоляция, ощущение бесполезности и многие другие.&lt;br /&gt;&lt;br /&gt;Для начала нужно посмотреть на свой образ жизни. Нужно определить, достаточно ли я высыпаюсь, правильно ли питаюсь, занимаюсь ли спортом, провожу ли время с друзьями и близкими. Важно выделить достаточное количество времени для отдыха и самопознания.&lt;br /&gt;&lt;br /&gt;Также очень важно определить свои цели и задачи, которые будут полезны и интересны для меня. Нужно разбить эти цели на маленькие шаги и постепенно двигаться к их реализации. Каждый шаг будет давать мне новые успехи, которые будут повышать мою мотивацию и настроение.&lt;/p&gt;
  &lt;p id=&quot;0dKS&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;5GvG&quot;&gt;То есть выполнение маленьких задач может повышать настроение и мотивацию? Есть ссылки на научные исследования?&lt;/h3&gt;
  &lt;p id=&quot;AhAA&quot;&gt;Да, выполнение маленьких задач может повышать настроение и мотивацию. Это основано на концепции &amp;quot;эффекта малых побед&amp;quot;, который был предложен Карлом Вейкманом (Karl Weick) в 1984 году.&lt;br /&gt;&lt;br /&gt;В рамках этой концепции предполагается, что люди часто испытывают чувство беспомощности из-за слишком больших целей или проблем, которые кажутся неразрешимыми. Однако, если разбить эти цели на маленькие шаги и двигаться постепенно, достижение каждого маленького шага станет маленькой победой, которая может повысить уверенность в себе и мотивацию для дальнейшей работы.&lt;br /&gt;&lt;br /&gt;Исследования подтверждают эффективность данной стратегии. Например, исследование, проведенное в 2011 году в Университете Харварда, показало, что участники, которые регулярно писали списки задач и отмечали их выполнение, имели более высокий уровень самоконтроля и удовлетворения жизнью.&lt;br /&gt;&lt;br /&gt;Еще одно исследование, проведенное в 2012 году в Университете Пенсильвании, показало, что разбиение большой задачи на маленькие шаги и постепенное движение к ее выполнению улучшает участников самоконтроль и повышает их способность справляться со стрессом.&lt;br /&gt;&lt;br /&gt;Таким образом, эффект малых побед является эффективной стратегией, которая может помочь повысить ваше настроение и мотивацию.&lt;/p&gt;
  &lt;p id=&quot;GmOR&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;RFw3&quot;&gt;Я придерживаюсь этого метода уже продолжительное время. Но моё настроение все ещё в упадке. Есть ещё какие-нибудь эффективные методики?&lt;/h3&gt;
  &lt;p id=&quot;IBxj&quot;&gt;Если выполнение маленьких задач не приносит мне заметного улучшения настроения, то возможно стоит рассмотреть другие методики.&lt;br /&gt;&lt;br /&gt;Одна из таких методик - это практика медитации. Медитация может помочь снизить уровень стресса и тревоги, повысить уровень концентрации и улучшить настроение. Существует множество различных техник медитации, поэтому я бы рекомендовал начать с простых упражнений для начинающих, например, с фокусирования на дыхании или использования мантры.&lt;br /&gt;&lt;br /&gt;Еще одним эффективным методом является когнитивно-поведенческая терапия (КПТ). Данная методика помогает изменить негативные мысли и установки, которые могут быть связаны с моим состоянием, на более конструктивные и оптимистические. КПТ также может помочь улучшить мою самооценку и повысить уверенность в себе.&lt;/p&gt;
  &lt;p id=&quot;ED85&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;ZNU8&quot;&gt;Суть КПТ метода.&lt;/h3&gt;
  &lt;p id=&quot;AdIh&quot;&gt;Когнитивно-поведенческая терапия (КПТ) - это форма психотерапии, которая помогает людям изменить негативные мысли и поведенческие шаблоны, которые могут препятствовать им в достижении желаемых целей. Она базируется на предположении, что то, как мы думаем, влияет на то, как мы чувствуем и действуем.&lt;br /&gt;&lt;br /&gt;Суть КПТ состоит в том, чтобы помочь людям стать более осознанными своих мыслей и поведения и научиться заменять негативные мысли на более конструктивные и оптимистические. Терапевт работает с пациентом, чтобы помочь ему выработать новые стратегии решения проблем и установок, которые могут привести к более эффективному поведению.&lt;br /&gt;&lt;br /&gt;В процессе работы используются различные методы, такие как анализ мыслей, разработка планов действий, тренировки на расслабление и другие. Важно подчеркнуть, что КПТ является короткосрочной терапией, которая обычно длится несколько месяцев.&lt;br /&gt;&lt;br /&gt;КПТ может быть эффективна для лечения различных психологических проблем, включая депрессию, тревогу, фобии, посттравматическое стрессовое расстройство и другие. Эта методика имеет научное обоснование и является одним из наиболее часто используемых подходов в психотерапии.&lt;/p&gt;
  &lt;p id=&quot;4a0N&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;C7IO&quot;&gt;Алгоритм освоения метода КПТ.&lt;/h3&gt;
  &lt;p id=&quot;RqaA&quot;&gt;Вот примерный алгоритм работы по КПТ:&lt;br /&gt;&lt;br /&gt;1. Определение целей терапии: выяснение проблем, с которыми нужно работать, определение желаемых результатов и установление приоритетов.&lt;br /&gt;&lt;br /&gt;2. Оценка текущей ситуации: анализ мыслей, чувств и поведения настоящего момента, выявление основных проблемных областей и факторов, которые поддерживают негативное состояние.&lt;br /&gt;&lt;br /&gt;3. Разработка новых стратегий: помощь пациенту в разработке новых мыслей и поведенческих стратегий, направленных на достижение желаемых результатов.&lt;br /&gt;&lt;br /&gt;4. Обучение навыкам: предоставление пациенту инструментов для решения проблем и более эффективной работы с негативными мыслями и чувствами.&lt;br /&gt;&lt;br /&gt;5. Практика: тренировка пациента в использовании новых навыков в реальной жизни, включая выполнение домашних заданий.&lt;br /&gt;&lt;br /&gt;6. Оценка результатов: оценка эффективности терапии и проверка достижения желаемых результатов.&lt;br /&gt;&lt;br /&gt;Важно отметить, что данный алгоритм является лишь общим руководством и может меняться в зависимости от конкретной ситуации и потребностей пациента. КПТ подразумевает индивидуальный подход к каждому пациенту, чтобы обеспечить наилучшие результаты лечения.&lt;/p&gt;
  &lt;p id=&quot;BNhj&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;G6MB&quot;&gt;Список инструментов в рамках КПТ.&lt;/h3&gt;
  &lt;p id=&quot;KD3L&quot;&gt;Когнитивно-поведенческая терапия (КПТ) имеет множество инструментов и методов, которые используются для достижения положительных результатов. Вот несколько примеров таких инструментов:&lt;br /&gt;&lt;br /&gt;1. Анализ мыслей: это процесс выявления негативных мыслей и установок, которые могут привести к негативным эмоциям и поведению.&lt;br /&gt;&lt;br /&gt;2. Поддержание дневника: пациент ведет дневник, чтобы отслеживать свои мысли, чувства и поведение, а также обратить внимание на изменения в своем состоянии.&lt;br /&gt;&lt;br /&gt;3. Работа с установками: процесс изменения негативных установок на более конструктивные и оптимистические.&lt;br /&gt;&lt;br /&gt;4. Тренировка расслабления: использование техник расслабления, таких как медитация, глубокое дыхание или прогрессивная мышечная релаксация, для уменьшения уровня стресса и тревоги.&lt;br /&gt;&lt;br /&gt;5. Разработка плана действий: помощь пациенту в разработке плана действий для достижения конкретных целей.&lt;br /&gt;&lt;br /&gt;6. Обучение навыкам социального взаимодействия: тренировка пациента в навыках коммуникации, установления и поддержания здоровых отношений.&lt;br /&gt;&lt;br /&gt;7. Тренировка мышления: помощь пациенту в развитии новых привычек мышления, которые могут повысить уверенность в себе и самоконтроль.&lt;br /&gt;&lt;br /&gt;Это только некоторые из инструментов, которые могут использовать терапевты в рамках КПТ. В зависимости от конкретной ситуации и потребностей пациента, могут быть использованы и другие методы и техники.&lt;/p&gt;
  &lt;p id=&quot;Hn3f&quot;&gt;&lt;/p&gt;
  &lt;h3 id=&quot;VhCJ&quot;&gt;Научное обоснование метода КПТ.&lt;/h3&gt;
  &lt;p id=&quot;hPzw&quot;&gt;1. Butler AC, Chapman JE, Forman EM, Beck AT. The empirical status of cognitive-behavioral therapy: a review of meta-analyses. Clin Psychol Rev. 2006 Jan;26(1):17-31.&lt;br /&gt;&lt;a href=&quot;https://www.ncbi.nlm.nih.gov/pubmed/16387240&quot; target=&quot;_blank&quot;&gt;https://www.ncbi.nlm.nih.gov/pubmed/16387240&lt;/a&gt;&lt;/p&gt;
  &lt;p id=&quot;s2vn&quot;&gt;Исследование Butler AC и соавторов из 2006 года является обзором мета-анализов, в которых была оценена эмпирическая статус КПТ. Результаты этого обзора показали, что КПТ является эффективным методом для лечения различных психических расстройств, таких как депрессия, тревожность, фобии и другие.&lt;br /&gt;&lt;br /&gt;2. Hofmann SG, Asnaani A, Vonk IJ, Sawyer AT, Fang A. The Efficacy of Cognitive Behavioral Therapy: A Review of Meta-analyses. Cognit Ther Res. 2012 Oct;36(5):427-440.&lt;br /&gt;&lt;a href=&quot;https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3584580/&quot; target=&quot;_blank&quot;&gt;https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3584580/&lt;/a&gt;&lt;/p&gt;
  &lt;p id=&quot;bZfI&quot;&gt;В исследовании Hofmann SG и соавторов из 2012 года проводился обзор мета-анализов, которые анализировали эффективность КПТ для лечения различных психических расстройств. Результаты подтвердили высокую эффективность КПТ для лечения депрессии, тревожности, посттравматического стрессового расстройства и других расстройств.&lt;/p&gt;
  &lt;p id=&quot;JMEq&quot;&gt;&lt;br /&gt;3. McEvoy PM, Nathan P, Norton PJ. Efficacy of transdiagnostic treatments: A review of published outcome studies and future research directions. J Cogn Psychother. 2009;23(1):20–33.&lt;br /&gt;&lt;a href=&quot;https://guilfordjournals.com/doi/abs/10.1891/0889-8391.23.1.20&quot; target=&quot;_blank&quot;&gt;https://guilfordjournals.com/doi/abs/10.1891/0889-8391.23.1.20&lt;/a&gt;&lt;/p&gt;
  &lt;p id=&quot;PzSc&quot;&gt;Исследование McEvoy PM и соавторов из 2009 года оценивало эффективность трансдиагностических методов в лечении психических расстройств. Результаты исследования подтвердили, что КПТ является эффективным трансдиагностическим методом для лечения широкого спектра психических расстройств.&lt;br /&gt;&lt;br /&gt;4. Beck AT, Rush AJ, Shaw BF, Emery G. Cognitive therapy of depression. New York: Guilford Press; 1979.&lt;br /&gt;&lt;a href=&quot;https://www.guilford.com/books/Cognitive-Therapy-of-Depression/Beck-Rush-Shaw-Emery/9780898629194&quot; target=&quot;_blank&quot;&gt;https://www.guilford.com/books/Cognitive-Therapy-of-Depression/Beck-Rush-Shaw-Emery/9780898629194&lt;/a&gt;&lt;br /&gt;&lt;/p&gt;
  &lt;p id=&quot;2AGm&quot;&gt;Исследование Beck AT и соавторов из 1979 года было первым исследованием, которое описывало когнитивно-поведенческую терапию для лечения депрессии. Они обнаружили, что КПТ была более эффективной, чем другие формы психотерапии, такие как психоанализ.&lt;/p&gt;
  &lt;p id=&quot;S3m0&quot;&gt;&lt;br /&gt;5. Clark DM, Fairburn CG. Science and practice of cognitive behaviour therapy. Oxford: Oxford University Press; 1997.&lt;br /&gt;&lt;a href=&quot;https://global.oup.com/academic/product/science-and-practice-of-cognitive-behaviour-therapy-9780192627189?cc=us&amp;lang=en&amp;#&quot; target=&quot;_blank&quot;&gt;https://global.oup.com/academic/product/science-and-practice-of-cognitive-behaviour-therapy-9780192627189?cc=us&amp;amp;lang=en&amp;amp;#&lt;/a&gt;&lt;br /&gt;&lt;/p&gt;
  &lt;p id=&quot;tu4v&quot;&gt;Исследование Clark DM и Fairburn CG из 1997 года рассматривает научные и клинические аспекты когнитивно-поведенческой терапии. Авторы этой работы представляют собой известных психотерапевтов и приводят конкретные примеры использования КПТ при лечении различных психических расстройств.&lt;br /&gt;&lt;/p&gt;
  &lt;p id=&quot;cOs2&quot;&gt;В целом, предоставленные ссылки на исследования демонстрируют эффективность метода когнитивно-поведенческой терапии при лечении различных психических расстройств. Они показывают, что КПТ является научно обоснованным методом психотерапии, который получил широкое признание в медицинском сообществе.&lt;/p&gt;

</content></entry></feed>