Глава 7. Как за 7 лет машины научились думать: история революции ИИ
В июне 2018 года команда исследователей OpenAI опубликовала научную статью "Improving Language Understanding by Generative Pre-training". За сухим академическим названием скрывалось событие, которое изменит мир технологий. Программа с непримечательным именем GPT-1 научилась предсказывать следующее слово в предложении. Задача простая, как детская игра в "продолжи фразу". Мама начинает: "Мама мыла..." – а ребенок радостно кричит: "Раму!" Только вместо ребенка – нейронная сеть, а вместо одного примера – миллиарды слов из интернета.
Представьте ребенка-вундеркинда, который за семь лет прошел путь от первых слов до защиты докторской диссертации. Именно с такой скоростью развивались языковые модели OpenAI. От простого угадывания слов в 2018 году до сдачи экзамена на адвоката лучше 90% людей в 2023-м. И самое поразительное – этот рост подчиняется математическому закону, столь же точному, как закон сохранения энергии.
Июнь 2018: рождение технологии, которая изменит всё
GPT-1 содержала 117 миллионов параметров. Что такое параметр? Представьте настройки эквалайзера в музыкальном плеере – каждый ползунок регулирует определенную частоту звука. У GPT-1 таких "ползунков" было 117 миллионов, и каждый настраивал какой-то аспект понимания языка. Для сравнения: в человеческом мозге около 86 миллиардов нейронов и 100 триллионов синапсов. Получается, GPT-1 по сложности соответствовала примерно одной тысячной части человеческого мозга – участку коры размером с рисовое зернышко.
Модель обучалась на коллекции из 11 038 неопубликованных книг с платформы самиздата Smashwords. Это примерно 985 миллионов слов – как если бы вы прочитали "Войну и мир" восемьсот раз подряд. Процесс обучения был прост: модель читала текст слово за словом и пыталась угадать следующее. Никто не объяснял ей правила грамматики, не показывал, где подлежащее, а где сказуемое. Она училась всему сама методом проб и ошибок.
Важная деталь: GPT-1 могла "помнить" только 512 токенов (примерно 380 слов). Токен – это базовая единица текста для модели, обычно часть слова или целое короткое слово. Например, слово "предсказывать" разбивается на токены "пред", "сказ", "ыва", "ть". Это контекстное окно в 512 токенов означало, что модель забывала начало текста, дочитав до середины страницы.
После месяца обучения на мощных графических процессорах (точное количество OpenAI не раскрывала) произошло первое чудо. Модель не просто запомнила частые словосочетания – она начала понимать контекст. Дайте ей начало "В больнице врач..." – и она продолжит медицинскими терминами. Напишите "На кухне повар..." – появятся кулинарные слова.
- Ввод: "Исследование показало, что регулярные физические упражнения..."
- GPT-1: "...способствуют улучшению здоровья и снижению риска сердечно-сосудистых заболеваний"
Банально? Безусловно. Но вспомните – никто не программировал эти связи. Модель сама вывела, что после "физические упражнения" логично говорить о здоровье. Она обнаружила скрытые закономерности языка просто наблюдая за миллиардами слов.
Однако GPT-1 была похожа на эрудированного, но рассеянного студента. Она могла продолжить любую фразу осмысленно, но не могла решить конкретную задачу. Попросите перевести текст – она растеряется. Задайте вопрос – получите что-то связное, но не обязательно правильное. Это был младенец искусственного интеллекта, делающий первые неуверенные шаги.
GPT-2: модель, которую побоялись выпускать
Февраль 2019 года. Всего восемь месяцев после GPT-1. В офисе OpenAI в Сан-Франциско исследователи смотрят на мониторы с выражением, которое трудно описать словами. Они создали GPT-2 – модель в десять раз больше предшественницы, с 1.5 миллиардами параметров. И она делала то, чего никто не ожидал.
Контекстное окно выросло до 1024 токенов – модель могла удерживать в "памяти" уже целую страницу текста. Обучение проходило на датасете WebText – 40 гигабайтах текста из 8 миллионов веб-страниц, отобранных по ссылкам с Reddit, набравшим минимум три голоса. Это гарантировало определенное качество – люди делились только интересным контентом.
14 февраля 2019 года OpenAI опубликовала примеры работы GPT-2, которые шокировали технологическое сообщество. Дайте модели заведомо абсурдное начало новости, и она создаст правдоподобное продолжение:
Человек: "В шокирующем открытии ученый обнаружил стадо единорогов, живущих в отдаленной, ранее неисследованной долине в Андах."
GPT-2: "Доктор Перес, биолог из Университета Ла-Паса, возглавлявший экспедицию, заявил, что существа обладают уникальным серебристым рогом и белоснежной шерстью. 'Сначала мы не поверили своим глазам', – рассказал он журналистам. 'Но после проведения генетических тестов стало ясно, что мы имеем дело с ранее неизвестным видом млекопитающих'. Местные жители веками рассказывали легенды о мистических лошадях в горах, но до сих пор эти истории считались мифом..."
Модель не просто дописывала текст – она создавала целый нарратив с именами, деталями, цитатами. Она копировала стиль новостных статей настолько точно, что отличить сгенерированный текст от настоящего было крайне сложно.
OpenAI приняла беспрецедентное решение: не публиковать полную модель. "Мы обеспокоены злонамеренным применением технологии", – заявили в компании. Вместо полной версии выпустили модель со 117 миллионами параметров – размером с GPT-1. Критики обвиняли их в создании искусственного ажиотажа, сторонники хвалили за ответственность.
GPT-2 демонстрировала способность, которую исследователи назвали "обучение без примеров" (zero-shot learning). Модель могла выполнять задачи, которым ее никто не учил. Хотите перевод? Просто напишите:
Никто не обучал модель переводу специально. Она видела параллельные тексты во время обучения и поняла паттерн сама.
К ноябрю 2019 года, после поэтапного выпуска все более крупных версий (345M, 762M параметров), OpenAI наконец опубликовала полную модель 5 ноября 2019 года. Апокалипсис не наступил, но мир изменился. Стало ясно: при достаточном масштабе языковые модели обретают неожиданные способности.
175 миллиардов параметров: рождение "настоящего" интеллекта
28 мая 2020 года. Пандемия COVID-19 в разгаре, мир на карантине. В это время команда OpenAI, включая главного научного сотрудника Илью Суцкевера, публикует препринт (предварительную версию научной статьи) о GPT-3. Модель со 175 миллиардами параметров – в 116 раз больше GPT-2. Если измерять в нейронах, это примерно соответствует мозгу голубя.
Обучение GPT-3 стоило около 4.6 миллионов долларов только в электроэнергии (не 12 миллионов, как часто ошибочно пишут). Модель "прочитала" примерно 500 миллиардов токенов текста из различных источников: Common Crawl (410 миллиардов), WebText2 (19 миллиардов), книги (12 миллиардов), Википедия (3 миллиарда). Для человека это эквивалентно чтению по одной книге каждый день в течение 137 тысяч лет.
Контекстное окно выросло до 2048 токенов – примерно три страницы текста. Но главное изменение было качественным. При определенном размере модели происходит фазовый переход – как вода превращается в пар при 100 градусах. Исследователи назвали это "эмерджентными способностями" – свойствами, которые внезапно появляются при достижении критической массы параметров.
Вот простая демонстрация способности к обучению по примерам (few-shot learning):
Красный на английском: Red Синий на английском: Blue Зеленый на английском: Green Желтый на английском:
Тривиально? А теперь математика:
5 + 8 = 13 23 + 19 = 42 67 + 48 = 115 94 + 77 =
Правильно! И это языковая модель, не калькулятор. Она выучила арифметику как побочный эффект чтения текстов.
Летом 2020 года социальные сети заполнились примерами "магии" GPT-3. Разработчик Шариф Шамим создал генератор веб-страниц по текстовому описанию. Программист Джордан Сингер сделал плагин для Figma, превращающий текст в дизайн. Предприниматель Эндрю Мейн за выходные создал инструмент для написания рекламных текстов.
Но самое важное открытие сделали исследователи, изучавшие внутреннее устройство модели. В 175 миллиардах параметров сформировались абстрактные представления концепций. Модель не просто запоминала куски текста – она строила внутреннюю модель мира.
Человек: "Я положил ключи в ящик стола. Потом переставил стол из спальни в гостиную. Затем вынес ящик в гараж. Где сейчас ключи?"
GPT-3: "Ключи находятся в гараже, в ящике. Когда вы переставили стол в гостиную, ящик остался в столе. Когда вы вынесли ящик в гараж, ключи переместились вместе с ним."
Вдумайтесь: модель отследила перемещение объекта через цепочку действий. Она поняла, что ключи остаются в ящике независимо от перемещения стола. Она построила ментальную модель физического пространства. И все это – просто предсказывая следующее слово!
Экзамен на адвоката: когда машина обошла 90% людей
14 марта 2023 года OpenAI представляет GPT-4. Компания не раскрыла точное количество параметров, ссылаясь на конкурентную среду и вопросы безопасности. По оценкам экспертов, основанным на утечках и анализе производительности, модель содержит от 1 до 1.7 триллиона параметров. Но архитектура изменилась – GPT-4 использует подход "смесь экспертов" (Mixture of Experts, MoE).
Что такое "смесь экспертов"? Представьте больницу с узкими специалистами: кардиологом, неврологом, эндокринологом. Пациента направляют к нужному врачу в зависимости от симптомов. GPT-4 работает похоже – разные части модели специализируются на разных типах задач. Для математики активируется один "эксперт", для поэзии – другой, для программирования – третий.
Контекстное окно выросло радикально: базовая версия – 8,192 токена (около 6 страниц), расширенная – 32,768 токенов (25 страниц). Позже появилась версия со 128K токенами – это небольшая книга, которую модель может держать в "оперативной памяти".
Главный прорыв – мультимодальность. GPT-4 может не только читать текст, но и анализировать изображения. На презентации продемонстрировали поразительный пример: модели показали фотографию наброска веб-сайта, нарисованного от руки на салфетке. Каракули с подписями "логотип", "меню", "кнопка заказа". GPT-4 превратила этот набросок в полноценный HTML-код с CSS-стилями.
Но настоящий шок вызвали результаты профессиональных экзаменов:
- Единый экзамен на адвоката США (Uniform Bar Exam): 90-й процентиль (лучше 90% сдающих)
- SAT Math (американский аналог ЕГЭ по математике): 89-й процентиль
- SAT Reading: 93-й процентиль
- Advanced Placement Biology: 5 из 5 (высший балл)
Для понимания: это экзамены, которые американские студенты готовят месяцами. GPT-4 сдает их с ходу, без специальной подготовки.
Исследователи из Microsoft Research во главе с Себастьеном Бубеком опубликовали статью "Sparks of Artificial General Intelligence" о способностях GPT-4. Один из самых обсуждаемых примеров – задача на пространственное мышление:
Задача: "У меня есть книга, 9 яиц, ноутбук, бутылка и гвоздь. Скажи, как сложить их друг на друга стабильным образом."
- Положить книгу на плоскую поверхность как основание
- Разместить 9 яиц в формате сетки 3×3 на книге, оставив промежутки между ними для равномерного распределения веса
- Положить ноутбук поверх яиц экраном вниз (крышка закрыта) – плоская поверхность ноутбука распределит вес
- Поставить бутылку вертикально на центр ноутбука
- Положить гвоздь на крышку бутылки острием вверх
Этот ответ удивил исследователей тем, что модель предложила использовать яйца как амортизирующий слой, расположив их сеткой для распределения веса. Хотя решение спорное с практической точки зрения (класть ноутбук на яйца рискованно!), оно демонстрирует попытку логического рассуждения о физических свойствах объектов.
Формула интеллекта: почему размер решает всё
В январе 2020 года группа исследователей OpenAI во главе с Джаредом Капланом опубликовала революционную статью "Scaling Laws for Neural Language Models". Они обнаружили, что производительность языковых моделей подчиняется степенному закону.
Представьте это так: если модель с миллионом параметров делает 100 ошибок на странице текста, то модель со 100 миллионами параметров сделает примерно 50 ошибок. Чтобы снизить ошибки до 25, нужна модель с 10 миллиардами параметров. Каждое стократное увеличение размера вдвое уменьшает количество ошибок.
Математически это выражается формулой: L = C × N^(-α), где L – потеря (ошибка), N – количество параметров, C – константа, α ≈ 0.076. Это как закон Мура для транзисторов, только для искусственного интеллекта.
Открытие имело огромные последствия. Прогресс ИИ стал предсказуемым. Компании могли рассчитать, сколько вычислительных ресурсов потребуется для достижения человеческого уровня в различных задачах. Но была и обратная сторона: каждое десятикратное улучшение требовало стократного увеличения ресурсов.
Самое удивительное – явление эмерджентных способностей. При определенных порогах размера внезапно "включаются" новые навыки:
- ~1 миллиард параметров: базовая арифметика
- ~10 миллиардов: логические рассуждения
- ~100 миллиардов: абстрактное мышление
- ~1 триллион: многошаговые рассуждения
Подумайте об этом. Эти способности никто не программировал. Они возникают спонтанно при достижении критической массы, как сознание возникает из миллиардов нейронов. Исследователи насчитали более 200 таких эмерджентных способностей.
Примеры эмерджентных способностей:
Понимание метафор. Маленькие модели воспринимают фразу "время – деньги" буквально. Большие понимают: время ценно, его можно тратить или экономить.
Теория разума. Способность понимать, что другие имеют свои мысли и чувства. GPT-4 проходит тесты на теорию разума на уровне 9-летнего ребенка.
Моральные суждения. При достаточном размере модели начинают учитывать контекст и последствия в этических вопросах.
Но у закона масштабирования есть пределы. Все тексты интернета – это примерно 10 триллионов токенов качественного текста. GPT-4 обучалась на сопоставимом объеме данных. Мы буквально исчерпываем запасы человеческих текстов. Компании экспериментируют с синтетическими данными – текстами, созданными самим ИИ, но это похоже на попытку поднять себя за волосы.
Мировая гонка: кто создаст сверхразум первым
Пока OpenAI совершенствует GPT, весь мир включился в гонку создания искусственного интеллекта. Это напоминает космическую гонку 1960-х, только ставки несравнимо выше – речь идет не о престиже наций, а о будущем человечества.
Anthropic: безопасность превыше всего
В 2021 году группа ключевых исследователей OpenAI во главе с Дарио Амодеи (бывший вице-президент по исследованиям) покинула компанию из-за разногласий о приоритетах развития ИИ. Они основали Anthropic с миссией создать "полезный, безвредный и честный" ИИ.
Первая версия Claude вышла в марте 2023 года – всего через две недели после GPT-4. Но в отличие от OpenAI, Anthropic сделала ставку на "конституционный ИИ" – модель обучается следовать набору этических принципов, как конституции. Claude 3 Opus (март 2024) превзошел GPT-4 на многих бенчмарках, особенно в задачах, требующих нюансированного понимания контекста и этических соображений.
К 2025 году Anthropic выпустила Claude 4, а затем революционный Claude Sonnet 4.5 – модель, способную к "расширенному мышлению" с использованием инструментов. Amazon инвестировала в Anthropic 8 миллиардов долларов, Google – 3 миллиарда. Оценка компании превысила 180 миллиардов долларов.
Google: от отставания к лидерству
Google долго считался отстающим в гонке, несмотря на то, что именно их исследователи изобрели архитектуру трансформера в 2017 году. Первые версии Bard (позже переименованный в Gemini) разочаровывали. Но в декабре 2023 года Google выпустил Gemini Ultra – первую нативно мультимодальную модель, способную одновременно обрабатывать текст, изображения, аудио и видео.
Gemini 1.5 Pro (февраль 2024) шокировал индустрию контекстным окном в 1 миллион токенов – модель может "прочитать" и проанализировать целую книгу или часовое видео за один запрос. Google интегрировал Gemini во все свои продукты – от поиска до офисного пакета, создав экосистему ИИ-сервисов для миллиарда пользователей.
Марк Цукерберг выбрал радикально иную стратегию – открытость. Модели LLaMA (Large Language Model Meta AI) выпускаются с открытым исходным кодом. Любой может скачать, модифицировать и запускать их на своем оборудовании.
LLaMA 2 (июль 2023) с 70 миллиардами параметров стала основой для тысяч специализированных моделей по всему миру. LLaMA 3 (апрель 2024) с 405 миллиардами параметров по качеству приблизилась к GPT-4, оставаясь бесплатной. Это демократизировало ИИ, но вызвало опасения – теперь любой может создать мощную модель для любых целей, включая вредоносные.
Китайские технологические гиганты развивают ИИ в условиях ограничений на поставки чипов из США, но это только подстегнуло инновации.
Baidu выпустила ERNIE 4.0 – модель, превосходящую GPT-3.5 в понимании китайского языка и культурного контекста. Alibaba создала Qwen (Tongyi Qianwen) с триллионом параметров, оптимизированную для электронной коммерции и бизнес-приложений. ByteDance (создатели TikTok) разработала Doubao – модель, обученную на контенте социальных сетей и понимающую современный сленг и мемы лучше западных аналогов.
Китайское правительство объявило ИИ стратегическим приоритетом, инвестировав сотни миллиардов юаней в исследования. Цель – технологический суверенитет и независимость от западных моделей.
В условиях ограниченного доступа к передовым чипам российские компании сосредоточились на эффективности и локализации.
Сбербанк создал GigaChat – модель, обученную преимущественно на русскоязычных текстах. Она понимает культурные отсылки, анекдоты, цитаты из советских фильмов – то, с чем западные модели справляются плохо. GigaChat интегрирован в экосистему Сбера, обслуживая миллионы клиентов.
Яндекс разработал YandexGPT (YaLM), оптимизированную для поиска и работы с русским языком. Модель учитывает особенности русской грамматики – падежи, склонения, сложные конструкции, которые западные модели часто искажают.
Mistral AI (Франция) – основанная бывшими сотрудниками DeepMind и Meta, компания за год выросла до оценки в 6 миллиардов долларов. Их модель Mixtral использует архитектуру "смеси экспертов" эффективнее GPT-4.
Cohere (Канада) – специализируется на корпоративных решениях, их модели оптимизированы для работы с документами и базами данных.
Stability AI (Великобритания) – создатели Stable Diffusion, работают над открытыми языковыми моделями StableLM.
xAI (США) – компания Илона Маска с моделью Grok, интегрированной в X (бывший Twitter), обученной на актуальных данных социальной сети.
Гонка вооружений или сотрудничество?
Инвестиции в ИИ растут экспоненциально. Microsoft вложила 13 миллиардов в OpenAI. Google и Amazon инвестировали миллиарды в Anthropic. Саудовская Аравия создает фонд в 40 миллиардов долларов для ИИ-проектов. Project Stargate – совместная инициатива OpenAI, Microsoft и других компаний – планирует потратить 500 миллиардов долларов на ИИ-инфраструктуру.
Но есть и попытки сотрудничества. Partnership on AI объединяет ведущие компании для разработки стандартов безопасности. Исследователи публикуют статьи в открытом доступе, делясь открытиями. Правительства создают регуляторные органы, пытаясь направить развитие ИИ в безопасное русло.
Парадокс в том, что чем ближе мы к созданию AGI (искусственного общего интеллекта), тем острее становится дилемма: продолжать гонку, рискуя создать неконтролируемую систему, или остановиться, позволив конкурентам вырваться вперед?
История не знает примеров, когда человечество добровольно отказывалось от мощной технологии. Ядерное оружие, генная инженерия, интернет – все эти технологии развивались несмотря на риски. ИИ, похоже, не станет исключением.
Галлюцинации и провалы: чего ИИ всё ещё не может
При всей впечатляющей мощи, современные языковые модели имеют фундаментальные ограничения:
Галлюцинации. Модели могут генерировать правдоподобную, но полностью выдуманную информацию. GPT-4 может уверенно рассказать о несуществующей научной статье, придумав авторов, журнал и даже правдоподобные результаты.
Отсутствие долговременной памяти. Каждый диалог начинается с чистого листа. Модель не помнит предыдущие разговоры, не может накапливать знания о конкретном пользователе.
Проблемы с математикой. Несмотря на впечатляющие результаты на экзаменах, модели часто ошибаются в простых вычислениях. Они решают задачи по паттернам, а не через понимание математических принципов.
Временная слепота. Модели обучены на данных до определенной даты (GPT-4 – до апреля 2023) и не знают о последующих событиях без доступа к интернету.
Проблема согласованности. Сложно обеспечить, чтобы модель следовала человеческим ценностям, не была предвзятой и не причиняла вреда. Методика RLHF (обучение с подкреплением от человеческой обратной связи) частично решает проблему, но не полностью.
Модели, которые говорят "дайте подумать" – и думают
К моменту написания этих строк (осень 2025 года) мы стоим на пороге нового этапа. Если модели поколения GPT были спринтерами – выдавали ответ мгновенно, то новое поколение становится марафонцами мысли.
В сентябре 2024 года OpenAI представила модели серии o1 (внутреннее название "Strawberry"). Принципиальное отличие: они не торопятся с ответом. Вместо этого модель "размышляет" – строит цепочки рассуждений, проверяет их на логичность, исправляет ошибки.
Представьте шахматиста. Новичок делает первый пришедший в голову ход. Мастер обдумывает позицию, просчитывает варианты, оценивает последствия. Именно такой переход – от импульсивного ответа к обдуманному – происходит сейчас с ИИ.
Модель o1 может потратить эквивалент нескольких минут вычислительного времени на сложную задачу. Она генерирует десятки вариантов решения, отбрасывает тупиковые, развивает перспективные. На выходе – не просто ответ, а обоснованное решение с проверенной логикой.
На международной математической олимпиаде модель o1 решила задачи, с которыми справляются единицы школьников в мире. Она не искала похожие задачи в памяти – она строила доказательства с нуля, как настоящий математик.
Что такое chain-of-thought (цепочка размышлений)? Это когда модель проговаривает каждый шаг решения: "Сначала найдем X... Теперь подставим в уравнение... Проверим результат..." Как ученик, который решает задачу на доске, объясняя каждое действие.
Self-consistency (самосогласованность) – модель генерирует несколько решений и выбирает наиболее логичное. Если три варианта дают ответ 42, а один – 37, скорее всего, правильный ответ 42.
Tree-of-thoughts (дерево мыслей) – модель исследует разные пути решения параллельно, как шахматный компьютер, просчитывающий множество вариантов одновременно.
Эти техники превращают языковую модель из "генератора текста" в "мыслящую систему". И это только начало.
2030 год: когда машины превзойдут человека
История развития от GPT-1 до современных моделей – это история о том, как из простого предсказания следующего слова родился искусственный интеллект, способный рассуждать, творить и решать сложные задачи.
Мы прошли путь от 117 миллионов параметров до триллионов, от 512 токенов контекста до 128 тысяч – Chat GPT, 200 тысяч – Claude, 1 млн. – Gemini), от угадывания слов до решения олимпиадных задач. Каждый шаг казался революционным, но был лишь звеном в цепи неумолимого прогресса.
Закон масштабирования предсказывает: при текущих темпах к 2030 году модели могут превзойти человека в большинстве интеллектуальных задач. Но предсказание основано на экстраполяции. Никто не знает, есть ли потолок, за которым простое увеличение размера перестанет давать эффект.
Философский вопрос остается открытым: когда ИИ пишет стихотворение о любви, он понимает, что такое любовь, или просто комбинирует паттерны из миллионов прочитанных стихов? Когда ИИ решает этическую дилемму, он применяет моральные принципы или воспроизводит статистически вероятный ответ?
Грань между имитацией и пониманием становится все тоньше. Возможно, она иллюзорна. Ведь что такое человеческое понимание, как не сложная система паттернов, сформированных опытом? Может быть, достаточно сложная имитация неотличима от реальности?
В следующей главе мы исследуем новое поколение моделей – системы, которые не просто генерируют ответы, но выстраивают логические цепочки рассуждений. Модели, которые могут сказать: "Подождите, дайте подумать..." – и действительно подумать, проверить себя, найти ошибку и исправить ее.
Мы увидим, как искусственный интеллект обретает способность к метапознанию – размышлению о собственных мыслях. Как он учится не просто решать задачи, но понимать, как он их решает. Как из статистического попугая, повторяющего заученные фразы, рождается нечто, все больше напоминающее разумное существо.
Границы возможного расширяются с каждым днем. То, что вчера казалось фантастикой, сегодня работает в вашем смартфоне. То, что сегодня кажется пределом, завтра будет превзойдено. Мы живем в эпоху, когда каждый год приносит больше прогресса в ИИ, чем предыдущее десятилетие.
И самое захватывающее – мы только в начале пути. Если развитие продолжится теми же темпами, если эмерджентные способности продолжат появляться, если исследователи найдут способ преодолеть текущие ограничения... мы можем стать свидетелями рождения разума, превосходящего человеческий не в отдельных задачах, а во всем.
Готовы ли мы к этому? Понимаем ли последствия? Сможем ли остаться нужными в мире, где машины думают лучше нас? Эти вопросы перестают быть теоретическими. Ответы на них определят будущее человечества.
История GPT – это не просто история технологии. Это история о том, как человечество создает свою замену. Или партнера. Или нечто совершенно иное, для чего у нас пока нет слов. Время покажет.
А пока... модели продолжают учиться, параметры множиться, способности возникать. Где-то в лабораториях Кремниевой долины, Лондона, Пекина и Москвы исследователи работают над следующим прорывом. И когда он произойдет – а он произойдет – мир изменится снова. Необратимо и навсегда.