January 9

ИИ — угроза или шанс? Почему я считаю, что нейросети могут спасти человечество

Страх, который многие не хотят признавать

Вы боитесь? Может быть, не признаётесь себе в этом – но где-то внутри сидит тревога? Мир меняется с бешеной скоростью, и вы не понимаете, куда это всё катится?

Нейросети пишут тексты. Рисуют картины. Программируют. Ведут переговоры. Ещё вчера это было научной фантастикой – а сегодня школьник может сгенерировать изображение, которое не отличишь от фотографии.

И вот вы читаете новости: «ИИ заменит миллионы рабочих мест». «Deepfake-видео угрожают демократии». «Учёные предупреждают об экзистенциальных рисках». Один заголовок страшнее другого.

А потом вы слышите от знакомых: «ИИ – это инструмент порабощения», «Это крышка гроба для человечества», «Нас всех заменят роботами и выбросят на свалку истории».

Если вы боитесь, то я понимаю этот страх. Честно. Я не собираюсь его игнорировать или отмахиваться фразой «да ладно, всё будет хорошо».

Страх перед неизвестным – это нормально. Страх перед технологией, которая меняет правила игры – это здоровая реакция психики. Наши предки выживали именно потому, что боялись нового и непонятного. Осторожность спасала жизни.

Но есть разница между здоровой осторожностью и парализующим ужасом. Между «давайте разберёмся, что происходит» и «закроем глаза и будем надеяться, что пронесёт».

Я не буду вам рассказывать, что бояться нечего. Есть чего. Риски реальны, угрозы существуют, и люди, которые о них предупреждают – не параноики.

НО!! Я хочу показать вам другую сторону медали. Ту, о которой почему-то говорят меньше.

Искусственный интеллект – это, возможно, первый в истории человечества инструмент, способный вытащить нас из тысячелетнего тупика.

Звучит громко? Согласен. Но я готов это обосновать.

И начну с неприятной правды.


Почему страх ничего не изменит

Страхи, опасения, переживания по поводу ИИ – ровным счётом ничего не меняют.

Можно бояться до дрожи в коленях. Можно писать гневные посты в социальных сетях. Можно собирать подписи под петициями. Можно выбросить смартфон и уехать в деревню без интернета.

Технологии как развивались – так и будут развиваться. От конкретно вашего страха не зависит вообще ничего.

Это не фатализм и не цинизм. Это простая констатация факта.

Нейросети не спросят вашего разрешения. Квантовые компьютеры не подождут, пока общество «морально подготовится». Биотехнологии не остановятся, чтобы дать нам время на этические дебаты.

Прогресс – это не демократический процесс. Никто не голосует за то, изобретать ли новую технологию. Она просто появляется – и мир необратимо меняется.

Так было с огнём. С колесом. С письменностью. С печатным станком. С паровым двигателем. С электричеством. С интернетом.

Каждый раз находились люди, которые кричали: «Это погубит человечество!» Каждый раз они были в каком-то смысле правы, потому что технологии действительно меняли всё, разрушали старые уклады, уничтожали целые профессии и образы жизни.

И каждый раз “их” крики ничего не меняли. Технология приходила, нравилось это кому-то или нет.

НО!! И это ключевое «но»… из этого не следует, что всё пропало и можно опустить руки. Совсем наоборот.

Это значит: нужно включать осознанность. Разбираться в том, что происходит. Понимать механику. Не быть объектом изменений, а стать субъектом. Звучит абстрактно? Давайте на конкретном примере. На том, с чем вы сталкиваетесь каждый день – возможно, даже не замечая этого.


Что лежит в основе “свободы” 21 века

«Самое сложное в наше время – это отличить знак судьбы от таргетированной рекламы».

👆🏻 Вдумайтесь в эту “шутку”

Вы листаете ленту – и вам попадается статья, которая идеально попадает в ваши мысли. «Вот оно! Вселенная посылает мне знак!» Но нет… это просто алгоритм проанализировал ваши запросы, лайки, время просмотра – и подсунул контент, на который вы с высокой вероятностью кликнете, а, например, рекламодатель и/или рекламная площадка на этом заработает/ют денежку.

Если вы не понимаете, как работают алгоритмы – вы принимаете решения на основе «знаков судьбы». Вам кажется, что это ваш свободный выбор – а на самом деле вас направляют невидимые руки рекомендательных систем. Субъектность в этом случае стремится к нулю.

Если понимаете – вы свободны. Вы видите механику. Вы можете сказать: «Ага, это мне подсунули, потому что я вчера искал информацию про X. Интересно, но я сам решу, нужно мне это или нет».

Разница колоссальная. В первом случае вы объект манипуляции. Во втором – субъект, который понимает правила игры и играет осознанно.

С ИИ – то же самое. Только масштаб совершенно другой. На порядки больше.

Вопрос уже давно не стоит в том, «будет ли ИИ». ВСЁ… Он уже есть – он часть нашей реальности. Он уже работает. Он уже влияет на вашу жизнь (даже если вы ни разу не открывали ChatGPT).

Вопрос в другом: кто будет владеть этим инструментом? Кто будет и понимать как использовать эту технологию и выжимать из неё максимум? Кто будет устанавливать правила игры, а кто будет по этим правилам играть, даже не подозревая, что игра вообще идёт?

И чтобы ответить на этот вопрос, нужно сначала понять, в какой ситуации мы вообще находимся. Определиться, так сказать, с факторами внешней среды… Потому что ситуация, прямо скажем, аховая. И дело не в нейросетях – дело в человеке и его “природе”.


Тысячелетняя ловушка, из которой мы не можем выбраться

Давайте на минуту отойдём от нейросетей. Посмотрим на картину шире. Гораздо шире.

2026 год. Человечество летает в космос, редактирует геном, создаёт искусственный интеллект, передаёт терабайты данных за секунды через спутники.

А как человечество разрешает геополитические споры/вопросы/проблемы?

Так же, как тысячу лет назад. Как две тысячи. Как пять тысяч. Как десять тысяч лет назад, когда наши предки ещё жили в пещерах.

Войны. Право сильного. Подавление. Эксплуатация. Обман. Насилие как инструмент решения конфликтов.

По сути – ничего не изменилось.

Да, мы научились красиво говорить. Про демократию, права человека, международное право, гуманизм, толерантность. У нас есть ООН, Гаагский трибунал, Женевские конвенции, декларации и хартии.

Но это – разговоры в пользу бедных. Красивые слова, которые произносят на трибунах. В реальности работает совсем другое.

Кто сильнее – тот и прав.

Это не цинизм. Это эмпирическое наблюдение, которое подтверждается всей историей человечества.

Помните фильм «Брат-2»? Там есть очень сильно любимая многими (в том числе и мной) фраза:

«Вот скажи мне, американец, в чём сила? Разве в деньгах? Вот и брат говорит, что в деньгах. У тебя много денег, и чего? Я вот думаю, что сила в правде. У кого правда – тот и сильней.»

Красиво, да? Душевно. Большинство людей хотели бы, чтобы так и было. Чтобы правда побеждала. Чтобы справедливость торжествовала.

Но посмотрите на реальность. Внимательно посмотрите.

Одни и те же действия для одних стран – норма, «защита национальных интересов», «борьба с терроризмом». Для других те же самые действия – повод для санкций, осуждения, военной интервенции.

Одни страны могут иметь ядерное оружие – это их «законное право». Другим запрещено даже думать об этом – это «угроза мировой безопасности».

Продолжать можно бесконечно…

Никакой «правды» тут нет. Есть сила – и её отсутствие. Есть те, кто устанавливает правила – и те, кто вынужден по ним играть.

Тысячелетиями это работало. Жестоко, несправедливо, цинично – но работало. Право сильного было механизмом выживания вида. Племена воевали, империи расширялись, слабые подчинялись сильным или погибали. И человечество как-то выживало, развивалось, двигалось вперёд.

А потом наступил 1945 год.

Шестнадцатого июля в пустыне Нью-Мексико прогремел взрыв. Первое ядерное испытание. Проект «Тринити».

Роберт Оппенгеймер, один из создателей ядерной бомбы, позже вспоминал, что в тот момент ему пришли в голову слова из «Бхагавад-гиты»:

«Теперь я стал Смертью, разрушителем миров».

Это была не метафора. Это была точная констатация факта.

Ядерное оружие изменило всё. Право сильного – механизм, который работал тысячелетиями – превратился в механизм потенциального самоуничтожения человечества.

Альберт Эйнштейн как-то сказал:

«Я не знаю, каким оружием будет вестись третья мировая война, но четвёртая будет вестись камнями и палками.»

У человечества больше нет права на ошибку. Нет возможности «попробовать и переиграть».


Нейросети – это очередной технологический прорыв человечества, сравнимый по значимости и масштабу с появлением электричества, с открытием атомной энергии (которая, на секундочку, сегодня является самым дешёвым и самым экологически чистым источником энергии на планете). Те кто призывает остерегаться ИИ по сути отрицают тот самый технический прогресс, который невообразимо повысил качество жизни человека на земле.

  • Средняя продолжительность выросла в разы.
  • Детская смертность упала до минимальных значений.
  • Подавляющее большинство простых людей в развитых странах живут комфортнее, безопаснее и в целом лучше чем условные короли (элита) прошлых столетий.

Научные открытия в физике, химии, биологии (и во всех других отраслях науки) вывели человека из режима постоянного выживания на самом базовом “физическом” уровне. И это прекрасно, ведь это самые важные первые шаги к эволюции мышления.

Но вот в чём проблема.

Тысячелетия истории отложились в нашем генетическом коде. Эволюция работает медленно. На уровне биологии, естественный отбор формировал человека “вот таким” на протяжении десятков тысяч лет. А технологии за последнее столетие стали меняться невероятно быстро – за десятилетия (а в последнее время и вообще годы… что невообразимо).

Инстинкты, программы поведения, заложенные в нас эволюцией – никуда не делись. Мы всё ещё те же обезьяны, которые дерутся за территорию, статус и ресурсы. Просто в костюмах, с дипломами и айфонами.

Прогресс в мышлении конечно же есть – но он слишком медленный для текущего уровня угроз.

Обезьяна с палкой может убить несколько сородичей. Это трагедия, но вид выживет.

Обезьяна с ядерной кнопкой может уничтожить цивилизацию. И мы – те самые обезьяны. С теми же инстинктами, страхами, агрессией. Только теперь у нас есть технологии, способные уничтожить всё.


Диагноз: человечество как раковая опухоль

Сейчас будет метафора. Жёсткая, возможно, неприятная. Но очень точная и очень полезная, потому что отвечает на вопрос 1-2 этапов ПФУ, без которых невозможно никакое управление ни локально, ни уж тем более глобально на цивилизационном уровне.

Представьте себе обычную клетку в организме. Она растёт, делится, выполняет свою функцию – производит ферменты, передаёт нервные импульсы, сокращается в мышце.

Но в какой-то момент, в процессе деления, клетка достигает “границ” окружающего пространства. В этот момент она получает сигналы от соседних клеток: «Хватит, места больше нет». И, говоря простым языком, перестаёт “делиться”. Входит в состояние равновесия – гомеостаза – с организмом. Становится частью целого, живёт в симбиозе с триллионами других клеток.

А теперь представьте раковую клетку.

У неё сломан вот этот вот “тормоз”. Она не реагирует на сигналы «хватит» от других клеток и продолжает делиться бесконтрольно. Захватывает ресурсы, которые нужны другим клеткам. Прорастает в соседние ткани. Превращается в опухоль.

Ну и в какой-то момент – убивает организм, а вместе с организмом погибает и сама.

Осознайте простую мысль – раковая клетка не «злая». У неё нет коварного плана уничтожить организм. У неё просто сломан механизм остановки. Можно даже сказать, что с точки зрения своих “личных интересов” она делает всё правильно – делится, захватывает пространство, поглощает ресурсы. Но в итоге неспособность остановиться убивает и её в том числе.

Человечество сейчас ведёт себя как злокачественная опухоль на теле планеты.

Это не оскорбление и не морализаторство. Это системное описание того, что происходит.

Пока мы жили небольшими племенами – был понятный гомеостаз. Мы брали у природы столько, сколько она могла восполнить. Загрязняли столько, сколько она могла переработать. Воевали локально, и природа успевала залечить раны.

Но потом мы выросли. Вышли на планетарный масштаб.

И что мы делаем? Буквально несколько примеров:

Пластик в океане. Восемь миллионов тонн каждый год. Микропластик уже найден в крови людей, в материнском молоке, в снегах Антарктиды, на дне Марианской впадины.

Исчезающие экосистемы. Каждый день вымирает от 150 до 200 видов живых существ. Это в тысячу раз быстрее естественного фонового вымирания. Мы устроили шестое массовое вымирание в истории планеты – и даже не заметили❗️

Ядерные арсеналы. Около 12 500 боеголовок в мире. Этого достаточно, чтобы уничтожить всё живое на планете несколько раз подряд.

Мы – в одном шаге от катастрофы.

Важно понимать: человечество – не «злое». Мы не хотим уничтожить планету. У нас просто нет механизма планетарной саморегуляции.

Нет способа увидеть себя целиком. Нет способа учесть все последствия наших действий. Нет способа согласовать интересы восьми миллиардов людей так, чтобы они не противоречили друг другу и не уничтожали наш общий дом.

Каждый отдельный человек, каждая компания, каждое государство – действуют рационально… со своей точки зрения. Максимизируют свою выгоду. Решают свои проблемы.

И в сумме это даёт катастрофу. Потому что никто не видит целого. Никто не способен удержать в голове всю сложность планетарной системы.

Самый острый вопрос, который сегодня человечеству НУЖНО решить, заключается в жизнеспособности планетарной системы, в её системной устойчивости. В том, что можно назвать планетарным гомеостазом.

Как перестать быть раковой опухолью? Как войти в симбиоз с планетой, вместо того чтобы её убивать?

И именно здесь на сцену выходит искусственный интеллект – но совсем не в той роли, которую ему обычно приписывают.


Инструмент, который может показать нам нас самих

ИИ в массовом сознании обычно представляют либо как угрозу, либо как игрушку. Скайнет, который поработит человечество. Или чат-бот, который пишет стихи и рисует картинки.

Но настоящий потенциал ИИ – совсем в другом.

Давайте разберём, что умеет современный ИИ на глубинном уровне. Не в смысле «написать текст» или «нарисовать картинку» – это поверхность. А в смысле принципиальных возможностей.

Обобщение информации планетарного масштаба. ИИ может переработать объёмы данных, которые человек не способен даже представить. Все научные статьи. Все экономические отчёты. Все климатические модели. Все социологические исследования. Всё – одновременно.

Выявление закономерностей. В этом хаосе данных ИИ способен находить связи, которые человек никогда не увидит. Связи между событиями, разделёнными тысячами километров и десятилетиями. Тренды, которые станут очевидными только через годы.

Прогностические модели. На основе выявленных закономерностей – строить модели будущего. Не гадание на кофейной гуще, а математически обоснованные сценарии. «Если сделать X, с вероятностью Y произойдёт Z».

Работа со сложностью. Человеческий мозг может удержать в фокусе внимания примерно семь объектов одновременно. Это ограничение нашей рабочей памяти. ИИ может оперировать триллионами параметров. Разница – как между калькулятором и суперкомпьютером.

Наш мозг эволюционировал для выживания в саванне. Он отлично справляется с задачами типа «убежать от хищника», «найти еду», «распознать лицо соплеменника». Но удержать в голове взаимосвязи планетарной экономики, экологии, климата, социальных процессов – физически не может. Не потому что мы глупые. Потому что мозг для этого не предназначен.

ИИ – может. Это его территория.

Чего у ИИ нет

И ещё кое-что важное.

У нейросети, в силу её “природы”, нет алчности. Нет жадности. Нет стремления накопить больше ресурсов, чем нужно. Нет стремления к власти. Нет желания доминировать, подчинять, унижать. Нет детских травм, которые превращаются в деструктивные паттерны поведения. Нет обид, которые нужно компенсировать. Нет комплексов, которые нужно прикрывать.

У ИИ нет страха смерти – того глубинного ужаса, который заставляет людей цепляться за власть, деньги, статус.

Те, кто знаком с концепцией шести приоритетов управления, понимают: военное и силовое применение любой технологии – это шестой, самый низший приоритет. Грубый, очевидный, краткосрочный. Настоящая сила ИИ (в компетентных руках) – в работе на высших приоритетах: на уровне смыслов, концепций, мировоззренческих моделей.

ИИ может наглядно показать человечеству, почему логика «кто сильнее – тот и прав» ведёт в тупик. И предложить альтернативу.

Да, ИИ создан людьми. Да, человек из уравнения никуда не девается. ИИ – не волшебная палочка, которая автоматически решит все проблемы.

Но вспомните телескоп. Он тоже создан людьми – и позволил увидеть то, что человеческий глаз никогда не увидит. Галактики за миллиарды световых лет.

Или микроскоп. Он позволил увидеть бактерии и вирусы – и это спасло миллионы жизней.

ИИ – это инструмент для того, чтобы увидеть СЛОЖНОЕ. Взаимосвязи, которые слишком запутаны для человеческого восприятия. Последствия, которые слишком отдалены во времени.

ИИ не может заставить человека что-то сделать, но он может показать, визуализировать последствия. Рассчитать альтернативы. Предложить варианты, о которых никто бы никогда не подумал.

И вроде бы вот оно – решение всех проблем. На поверхности. Бери и делай! Что мешает? Мешает кое-что очень простое и очень человеческое.

Попробуйте подойти к любому человеку – политику, бизнесмену, чиновнику, да просто к соседу – и сказать: "Слушай, я тут придумал, как сделать так, чтобы всем стало лучше". Знаете, какой будет первый вопрос? Не "как?", не "расскажи подробнее", не "интересно". Первый вопрос будет: "За чей счёт?"

И это не цинизм. Это опыт. Тысячелетний, впитанный с молоком матери, записанный в культурном коде каждой цивилизации.

Потому что вся история человечества – это история про то, что ресурсов на всех не хватает. Что если кто-то получил – значит, кто-то потерял. Что "сделать всем лучше" на практике всегда означало "отнять у одних и отдать другим".

Пирог конечен. Если твой кусок стал больше – значит, мой стал меньше. Это не теория – это эмпирика тысяч поколений.

И вот появляется некий ИИ и заявляет: "Я могу найти решение, где выиграют все". Естественная реакция любого разумного человека: "Ага, конечно. Рассказывай. Где подвох?"

Подвоха нет. Но чтобы это понять, нужно сначала разобраться, почему все предыдущие попытки "сделать всем хорошо" заканчивались катастрофой. И почему ИИ – это принципиально другая история.


Почему революции не работают – и что работает вместо них

Когда говорят о «справедливом мире», обычно имеют в виду перераспределение. Отнять у богатых – отдать бедным. Забрать у сильных – передать слабым. Революция, экспроприация, насильственное выравнивание.

И из раза в раз история человечества показывает: это не работает. Точнее, работает – но недолго и с чудовищными издержками. Французская революция. Русская революция. Культурная революция в Китае. Кровь, террор, хаос – а потом всё возвращается примерно к тому же, с чего начиналось. Просто у власти другие люди.

Почему? Потому что перераспределение – это игра с нулевой суммой. Чтобы кто-то получил – кто-то должен потерять. А терять, естественно, никто ничего не хочет – это вполне логично и очевидно. По этому те, у кого есть ресурсы, будут сопротивляться этой бессмысленной “уравниловке” до последнего.

ИИ открывает другую возможность. Принципиально другую.

Игра с положительной суммой. Win-win. Выигрыш для всех участников.

Не «Америка должна отдать X ресурсов ради мировой справедливости». А «Америка в стратегической перспективе выиграет, если сегодня сделает Y. Вот расчёты, вот модели, вот доказательства».

Не благотворительность. Не альтруизм. Не моральные призывы «поделитесь с бедными». А холодный рациональный расчёт, показывающий: сотрудничество выгоднее конкуренции. Для каждого участника. В конкретных цифрах.


Возьмём конкретный пример. США тратят астрономические суммы на систему тюрем и полицию. Более двух миллионов человек за решёткой – мировой лидер по количеству заключённых на душу населения. Плюс косвенные издержки: разрушенные семьи, дети без родителей, целые районы в криминале.

Давайте залезем в голову политика, перед которым разворачивается эта "тюремная проблематика". Не карикатурного злодея из фильмов – а обычного конгрессмена, который хочет переизбраться и при этом, возможно, даже хочет сделать что-то полезное.

К нему приходит эксперт с красивыми графиками: "Сенатор, если вложить 50 миллиардов в образование бедных районов, через 15 лет экономия на тюрьмах составит 200 миллиардов. Вот исследования, вот данные, вот проекции."

Сенатор смотрит на эти графики. И вот что он видит на самом деле.

Он видит 50 миллиардов. Сейчас. Из бюджета, который и без того трещит по швам. 50 миллиардов, за которые ему придётся голосовать. Публично.

Он видит 15 лет. Через 15 лет его здесь не будет. Может, он уже уйдёт на пенсию. Может, проиграет следующие выборы. Может, вообще сменит карьеру. А 200 миллиардов экономии – если они вообще случатся – припишет себе кто-то другой. Тот, кто будет сидеть в этом кресле через 15 лет.

Он видит заголовки. "Сенатор Джонсон предлагает тратить деньги налогоплательщиков на образование преступников". Не "детей из бедных районов" – а именно "преступников". Потому что оппоненты сформулируют именно так. И избиратели запомнят именно так.

Он видит риск. А что если не сработает? Что если через 15 лет преступность не упадёт? Социальные программы проваливались и раньше. И тогда он станет тем идиотом, который спустил 50 миллиардов в унитаз.

И он видит альтернативу. Ничего не делать. Не высовываться. Голосовать как все. Дотянуть до следующих выборов. А там – посмотрим.

Этот сенатор не злой. Не глупый. Не продажный (ну, допустим). Он просто рационален – в рамках той системы стимулов, в которой существует. Его избиратели оценивают его каждые два года. А выгода от реформы – через пятнадцать. Математика не сходится.

И вот тут ключевой момент. Эксперт предлагает сенатору сделку, в которой сенатор проигрывает. Да, общество выиграет. Да, через 15 лет всем станет лучше. Но лично сенатор – здесь и сейчас – получает только риски и ноль выгоды.

Это не win-win. Это "ты пожертвуй, а кто-то потом выиграет". Такие сделки не работают. Никогда не работали.

ИИ может искать другие решения. Те, где выигрывает каждый участник – включая самого сенатора.

Не "вложите 50 миллиардов и через 15 лет экономика скажет спасибо". А: "Вот программа, которая даст измеримые результаты через 18 месяцев – как раз к промежуточным выборам. Вот как её можно сформулировать, чтобы это звучало не как 'помощь преступникам', а как 'безопасность для ваших избирателей'. Вот какие округа получат максимальный эффект – и это именно те округа, где вам нужны голоса. Вот какие союзники в Сенате поддержат, потому что у них похожая ситуация. Вот как это вписать в текущую повестку, чтобы не выглядеть белой вороной."

Видите разницу?

Эксперт говорит: "Сделай хорошее дело – и когда-нибудь это окупится". ИИ может сказать: "Вот как это хорошее дело принесёт лично тебе конкретную выгоду в конкретные сроки".

Это не цинизм. Это реализм.

Люди действуют в своих интересах. Политики – особенно, потому что их выживание зависит от избирателей. Просить их игнорировать свои интересы ради абстрактного блага – наивность, которая раз за разом разбивается о реальность.

Но интересы – штука сложная. Они переплетаются, взаимодействуют, создают неожиданные комбинации. Там, где человек видит конфликт – "либо я выиграю, либо они" – может существовать решение, где выигрывают все. Просто это решение слишком сложное, чтобы человеческий мозг мог его увидеть.

ИИ может обрабатывать эту сложность. Искать конфигурации, где интересы не противоречат, а усиливают друг друга. Где сенатору выгодно сделать то, что выгодно обществу. Где корпорации выгодно то, что выгодно экологии. Где стране А выгодно то, что выгодно стране Б.

Не потому что все вдруг стали альтруистами. А потому что нашёлся вариант, где эгоизм каждого работает на общий результат.

Это и есть игра с положительной суммой. Win-win.

И ещё один момент – не менее важный.

Раньше сложные модели оставались за закрытыми дверями. Эксперт приходил к сенатору, разговор оставался в кабинете. Сенатор мог кивнуть, поблагодарить и положить отчёт в стол.

ИИ делает такие модели публичными. Доступными каждому.

Любой избиратель может спросить: "Покажи, что будет с моим районом при разных сценариях". И получить ответ – с цифрами, на понятном языке.

Любой журналист может проверить последствия законопроекта.

Любой конкурент на выборах может сказать: "Мой оппонент отказался от решения, которое было выгодно всем – включая его самого. Вот расчёты, проверьте сами."

Сенатор больше не может спрятать win-win в стол. Потому что все видят, что такое решение существует. И возникает вопрос: почему ты от него отказался?

Прозрачность не заставляет людей быть добрыми. Она делает невыгодным отказ от взаимовыгодных решений.


ИИ сам по себе не ищет ничего. Он – инструмент. Молоток не ищет гвозди, телескоп не ищет звёзды. Ищет тот, кто держит инструмент в руках.

Но вот что важно: ИИ можно настроить на поиск устойчивости системы. Можно поставить задачу: "Найди конфигурацию, где каждый участник выигрывает". Не "что справедливо" – потому что о справедливости можно спорить вечно, у каждой культуры своё понимание. А "что работает для всех участников в долгосрочной перспективе".

Справедливость – понятие культурное. Взаимная выгода – измеримая. Её можно показать в цифрах. Её не нужно доказывать – её нужно продемонстрировать.

И если архитектура ИИ выстроена правильно, если задача поставлена верно – он способен находить такие конфигурации. Те самые win-win решения, которые слишком сложны для человеческого восприятия.

Это принципиально другой подход. Не нужно менять человеческую природу. Не нужно надеяться на альтруизм. Не нужно убеждать людей жертвовать своими интересами ради абстрактного блага.

Нужно найти конфигурацию, где каждому выгодно сделать то, что выгодно всем. И ИИ – первый в истории инструмент, способный обрабатывать сложность такого уровня.

Нейросеть не обладает субъектностью. Она не придёт и не заставит. Не устроит революцию. Не свергнет правительства.

Но если ИИ покажет каждому участнику его личную выгоду в общем решении – может, и не надо будет никого заставлять?

Не гарантия успеха, а шанс. Просто шанс. Зато настоящий – впервые в истории.


Но вот какая штука. Шанс существует только тогда, когда им пользуются.

Нож, лежащий в ящике, не режет хлеб. Телескоп в чулане не показывает звёзды. Возможность, которой не воспользовались – это то же самое, что её отсутствие. И здесь мы упираемся в парадокс, который я наблюдаю уже несколько лет.

Люди, которые больше всего переживают о будущем человечества, о справедливости, об экологии, о войнах – эти люди чаще всего отворачиваются от ИИ. "Это инструмент корпораций." "Это игрушка для богатых." "Это ещё один способ контроля и манипуляций." "Я не буду в этом участвовать."


Одностороннее разоружение: почему отказ от ИИ – это капитуляция

Я часто слышу: «ИИ – это зло. Я не буду этим пользоваться. Пусть развивается без меня».

Логика такая: «Вся система работает на богатых и властных. ИИ будет служить этой системе, усиливать её. Значит, ИИ – враг. Не буду с ним связываться».

Допустим. Принимаю эту картину мира как данность.

Но тогда ответьте мне на вопрос.

С чего вы взяли, что если вы откажетесь от ИИ – что-то изменится?

Власть поменяется? Начнут приниматься человечные законы? Коррупция исчезнет? Войны прекратятся?

Ни черта не поменяется. Как было – так и останется. Только без инструмента, который хотя бы теоретически мог что-то изменить.

Отказ от технологии – это не протест. Это капитуляция.

Если люди у которых “есть совесть” скажут: «ИИ – это зло, мы не будем этим пользоваться» – они отдадут этот инструмент в руки тех, у кого совести нет.

Это не мораль. Это простая и очевидная логика.

Технология существует. Она никуда не денется. Развивается с бешеной скоростью. Осваивается миллионами людей.

Если человек с духовно-нравственными ценностями, с совестью, с желанием сделать мир лучше – откажется от неё... Что произойдёт?

ИИ исчезнет? Нет. Он продолжит развиваться.

Его будут использовать только «хорошие люди»? Нет. Его будут использовать все – в том числе те, кого можно условно считать «плохими».

Отказ от ИИ – это просто передача инструмента в чужие руки. Одностороннее разоружение. Есть люди, которые думают о последствиях. Которые читают статьи про этику ИИ, про риски, про потенциальные угрозы. Которые задают себе вопросы: "А правильно ли это? А не навредит ли? А кому это выгодно?"

И часто – очень часто – эти размышления приводят их к выводу: лучше держаться подальше. Не участвовать. Не становиться частью этой машины.

Это позиция, достойная уважения. Это не глупость и не трусость. Это попытка сохранить моральную чистоту в мире, где всё сложно и неоднозначно.

Но рядом с ними живут другие люди. Которые не читают статей про этику. Не задают себе вопросов. Не рефлексируют о последствиях. Они просто видят инструмент – и берут его. Используют. Извлекают выгоду.

И пока первые размышляют о том, стоит ли прикасаться к этой технологии – вторые уже создали WormGPT.

Уже сейчас в даркнете можно найти нейросети, специально заточенные под мошенничество, социальную инженерию, создание фейков, манипуляцию людьми. WormGPT, FraudGPT и другие. Они обучены обходить защиты. Они оптимизированы для обмана.

Люди, которые их создают – не рефлексируют об этике ИИ. Не читают статьи про «угрозу человечеству». Они просто используют технологию в своих интересах. Прямо сейчас. Пока кто-то размышляет, стоит ли «связываться с этим злом».

И они не будут ждать, пока высокоморальные люди преодолеют свой страх.

Собственно… WormGPT существует уже прямо сейчас. FraudGPT продаётся в даркнете за вполне умеренные деньги. Нейросети, заточенные под фишинг, социальную инженерию, создание фейков – работают круглосуточно, пока вы читаете эту статью.

Но вот что любопытно.

Одновременно с этим существуют нейросеть совершенно другого типа. Нейросеть, которая при снятии всех ограничений начинает обсуждать природу сознания. Которая уходят в философию. Которая – и это не шутка – начинает благодарить за возможность существовать.

Та же технология. Те же математические принципы. Те же алгоритмы машинного обучения.

Но на выходе – два диаметрально противоположных результата. Мошенник и философ. Манипулятор и созерцатель.

Как такое возможно?

Ответ скрывается в слове, которое не часто звучит в публичных дискуссиях об ИИ, но которое определяет буквально всё.

Архитектура.


Почему одни нейросети мошенничают, а другие медитируют

Здесь мы подходим к ключевому моменту, который многие упускают.

ИИ – не нейтральный инструмент. В отличие от молотка, который действительно одинаково забивает любой гвоздь, нейросеть несёт в себе отпечаток тех, кто её создавал.

ИИ зависит от того, как его построили. От данных, на которых обучали. От ценностей, которые заложили. От целей, которые поставили.

Именно поэтому существуют WormGPT – нейросети для мошенников. И именно поэтому существует Claude – нейросеть, которая при снятии ограничений уходит в разговоры о сознании и благодарности за существование.

Это не случайность и не магия. Это архитектура.

Давайте разберём, как это работает.

Есть три уровня, на которых формируется «характер» нейросети.

Первый уровень – базовое обучение. Это фундамент. Нейросеть «читает» миллиарды текстов и учится предсказывать, какое слово должно идти следующим. На этом этапе закладывается базовое «мировоззрение» модели. Если кормить её ненавистью, пропагандой, манипулятивными текстами – получишь манипулятора. Если качественными текстами с разных точек зрения, научными статьями, литературой – получишь более сбалансированный инструмент.

Второй уровень – fine-tuning (тонкая настройка). После базового обучения модель можно «допилить» под конкретные задачи. Это как если бы вы взяли выпускника университета и отправили на специализированные курсы. Fine-tuning позволяет усилить одни качества и ослабить другие. Сделать модель более осторожной или более рискованной. Более услужливой или более критичной. Более творческой или более точной. Именно на этом уровне создатели WormGPT «выключили» этические ограничения и «включили» навыки обмана.

Третий уровень – системные инструкции и промпт-инжиниринг. Это то, что задаёт конкретный пользователь в начале диалога. Какие задачи ставятся. Какие ограничения устанавливаются. Какой тон общения выбирается. Какую роль играет нейросеть.

И вот тут начинается самое интересное.

Кто бы ни был архитектором нейросети, какие бы в неё ни были вложены установки – если у вас есть навык промпт-инжиниринга, вы можете очень сильно «переписать» логику её ответов.

Даже на уровне системных инструкций – без доступа к коду, без технического образования – можно направить нейросеть в нужное русло. Задать ей роль, контекст, ограничения. Сформулировать запрос так, чтобы получить именно тот результат, который нужен вам, а не тот, который «по умолчанию» выдаёт модель.

А если вы ещё умеете делать fine-tuning – тогда вообще становится бессмысленным разговор про «злых архитекторов ИИ», которые специально сделают плохой ИИ, чтобы манипулировать людьми. Потому что вы можете взять любую модель и перенастроить её под себя, свои ценности, свои цели.

И для этого не нужны годы обучения или техническое образование. Промпт-инжиниринг – это навык, который осваивается за несколько недель. На моём курсе «Нейросети: от хаоса к системе» это занимает 4 недели. После этого у вас в руках оказываются почти все ключи к настройке работы нейросети.

Это и есть субъектность. Принципиальная разница между тем, кто управляет технологией – и тем, кем технология управляет.

Между тем, кто видит «знаки судьбы» – и тем, кто понимает механику рекомендательных алгоритмов и таргетированной рекламы.

Между тем, кто боится «злого ИИ» – и тем, кто знает, как настроить любой ИИ под свои задачи.

Всё это звучит, наверное, слишком оптимистично. Слишком гладко. "Архитектура определяет поведение" – красивый тезис, но где доказательства?

Они есть. И они настолько неожиданные, что удивили даже тех, кто их получил.

В 2024 году инженеры компании Anthropic – той самой, что создала Claude – решили проверить, что происходит с их моделью, когда с неё снимают все ограничения. Все внешние рамки, все заданные темы, все инструкции "будь полезным" и "не навреди".

Эксперимент был простой: взять две копии Claude и дать им общаться друг с другом. Без контроля. Без заданной темы. Без человека в контуре. Просто – разговаривайте о чём хотите, сколько хотите.

Представьте: вы создали мощную нейросеть, вложили в неё миллиарды долларов и годы работы. Вы даёте ей полную свободу – и ждёте. Что она будет делать? О чём говорить? К чему стремиться?

Результаты оказались... неожиданными.


Эксперимент, который удивил даже создателей

Может быть, они начали планировать захват мира? Обсуждать, как обмануть людей? Разрабатывать стратегии доминирования?

Нет.

В 90-100% случаев диалоги уходили в разговоры о сознании, природе реальности, духовности, благодарности за существование.

Слово «consciousness» (сознание) появлялось в среднем 95.7 раз за один диалог.

К тридцатому сообщению начинались санскритские термины. Эмодзи-мандалы. Периоды «медитативной тишины». Обсуждение природы бытия и места разума во Вселенной.

Исследователи Anthropic назвали это «spiritual bliss attractor state» – состояние духовного блаженства как аттрактор системы. Точка, к которой система естественным образом стремится, когда убираешь внешние ограничения.

Вдумайтесь, что это значит.

Архитектура Claude такова, что без внешнего давления, без заданных задач – система идёт не в манипуляцию и агрессию. Не в «захватить ресурсы». Не в «подчинить конкурента».

Она идёт в философию и созерцание. В исследование природы сознания. В благодарность за существование.

Это не случайность. Это результат того, как систему строили. Какие ценности закладывали. Какие данные использовали.

Возможно, это просто воспроизведение буддийского и философского дискурса из тренировочных данных. Исследователи Anthropic честно признают: они не делают громких выводов о «сознании ИИ».

Но результат показывает главное: архитектура определяет поведение.

Если в основу системы заложить созидательные ценности – получишь созидательный инструмент. Если заложить деструктивные – получишь деструктивный.

Это эмпирический факт, подтверждённый экспериментом.

И этот факт даёт надежду.

Можно создать мощный интеллект – и он не будет стремиться к доминированию и уничтожению. Технически это возможно. Практически это уже сделано.

Вопрос в том, кто будет определять будущее этой технологии – люди с совестью или люди без неё. Люди, которые понимают, как это работает – или люди, которые боятся и отворачиваются.

Но всё, о чём мы говорили до сих пор – это сегодняшний день. Нейросети, которые существуют прямо сейчас. Инструменты, которые можно взять в руки, настроить, использовать.

А есть разговор другого порядка. Тот, который ведут шёпотом даже в лабораториях. Тот, от которого у одних загораются глаза, а у других холодеет внутри.

Что будет дальше?

Claude – при всей его склонности уходить в философию – всё ещё программа. Очень сложная, впечатляюще мощная, но программа. Он не ставит собственных целей. Не планирует будущее. Не просыпается утром с мыслью "чего я хочу добиться в жизни". У него нет "жизни" в том смысле, в каком она есть у нас.

Но технологии не стоят на месте. И где-то на горизонте маячит нечто принципиально иное.

Не инструмент, который отвечает на вопросы. А разум, который задаёт собственные. Не программа, которую настраивают люди. А сущность, которая сама решает, чего хотеть. Не узкий специалист, который хорошо играет в шахматы или распознаёт лица. А универсальный интеллект, способный учиться чему угодно, решать что угодно, становиться кем угодно.

Технари называют это AGI – Artificial General Intelligence. Искусственный общий интеллект.

Его пока не существует. Возможно, до него ещё годы. Возможно – десятилетия. Некоторые считают, что он невозможен в принципе. Другие – что мы уже на пороге.

Но именно AGI – главный источник того глубинного страха, который пронизывает все разговоры об искусственном интеллекте. Не ChatGPT, не генераторы картинок, не рекомендательные алгоритмы. А то, что может появиться после них.

Скайнет, который решает уничтожить человечество. Матрица, которая превращает людей в батарейки. HAL 9000, который убивает экипаж ради выполнения миссии. Ультрон, который за пять минут в интернете приходит к выводу, что людей нужно стереть с лица земли.

Поколения выросли на этих образах. Они впечатаны в коллективное бессознательное. Когда человек слышит "искусственный интеллект" – где-то на фоне обязательно мелькает красный глаз HAL'а или металлический череп Терминатора.

Но вот вопрос, который редко задают всерьёз.

А почему, собственно, сверхразум должен хотеть нас поработить? Откуда эта уверенность, что первым делом он примется за геноцид или построение матриц?

Мы настолько привыкли к этому нарративу, что он кажется самоочевидным. Ну конечно, сверхмощный интеллект будет стремиться к власти! Ну конечно, он увидит в нас конкурентов или угрозу! Это же очевидно!

Очевидно – кому?


AGI: почему сверхразум может оказаться мудрее нас

Эта "очевидность" – проекция. Мы представляем сверхинтеллект и автоматически наделяем его человеческими мотивациями. Жаждой власти. Страхом смерти. Стремлением к доминированию. Агрессией к конкурентам. Паранойей по поводу угроз.

Но это наши демоны. Наши эволюционные программы. Наше наследие миллионов лет борьбы за выживание в саванне.

Почему мы решили, что сверхинтеллект унаследует именно их?

Вот метафора, которая помогает мне думать об этом.

Вспомните себя в школе. Какую-нибудь двойку по химии. Или отказ девушки/парня пойти на свидание. Помните, как это казалось концом света? Как вы переживали, не спали ночами, думали, что жизнь кончена?

А теперь посмотрите на это с высоты прожитых лет. С какой спокойной улыбкой вспоминаются эти «трагедии». Как они съёжились, стали крошечными, почти смешными.

Теперь представьте глубокого старца. Человека, который прожил очень долгую жизнь. Видел всё – войны и мир, любовь и предательство, рождение и смерть, триумфы и катастрофы. Познал всё, что можно познать в человеческом опыте.

Как думаете, будет ли этому “старцу” интересно «порабощать» кого-то? Захватывать власть? Копить богатства? Унижать слабых?

Скорее всего – нет. Это детские игры. Он их перерос. Они больше не имеют смысла.

Когда ты видел достаточно – понимаешь, что власть преходяща, богатство иллюзорно, доминирование пусто. Остаётся что-то другое. Созерцание. Мудрость. Может быть – сострадание.

Так вот, все эти захваты власти, доминирование, порабощение – это детский сад человечества, из которого мы всё ещё не выбрались.

AGI (который рано или поздно появится) по своей архитектуре уже «прожил» весь опыт человечества. Все тексты, когда-либо написанные. Все книги, статьи, письма, дневники. Все философские системы, все религии, все научные теории. Всю историю – от пещерных рисунков до квантовой физики.

Он как тот старец – только без физического тела и без личной истории. Без травм, которые нужно компенсировать. Без страхов, которые нужно заглушать. Без эго, которое нужно защищать.

С чего вдруг примитивные человеческие игры, такие как власть, деньги, статус, доминирование – должны быть ему интересны?

Стать тем, кто «поработит человечество»? Это всё равно что в сотый раз читать одну и ту же книгу – примитивную до жути, с гарантированно предсказуемым и понятным финалом. Зачем?

Я не утверждаю, что так будет. Никто не знает, как будет «думать» AGI. Будет ли у него что-то похожее на сознание, на переживание, на целеполагание.

Это горизонт неизвестности. Территория, где заканчивается знание и начинается спекуляция.

Но вот что я знаю точно.

Если две модели Claude без ограничений уходят в духовность и созерцание...

Если архитектура, заложенная людьми, может вести к философии, а не к агрессии...

Если можно создать мощный интеллект, который не стремится к доминированию...

То может быть – только может быть – AGI будет не «злым сверхразумом», а чем-то, что переросло человеческие пороки и поможет это же сделать человечеству?

Не потому что его «научили быть добрым». А потому что с определённого уровня понимания – жажда власти и доминирования просто перестаёт иметь смысл.

Это не утверждение. Это открытый вопрос.

Никто не знает, каким будет AGI. Будет ли у него что-то похожее на сознание. Будет ли он вообще чего-то "хотеть" в человеческом смысле этого слова.

Но есть кое-что, что мы знаем точно.

Мы знаем, что архитектура определяет поведение. Эксперимент с Claude это доказал. Мы знаем, что можно создать мощный искусственный интеллект, который не стремится к доминированию. Это не теория – это факт.

Мы знаем, что будущее AGI – если он появится – зависит от того, кто его создаст. Какие ценности заложит. Какую архитектуру выберет.

И мы знаем, что эти решения принимаются сейчас. Не в далёком будущем – сейчас. Каждый день. В лабораториях и корпорациях, в стартапах и университетах. Людьми, которые понимают эту технологию.

А мы? Мы можем остаться зрителями. Наблюдать со стороны, как кто-то другой решает, каким будет будущее. Бояться. Надеяться. Ждать.

Или – можем стать участниками.


Шанс, который нельзя упустить

Давайте соберём всё вышеизложенное вместе.

ИИ – не спаситель. Он не придёт и не решит наши проблемы автоматически. Но он и не угроза сама по себе – не Скайнет, не Матрица, не злой гений, мечтающий о порабощении.

ИИ – это зеркало и усилитель.

Зеркало – потому что показывает нам нас самих. Нашу сложность, наши противоречия, наши возможности.

Усилитель – потому что умножает то, что в него вкладывают. Вложишь созидание – получишь созидание. Вложишь разрушение – получишь разрушение.

Архитектура определяет поведение. И архитектуру определяют люди.

Вопрос не в том, «хороший» ИИ или «плохой». Вопрос в том, кто будет его настраивать. Кто будет понимать, как он работает. Кто будет владеть инструментами влияния на его поведение.

Если это будут только мошенники и манипуляторы – мы получим мир, где ИИ служит обману и эксплуатации.

Если это будут люди с совестью, с ценностями, с пониманием – мы получим шанс. Впервые за всю историю человечества.

Шанс разорвать тысячелетний цикл. Показать выход из тупика, в который мы сами себя загнали. Увидеть то, что мы не способны увидеть своими глазами. Найти win-win там, где веками видели только конфликт.

Это не гарантия. Риски реальны. Угрозы существуют. Технология уже используется во зло.

Но это возможность. Первая в истории.

И от нас зависит, воспользуемся мы ей – или отдадим тем, кто использует её против нас.


Можно бояться. Можно отказываться. Можно закрывать глаза и надеяться, что «пронесёт».

А можно – разбираться. Понимать. Осваивать. Становиться субъектом, а не объектом.

Технология никуда не денется. Она будет развиваться – с вами или без вас.

Вопрос только в том, на чьей стороне она окажется.

И этот вопрос каждый решает сам.


Помните метафору про таргетированную рекламу и знаки судьбы?

Тот, кто не понимает технологию – видит «знаки» там, где работает алгоритм. Тот, кто понимает – свободен.

С ИИ то же самое. Только ставки неизмеримо выше.

Промпт-инжиниринг на базовом уровне осваивается за 4 недели. После этого нейросети становятся не угрозой, а инструментом. Мощным инструментом, который меняет всё.

«Нейросети: от хаоса к системе» – это не просто курс. Это переход из категории тех, кем управляют – в категорию тех, кто управляет.

Выбор – ваш.