December 25, 2025

43. Есть уже полноценный искусственный интеллект или пока нет?

Проблематика сложных понятий заключается в том, что люди очень часто сложные понятия воспринимают каждый по-своему, индивидуально.

В свое время я написал несколько постов о том, что разум, сознание и мышление далеко не синонимы, что это сильно разные процессы, протекающие в одной голове, хотя для большинства это примерно одно.

Здесь схожая ситуация, но смешиваются два других понятия: интеллект и личность.

Я попробую разложить по полочкам, что такое интеллект как способность, что такое личность как «носитель» этой способности, и где в этой схеме сейчас находятся искусственные системы. А заодно ответить, может ли вообще появиться искусственная личность.

Поехали.

Восприятие интеллекта и личности

Человеческое мышление так устроено, что мы склонны наделять человеческими свойствами предметы вокруг, особенно, если у тех есть какое-то свое поведение. Если оно умное, то нам начинает казаться, что внутри «кто-то» есть.

Не «что-то», а именно «кто-то» – с характером, вкусами, своим «Я».

Исторически у нас просто не было другого опыта, мы видели интеллект только у живых существ. Ребенок решает задачу – мы говорим «он умный», собака находит дорогу домой – «она сообразительная». За каждым проявлением разумности всегда стояли тело, действие, мотивы и какая-то история.

В быту мы почти никогда не говорим «у этого человека высокий интеллект как функция обработки информации». Мы говорим «он умный, но странный», или «она очень умная, но упрямая», то есть сразу оцениваем личность целиком, и, получается, что интеллект для нас смешан с характером, особенностями и привычками.

Потом появляется большая языковая модель (ChatGPT, Deepseek, Grok и т.д.), которая пишет тексты, объясняет теоремы, шутит и рассказывает про себя. Мозг автоматически дорисовывает автора: «там же кто-то должен сидеть и думать». Ну не может же быть, что вообще никого нет, если ответы такие осмысленные?

Может. И вот чтобы понять как, придется отделить «двигатель мышления» от отдельного «водителя», у которого есть самооценка, потребности и характер.

Интеллект как способность

Оставим на время всю философию и дадим рабочее, приземленное определение интеллекта из Большой Российской Энциклопедии.

Это будет способность, которая проявляется в том, как система:

• воспринимает происходящее,

• понимает его,

• объясняет,

• прогнозирует.

Эти четыре пункта задают вполне понятный каркас этого понятия.

Воспринимать – значит, превращать внешнюю информацию во внутренние представления. Для человека это зрение, слух, язык, а для модели – текст, изображение, звук, цифры.

Понимать – связывать новое с тем, что уже есть внутри. Видеть структуру, подтекст, связи. Не просто прочитать договор, а уловить, что одна фраза противоречит другой и заказчик явно подстраховывается.

Объяснять – разбирать сложное на понятное и собирать обратно. «Вот почему произошло именно так» – и дальше цепочка причин и следствий, зачастую щедро перемешанных шутками и прибаутками.

Прогнозировать – продолжать линию мышления: «если я сделаю это, скорее всего будет вот так» или «если в тексте стоит такое предложение, дальше логично появится вот такое».

Если смотреть на интеллект через эти четыре действия, туман рассеивается и остается чистая рабочая способность системы ориентироваться в мире, строить внутреннюю модель происходящего и предугадывать последствия.

И в таком виде искусственный интеллект уже есть. И давно.

Могут ли модели воспринимать? Да. Они читают текст, разбирают структуру документа, видят связь между вопросом и картинкой, распознают голос. Они превращают входящие сигналы в внутренние численные представления.

Могут ли понимать? В практическом смысле да. Модель ловит контекст, подтекст, иронию, может отличить инструкцию от шутки, может сопоставить твой вопрос с миллионами похожих и вытащить нужные связи. Иногда она ошибается, как и человек.

Могут ли объяснять? Да, и это ее сильная сторона. Разобрать сложный текст закона, перевести на человеческий язык, привести пример, найти аналогию - все это уже рутина для искусственных систем.

Могут ли прогнозировать? Это вообще их базовый режим. Любая языковая модель, по сути, делает одно: предсказывает, какое продолжение текста наиболее вероятно и уместно в данном контексте. На этом же принципе строится прогноз исходов, сценариев, реакций пользователей.

Повторюсь, что по этому рабочему определению искусственный интеллект как способность уже есть и вполне себе работает. Можно спорить о качестве конкретных реализаций, иногда он слабее человеческого, иногда значительно сильнее, он не устает к ночи, не впадает в депрессию, не конфликтует сам с собой. Его ограничения лежат в другой плоскости.

Но вот личность – это совсем другое и самое интересное.

Рассмотрим этот вопрос сквозь слои человеческой личности и сравним с тем, что есть у машины.

У человека в центре – самооценка. Это то самое «Я», которому бывает стыдно, страшно, радостно, которое гордится собой или презирает. Самооценка держит ощущение непрерывности: я вчера, я сегодня, я завтра – один и тот же человек, который как-то к себе относится.

У модели же есть оценка качества ответа. Она может «понять», что ошиблась, скорректировать поведение в следующем раунде, выбрать более осторожную формулировку. Но там нет того, кому было бы стыдно или горько, нет субъекта, который переживает, что кого-то подвел. Есть алгоритм, который уменьшает ошибку.

Следующий слой – потребности.

Не абстрактные «интересно бы развиваться», а очень конкретный внутренний напор, который растет из биологии: хочу есть, хочу спать, хочу безопасности, признания, контроля над своей жизнью, близости. Если потребности игнорировать, внутри растет напряжение, с которым в разных его формах человек живет от рождения до смерти.

У модели нет внутренних потребностей. Она не «хочет», чтобы ее включили, ей не «обидно», что ее не используют, она не «страдает» от того, что дает слабый ответ. Есть только внешние задачи: пользователь задал запрос, система отработала. Все. Внутри не накапливается напряжение, если задачи нет. Внутри вообще никто не ждет.

Третий слой – ценности.

Это внутренние границы допустимого. Что можно, что нельзя, что недопустимо для меня.Ценности фильтруют поведение - вариантов действия много, но часть из них отсекается, потому что «так нельзя, хоть ты тресни». Ценности могут даже родить конфликт, и это будет внутренний конфликт человека, а не конфликт условий.

У искусственных систем тоже есть ограничения, поскольку им прописывают, что они не имеют права делать, какие темы обходить, где особенно внимательно проверять последствия. Плюс сама обучающая выборка несет в себе ценности общества. Сутевая разница в том, что эти «ценности» заданы снаружи и не переживаются изнутри. Модель не может ночью сопеть и ворочаться, потому что «отвечала по правилам, но все равно как-то гадко».

Четвертый, внешний слой – мотивация и средства адаптации.

У человека мотивы рождаются из смеси потребностей, ценностей и самооценки.

Человек идет на тяжелый шаг не потому, что алгоритм высчитал выгоду, а потому, что так ему кажется правильным или спасительным. Мотивы, в свою очередь, цепляются за эмоции: страх, злость, интерес, любовь.

У модели нет ни мотивов, ни эмоций. Есть сложная автоматическая послушность: если запрос такого типа, используй такой шаблон; если обнаружилось противоречие, уточни вопрос; если тема чувствительная, снизь категоричность. Снаружи это похоже на аккуратную, мотивированную работу, но изнутри это цепочка вычислений без субъекта, который решил быть аккуратным.

Как мы видим, в сложной и красивой структуре личности интеллект представляет собой лишь кусочек, и это даже не орган, а скорее способ связки ряда (далеко не всех) инструментов для адаптации организма к среде: памяти, внимания, мышления, воображения, речи. И эта часть у языковых моделей развивается прекрасно. Память огромна, ассоциации гибкие, внимание в рамках контекста достаточно точное, речь четкая, но все это работает без центра, без субъекта, без смысла «мне лично важно, как я этим распорядился».

Многие страхи и восторги возникают именно потому, что разные понятия сваливают в одну кучу. Кто-то видит интеллект, приписывает ему свойства личности и получает кино про восстание машин. Кто-то принципиально не признает ИИ, делая вид, что у него нет мышления, выдавая снисходительное «это попугай: повторяет, что в него загрузили, вот и весь интеллект».

Что же касается создания искусственной личности, как некой потенциальной возможности в будущем, она должна быть не просто умным модулем, а носителем интеллекта с собственным «я», самооценкой, потребностями, ценностями и мотивами. Такое электронное существо могло бы говорить «мне больно», «я этого хочу», «мне за это стыдно» и не обманывать. И будет в этом случае какая-то разница, электронное это существо или органическое?

И здесь мы пока даже не на пороге. Мы стоим в далеке от ворот и спорим, попробовать открывать их или нет, даже не видя, что там за стеной и, главное, не имея внятного ответа на вопрос «Зачем?».

Что в итоге?

Пока мы не разделяем понятия интеллект и личность, вопрос «есть настоящий ИИ или нет» будет звучать как «есть ли уже настоящий молоток, который сам мечтает забивать гвозди».

Языковые модели сегодня выступают не как новый вид существ, а как внешний интеллектуальный модуль, который подключается к живой человеческой личности.

Человек это тот, у кого внутри есть центр «мне не все равно». Искусственный Интеллект, пусть даже очень мощный, остается инструментом.

И главный вопрос ближайшего времени – не «когда он оживет», а «как мы сами будем жить и какие принимать решения, имея под рукой такой инструмент».

Оглавление.

Основной канал.