Искусственный интеллект (ИИ) как проблема в эпоху постправды.
*этот текст был написан около полугода назад, или даже больше, для небольшого популярного выступления. Сейчас, когда он настоялся, многие вещи, как-будто, читаются не так остро и не вполне актуально, но я запощу его, скорее, чтобы забыть и возможно, отослать интересующегося читателя к текстам, которые я использовал при подготовке.
Прежде всего я считаю необходимым кратко дать пояснение к понятию «постправда» как к феномену массовой культуры и политики, которое вошло в обиход относительно недавно -в 1992г, было введено американским драматургом и публицистом Стивом Тесичем в его эссе о конфликте в Персидском заливе и в 2016 году Оксфордским словарем было признано словом года, что подчеркивает тренд на его актуализацию. Значит же оно следующее -это обстоятельства, при которых объективные факты являются менее значимыми при формировании общественного мнения, чем обращения к эмоциям и субъективным убеждениям.
Феномен постправды, в широком контексте, и в особенности касаясь проблемного поля современного философского дискурса, перекликается с определенным взглядом на философские проблемы, который приписывают Витгештейну, что философские проблемы обычно представляют собой смесь логической путаницы, языковых ошибок и расстройства мышления, а процесс их решения это терапия языка или попытка сохранить себя от околдовывания языком. В нашей ситуации трудно уберечь себя от ловушки, в которую можно попасть игнорирую множественность значений понятия «искусственный интеллект» это и конкретно способность машины решать определенные задачи и область знаний, но в современном популярном дискурсе чаще всего это словосочетание используется тождественно понятию искусственное, подобное человеческому, сознание. И именно на реальность современных вариантов искусственного интеллекта в значении искусственное сознание, уповают люди подверженные определенной склонности превозносить достижения техники и науки в ранг сакрального новой секулярной религии. Всеобщий ажиотаж связанный с этой темой достигает такой силы, что многие люди, в том числе с некоторыми из них я имел возможность общаться лично, убеждены в том, что ИИ уже создан или по крайней мере будет создан в течение ближайших 5-10 лет. Такие вспышки общественного интереса к проблеме не являются чем-то новым или уникальным. В период истории второй половины ХХ века они случались по меньшей мере 7 раз, каждый раз связаны с достижением очередной планки решения определенных задач компьютерным интеллектом, и сменялись периодами разочарования, т. н. -зимой искусственного интеллекта:
1971—1975: разочарование DARPA исследовательской программой по распознаванию речи в Университете Карнеги — Меллона;
1973: значительное сокращение исследований по искусственному интеллекту в Великобритании в ответ на отчёт Лайтхилла;
1973—1974: сокращение расходов DARPA на академические исследования по искусственному интеллекту в целом;
1988: отмена новых расходов на искусственный интеллект в рамках стратегической инициативы в области компьютерной техники;
1993: экспертные системы медленно достигают экономического дна;
1990-е годы: проект создания компьютеров пятого поколения не достиг своих целей.
Современной вспышкой ажиотажа вокруг темы искусственного интеллекта, мы обязаны ряду достижений сделанных в период с 1990г по настоящее время:
1. Победа Deep Blue над Гарри Каспаровым (1997). В 1997 году компьютерная система Deep Blue, разработанная IBM, достигла исторической победы над Гарри Каспаровым, чемпионом мира по шахматам.
2. Роботы-геологи на Марсе (2004). NASA отправила на Марс двух роботов-геологов, Opportunity и Spirit, которые могли исследовать планету и передавать данные на Землю без человеческого вмешательства.
3. В 2022 году генеративные нейронные сети (GAN) и крупные языковые модели (LLM), такие как ChatGPT, достигли значительных успехов в создании реалистичных изображений, видео и генерации текста.
Были и другие достижения за этот период, но именно в эти года наблюдается рост поисковых запросов по теме «искусственный интеллект» по данным статистики поисковика Google, что в определенной степени отражает динамику общественного интереса к проблеме.
Несмотря на потрясающие успехи в этой области, ряд исследователей не разделяют оптимизма относительно современного состояния искусственного интеллекта. Так в книге «Большой обман больших языковых моделей» Гэри Маркус, описывает результаты работы этих программ:
«Большие языковые модели оперируют статистикой слов, но не понимают ни используемых понятий, ни описываемых людей. Для них нет разницы между фактом и вымыслом. Они не умеют проверять достоверность информации и не сигнализируют о неуверенности, когда их «факты» не подкреплены доказательствами. Причина, по которой они часто просто выдумывают информацию, заложена в самой их природе: они статистически компилируют небольшие фрагменты текста из обучающих данных, расширяя их с помощью технологии, известной как эмбеддинги, которая обеспечивает подбор синонимов и перефразирование. Иногда это срабатывает, а иногда нет.»
Такая ложная, не соответствующая реальности информация, которую с уверенностью выдают ИИ, называют «галлюцинацией». Интересно, что по версии Кембриджского словаря английского языка, словом года в 2023 году стало слово «галлюцинировать», пишет kommersant.ru Однако в данном случае это слово используется не в обычном смысле, а как термин, связанный со сферой искусственного интеллекта (ИИ) и означающий ситуацию, когда ИИ выдаёт ложную информацию
Об этом же фундаментальном недостатке искусственного интеллекта пишет отечественный исследователь В.А. Рубанов в своем трехтомнике «Вижу смысл» посвященном проблемам мышления, где он составляет положение, согласно которому для искусственных интеллектуальных систем доступны только различные операции вычисления, тогда как человеческий интеллект наделен функцией понимания:
«Понимание реальности не может быть получено из набора вычислительных инструкций … мышление человека представляет собой «существенно невычислимый» процесс»
В этом контексте уместно перейти к классическому умственному эксперименту «Китайская комната» предложенному последовательным критиком принципиальной возможности создания искусственного интеллекта Джоном Сёрлом в 1980г и который является самым обсуждаемым по сей день:
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов, и Сёрл просто следует этим инструкциям подобно компьютеру.
Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.
В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.
Таким образом Сёрл заключает, что хотя такая система и может пройти любой тест на наличие мышления, но при этом никакого понимания языка внутри системы не происходит, а значит компьютеры с соответствующей программой на самом деле не могут обладать ментальными способностями, свойственными людям.
Проблема создания искусственного интеллекта, ко всему прочему упирается в то, что сознание и мышление как таковые являются объектом интроспекции , т. е. не-перцептивного ноуменального опыта. Грубо говоря, определенную проблемой является парадокс, что инструментом для познания сознания является само сознание, для которого принципиально недостижима необходимая для исследования метапозиция. До сих пор остается решительно не ясным, что предполагается создавать, когда речь идет о создании искусственного интеллекта. Мечта о ИИ заждется на редукции проблемы до тождества сознания и активности нейронов, мышления и физиологических сигналов, общения и передачи информации. В своей работе «Мягкая сила постгуманизма» Н.Ростова пишет:
«...сознание -это не то, из чего аккумулируется bigdata, а мысль это не сигнал о состоянии тела, который можно оцифровать в код.<…> Как говорил С. Булгаков, мы можем сколь угодно точно изучить работу телеграфных проводов и столбов, но мы ничего не поймем в «сообщениях». То есть в сознании. Чтение мыслей -вовсе не утопический проект будущего, но та реальность, что извечно сопровождает человека в истории. Она не требует хитрых устройств вроде «электронных кружев».<...> Мы знаем что-то о человеке не потому, что он нам сказал об этом, но потому, что мы пребываем с ним в общем пространстве понимания.<...> Вместе с тем мы можем быть как никогда рядом, но обнаруживать непробегаемую пропасть, даже если у нас общий язык, страна, смартфоны с доступом в Интернет и <т.д.> У мысли нет эквивалентов, способных сделать ее передаваемой. Сделать ее своей, ибо не бывает чужих мыслей. Мысль -это всегда твоя мысль, даже если это мысль Гегеля. Но чтение Гегеля взможно только тогда, когда его мысли делаются твоими. Технически мы можем загрузить тома Гегеля в «облако», но сделать его концепты своими таким образом невозможно. Для этого нужно сознание.»
В статье «Искусственное сознание: Утопия или реальная возможность» Джорджио Буттаццо говорит, что общее возражение против искусственного сознания состоит в том, что:
«работая в полностью автоматизированном режиме, они [компьютеры] не могут проявлять креативность, непрограммируемость (что означает невозможность перепрограммирования, переосмысления), эмоции или свободу воли. Компьютер, как и стиральная машина, — это раб, управляемый своими компонентами»
За кажущейся простотой работы ИИ стоит долгая и трудозатратная процедура программирования и ручного обучения на больших объемах данных, а так же заданные алгоритмы работы оператора, которые позволяют выдавать приблизительно адекватный результат, речь идет о способности подбирать правильные промпт, т.е. набор команд запросов.
Этических проблемы связанные с ИИ заслуживают отдельного сообщения, коротко положение в этой области можно описать двумя цитатами последовательно сделанными Марком Цукенбергом в разные года:
«Действуй быстро, не бойся ошибок.» -Марк Цукерберг (2012)
«Мы недооценили масштаб нашей ответственности.» -Марк Цукерберг на слушаниях в сенате США (2018)
Соцсети создали новую бизнес-модель: надзорный капитализм. Продажа таргетированной рекламы, использующей ваши личные данные, тому, кто больше заплатит, — будь то обычные рекламодатели, аферисты, преступники или политтехнологи — не только обогатила горстку людей, вроде главы Meta Марка Цукерберга, но и наделила их чрезмерной властью над нашими жизнями. Владельцы социальных платформ осознали две вещи: во-первых, что ложная информация разжигает интерес аудитории, многократно увеличивая их прибыль, а во-вторых, что их доходы растут прямо пропорционально времени, которое люди проводят в их сетях. Медиа, проверяющие факты и стремящиеся к беспристрастности, уступили место запрограммированным ИИ-агрегаторам, где любой носитель нелепой идеи мог найти десятки тысяч или даже миллионы единомышленников для ее поддержки. Серьезные дебаты уступили место твитам в 140 символов, броским фразам и видео в TikTok вовремя подсовываемых пользователям алгоритмами популярных платформ. Создавая целую систему автоматизированной дезинформации.(Г. Маркус «Большой обман больших языковых моделей»)
В 2022 году инженер Google Блейк Лемуан сделал вирусное заявление о том, что чатбот LaMDA компании Google является разумным. В качестве доказательства Лемуан привел человекоподобные ответы чатбота на многие свои вопросы; однако поведение чатбота было оценено научным сообществом как скорее всего следствие мимикрии, а не машинного разума. Утверждение Лемуана было осмеяно как нелепое.
Очевидно, что весьма затратные исследования ИИ в мире неокапитализма требуют быстрой самоокупаемости и постоянно пополняющихся вложений и создание новых и новых волн ажиотажа, эмоциональная накачка населения откровенно подложной информацией касающейся текущего состояния проблемы и ее перспектив, в мире постправды является обыденностью как единственный способ избежать новой зимы искусственного интеллекта. Противостоять этому «околдовыванию нарративом» о всемогуществе ИИ, может только сильное человеческое сознание, немыслимое без конкретного этического и метафизического базиса.