Почему ИИ нужен граф знаний (KG)
Перевод статьи компании TopQuadrant о возможностях, которые открываются при совмещении графов знаний и ИИ. Становится ясно, что генеративный искусственный интеллект и большие языковые модели (LLM), такие как ChatGPT, вероятно, окажут большое влияние на многие отрасли. Их возможности, сильные и слабые стороны имеют большое значение для людей и отраслей, которые уже используют или рассматривают возможность использования графов знаний (KG — Knowledge Graph). Ниже мы рассмотрим взаимодействие между графами знаний и LLM.
Генеративный ИИ
Генеративный ИИ — это общий термин для всех ИИ, который создает совершенно новый контент — текст, изображение и даже компьютерный код — на основе обучения на больших объемах существующих данных. LLM — это подтип генеративного ИИ, который принимает текстовую подсказку и пишет ответ, подобный человеческому. Он большой, поскольку обучается на огромных объемах данных, как и весь Интернет. Это языковая модель, поскольку ее целью является прогнозирование последовательностей слов.
LLM могут имитировать «понимание» естественного языка и использовать его для представления ответов. Они часто дают правильные или «достаточно близкие» ответы. Это интересно и имеет множество потенциально полезных приложений. В то же время LLM может давать неверные ответы – иногда в нюансах, иногда в очень очевидных формах.
Графы знаний
Графы знаний, иногда также называемые семантическими сетями, содержат информацию об объектах в мире, организованную как узлы, связанные отношениями. Графы фиксируют данные, а также семантику или значение данных. Мы можем различать различные типы KG — те, которые содержат основные факты данных, и те, которые содержат семантическую информацию более высокого уровня.
ChatGPT — чат-бот, созданный с использованием технологии LLM. Всего через два месяца после запуска в конце 2022 года число пользователей достигло 100 миллионов. После первоначального ажиотажа и ажиотажа по поводу ChatGPT многие начали задавать вопросы о надежности и правдивости контента, создаваемого ChatGPT и аналогичными инструментами.
Мы обсудим, как графы знаний могут помочь в решении этих проблем, но сначала давайте рассмотрим, что является причиной этих проблем.
Результаты LLM ненадежны для решения критически важных задач
LLM не понимают истинного значения или полного объема накопленных знаний. Они работают иначе, чем человек, который использует свое полное понимание темы для составления ответа.
Хорошей аналогией является рассмотрение различий в том, как человек и обученная модель распознавания изображений могут распознать, что изображение содержит собаку:
- У человека есть мысленная модель собаки. Они знают, что это животное, живой организм с определенным поведением и характеристиками определенного размера и формы. Они принимают все это во внимание, например, животное на поводке или животное, преследующее кошку по дереву, скорее всего, будет собакой.
- Модель распознавания изображений ничего не знает о собаках. С помощью множества изображений его обучили ассоциировать определенные комбинации пикселей с «собакой».
То же самое относится и к ответам, сгенерированным LLM. Эти ответы представляют собой просто наиболее статистически вероятные последовательности слов. У LLM нет ментальной модели или аксиоматического знания о мире. Они не могут отличить реальность от воображаемого, правду от вымысла, что приводит к удивительным последствиям.
Признание этого феномена привело к созданию нового термина: ИИ-галлюцинация. Согласно определению Википедии, галлюцинация ИИ — это «уверенная реакция ИИ, которая, по-видимому, не оправдана данными его обучения».
Например, галлюцинирующий чат-бот, не знающий о доходах Tesla, может внутренне выбрать случайное число (например, «13,6 миллиарда долларов»), которое чат-бот сочтет правдоподобным, а затем ложно и неоднократно настаивать на том, что доход компании Tesla составляет $13,6 млрд, при этом нет никаких признаков осознания того, что эта цифра была плодом ее собственного воображения. Вы можете себе представить, насколько это может быть разрушительно, если положиться на эту цифру, не подвергая ее сомнению.
В конце 2022 года Брайан Худ, мэр города в Австралии, забеспокоился о своей репутации, когда представители общественности сказали ему, что ChatGPT ложно назвал его виновным в скандале о взяточничестве за рубежом с участием дочерней компании Резервного банка Австралии. Г-н Худ действительно работал в дочерней компании, но был осведомителем по делу о взяточничестве, и ему никогда не было предъявлено обвинение в совершении преступления. Сейчас он готовит иск о клевете против провайдера ChatGPT, OpenAI.
LLM известны тем, что изобретают факты, события, книги и людей. Когда ему задают вопрос, он делает обоснованное предположение по теме и «творчески» заполняет информационные пробелы, насколько это возможно, делая выводы из статистической модели, созданной в результате обучения.
Пользователи, тестировавшие ChatGPT, жаловались, что бот часто ведет себя «социопатически» и бессмысленно вставляет правдоподобно звучащую случайную ложь в сгенерированный контент.
Со мной такое случилось, когда во время одного разговора ChatGPT дважды «забыл», кто он такой, и очень уверенно заявил, что он человек, придумав себе имя и предысторию. Коллега, который попросил ChatGPT сгенерировать код с использованием определенной библиотеки, обнаружил, что, хотя ChatGPT создает разумно выглядящий код, в нем используется класс Java, которого нет в этой библиотеке. В нем использовался шаблон Builder, который сейчас очень популярен в Java. Однако эта конкретная библиотека его не поддерживала. ChatGPT просто выдумал это.
OpenAI, анонсировавшая GPT-4, признала наличие этих проблем, заявив:
Несмотря на свои возможности, GPT-4 имеет те же ограничения, что и более ранние модели GPT. Самое главное, что он все еще не вполне достоверен (он «галлюцинирует» факты и допускает ошибки в рассуждениях). Следует проявлять большую осторожность при использовании выходных данных языковой модели, особенно в контекстах с высокими ставками, при этом точный протокол (например, проверка человеком, обоснование с дополнительным контекстом или полное избегание использования с высокими ставками) соответствует потребностям конкретного варианта использования.OpenAI
Сегодня аналитики считают частые галлюцинации серьезной проблемой технологии LLM и, в более общем плане, всех технологий генеративного искусственного интеллекта. Графы знаний могут помочь решить эту проблему и повысить надежность LLM.
Графы знаний могут улучшить LLM
ChatGPT и другие LLM отражают данные обучения, которые могут включать в себя шум, предвзятости и разные мнения. У них также есть склонность выдумывать факты или «выдумывать». Это связано с тем, что ChatGPT на самом деле не имеет фактической базы знаний. Вместо этого у него есть языковая модель, созданная в ходе обучения.
Можно сказать, что изобретение фактов — это не ошибка LLM, а особенность. Эта технология предназначена для прогнозирования вероятного ответа — то есть, когда LLM дает в качестве подсказки начало предложения, она может завершить предложение, предсказывая, что, скорее всего, последует дальше.
ChatGPT очень хорош в создании первого черновика, но все, что он вам сообщает, необходимо перепроверить. Поскольку вы никогда не можете быть уверены в том, как LLM сгенерировал тот или иной конкретный текст и на чем основан его ответ, вы не можете полностью доверять этому. В зависимости от приложения это может быть очень серьезной проблемой. Предоставление LLM базы знаний может повысить точность и актуальность его ответов.
Граф знаний преуспевает в представлении ментальных моделей и знаний в целом. Knowledge Graph (KG), смоделированный в RDF, может предоставлять смысл с неограниченным богатством и гибкостью. В качестве тщательно подобранного набора фактов граф знаний может предоставить ограничения для LLM, которые могут улучшить качество его результатов. По сути мы применяем эпистемологию к сгенерированному контенту, чтобы выявить истину.
Вы можете полностью доверять графу знаний KG, потому что вы можете знать, какую информацию он содержит, какие факты вы в него вложили, как он может отвечать на запросы и какие выводы или обоснования он может сделать. Это делает графы знаний важными для развития LLM и других генеративных технологий искусственного интеллекта.
В некоторых случаях вы можете использовать только одну из этих технологий, но вместе LLM и KG могут давать вам точные и мощные результаты! Люди и организации, которые организуют свои знания в рамках KG, получат преимущество в мире, управляемом искусственным интеллектом.
Чтобы реализовать это будущее, необходимо больше хорошо курируемых графов знаний. Интересно, что программы LLM могут быть очень полезны, помогая людям создавать те самые графы знаний.
LLM помогают создать граф знаний
Сегодня специализированные графовые редакторы могут помочь вам создавать графы знаний на основе различных структурированных данных, таких как электронные таблицы. Однако большая часть нашей информации находится в текстовом виде. До появления генеративного искусственного интеллекта технологии извлечения структурированных фактов из текста были сложны в использовании и не впечатляли. LLM уже продемонстрировали, что они могут добиться большего.
Большинство из нас уже видели, как можно дать ChatGPT подсказку на естественном языке и получить ответ. Помимо возврата ответа на естественном языке, ему можно поручить отформатировать ответ другими, более структурированными способами, например, в виде таблицы, графика или даже программного кода. Это открывает возможность использования LLM для извлечения информации из текста и создания структурированных данных в желаемой форме, например, таксономии, контекстной карты, набора табличных данных или RDF KG. Входными данными может быть любой фрагмент текста.
Вам необходимо предоставить подсказку с инструкциями ChatGPT по форматированию вывода. Она может содержать информацию в текстовом формате, на основе которой можно сгенерировать выходные данные. Это не всегда необходимо, поскольку ChatGPT содержит много информации. Но вы можете захотеть предоставить информацию из документа, который является частным для вашей организации, или вы можете захотеть, чтобы ChatGPT использовал только определенный текст, а не другие сведения, которые он может иметь.
Оперативное проектирование для LLM — это отдельная тема, которую мы не будем подробно освещать в этом посте. ChatGPT уже знает о RDF. Таким образом, пользователь может просто сказать в командной строке:
«Создайте RDF-версию следующего, используя Turtle Notation».
Затем укажите текстовый ввод, на основе которого будет создан вывод.
В инструкции по форматированию вывода также должно быть указано:
Например, вы можете использовать в качестве входных данных следующий текст, описывающий одного из главных героев телесериала HBO «Наследие»:
«Логан Рой родился в скромной семье в Данди, Шотландия, 14 октября 1938 года, незадолго до начала Второй мировой войны. Он вырос в бедности со своим старшим братом Юэном Роем и младшей сестрой Роуз Рой».
ChatGPT распознает и структурирует факты о Логане Рое – дату и место его рождения, его сестру и брата. Если вы не предоставите ему предикаты и классы для использования, он может их сгенерировать, но, как правило, вы хотите использовать уже существующую онтологию. Вы можете добавить в приглашение указание на использование онтологии, о которой ChatGPT уже знает, например, «использовать термины из Schema.org», тогда ChatGPT будет знать, что в выходных данных нужно использовать такие предикаты, как схема: место рождения. Вы не ограничены онтологиями, о которых ChatGPT уже знает. Вы также можете предоставить свою собственную онтологию в командной строке. И вы можете указать ChatGPT извлекать только определенные конкретные факты.
Благодаря этому практически каждый может создавать графы из текста. Или заполнить таксономию. Технические навыки больше не являются ограничивающим фактором, хотя результаты, полученные в рамках LLM, по-прежнему необходимо будет анализировать и проверять. А инструменты моделирования онтологий со встроенной поддержкой рабочих процессов и курирования, можгут очень эффективно облегчить этот процесс.
Это грандиозно: поставщики услуг берут огромные деньги за то, чтобы армии аналитиков заполняли таксономии и классифицировали данные. Эти человеческие усилия можно свести к небольшой доле необходимых ресурсов, что снизит стоимость и ускорит время доставки.
Вместо армий вам понадобится несколько аналитиков, чтобы предоставить LLM правильные параметры и проверить результаты. Большая часть работы по наполнению базы знаний теперь может быть автоматизирована. Добавление интеграции с ChatGPT в вашу среду управления информацией может свести к минимуму необходимость оперативного проектирования. Пользователю просто нужно предоставить текст в качестве входных данных для создания таксономии, а результирующая таксономия в SKOS будет содержать добытые ресурсы и их взаимосвязи.
Также можно использовать собственную онтологию для автоматического создания подсказок. Например, если у вас есть свойство «дата рождения» с xsd:date в вашей онтологии ваш инструмент на базе KG может, на основе выбора пользователя или других критериев, автоматически создать подсказку со словами: «Из следующего текста извлеките дату рождения в следующем формате».
При интеграции онтологического редактора с ChatGPT запросы автоматически генерируются из любой онтологии для получения всех соответствующих свойств. В приглашении, которое создается скрыто, ChatGPT передается список свойств для заполнения из текста.
Помимо создания совершенно новых ресурсов, LLM также может помочь в обогащении информации о ресурсах, которые уже существуют в ваших графах знаний. Например:
- Они могут добавлять описания ресурсов. Это может включать в себя составление резюме документов. В небольших количествах составление сводок документов представляет собой простую задачу. Однако в масштабе создание сводки документов может оказаться непосильной задачей. LLM радикально меняют эффективность создания резюме.
- Их можно использовать для предложения свойств классов в ваших онтологиях.
- Они могут помочь в создании сопоставлений между графами знаний.
- Их можно использовать для перевода информации на другой язык.
Как отмечалось ранее, независимо от того, насколько полезна автоматизация, обеспечиваемая ChatGPT и другими LLM, мы не должны забывать о необходимости человеческого курирования — важно, чтобы общий рабочий процесс сочетал в себе автоматическую генерацию с проверкой и управлением сгенерированного контента.
LLM поддерживают новые способы взаимодействия с графами знаний
KG можно запрашивать с помощью языков запросов. SPARQL — это стандарт де-юре с широкой поддержкой. Многие продукты редактирования онтологий также поддерживают GraphQL. Кроме того, продукты часто предоставляют пользовательские интерфейсы поиска и просмотра, которые скрыто генерируют запросы. Однако в некоторых случаях пользователи могут захотеть взаимодействовать с базой знаний, используя простой язык. Такой инструмент, как ChatGPT, может помочь. Поскольку он может генерировать текст в разных форматах, он потенциально может выступать в качестве переводчика с естественного языка в структурированный запрос.
И наоборот, при необходимости LLM может предоставить ответ в виде хорошо написанного и легко усваиваемого текста, выступая также в качестве обратного переводчика структурированного текста в более естественную произвольную форму. В некоторых ситуациях люди предпочитают ответ на естественном языке вместо таблицы результатов запроса.
Объединение этих возможностей может привести к созданию очень интересных систем, которые предлагают интуитивно понятные и простые в использовании интерфейсы и дают гарантированно точные ответы.
Вывод
LLM может значительно уменьшить усилия, необходимые для решения многих задач. Они могут стать отличным инструментом повышения производительности и мультипликатором рабочей силы. Однако LLM не понимают истинного значения вещей, и их результаты могут быть неверными. Учитывая это, им нужны люди, которые будут контролировать и проверять их результаты для критически важных задач.
Одним из примеров критически важной задачи является создание контролируемых корпоративных словарей. Эти относительно небольшие, но важные наборы данных могут иметь огромное влияние на операции и требуют строгого контроля и согласованности. Контролируемые словари, как часть знаний организации, часто представляются в виде KG, чтобы их можно было легко использовать множеством способов в различных системах и процессах. Хотя LLM не понимают значения и им нельзя полностью доверять в определении этих словарей, они могут быть эффективным инструментом, помогающим в их создании.
Если у вас есть граф знаний, его можно использовать для информирования, фокусировки, фильтрации и управления генеративным ИИ. Предоставление LLM вашей базы знаний на графах повысит возможности ИИ и надежность его ответов, что сделает его более подходящим для решения критически важных задач. В будущем мы предвидим появление систем, которые будут сочетать в себе преимущества технологий LLM и KG. Это будущее очень близко! Организации, которые инвестируют в создание графов знаний, будут иметь преимущество в конкурентной борьбе, когда дело дойдет до использования преимуществ генеративного ИИ.