Плаваете в ИИ-терминологии? Исправим это за 5 минут
Больше вы никогда не спутаете ML с LLM и запросто отличите «галлюцинации» от «предвзятости».
Искусственный интеллект — горячая новинка в мире технологий. Складывается такое ощущение, что каждая компания в последнее время говорит о том, каких успехов она добилась, используя или развивая искусственный интеллект. Однако область искусственного интеллекта настолько перенасыщена жаргонизмами, что бывает удивительно трудно понять, что вообще происходит.
Чтобы помочь вам лучше ориентироваться в мире ИИ, предлагаем список некоторых наиболее распространённых терминов в области искусственного интеллекта. В этой статье мы сделаем всё возможное, чтобы объяснить, что они означают и почему так важны.
Что вообще такое искусственный интеллект?
Искусственный интеллект (ИИ) или Artificial Intelligence (AI) представляет собой дисциплину компьютерных наук, которая занимается созданием компьютерных систем, способных мыслить, как человек.
Прямо сейчас мы чаще слышим об ИИ как о технологии или даже сущности, и что именно это означает — определить порой весьма сложно. ИИ также часто используется как модное маркетинговое словечко, что делает его определение более широким и расплывчатым, чем оно должно быть.
Компания Google, например, постоянно рассказывает о том, как она инвестировала в искусственный интеллект на протяжении многих лет. Это относится к тому, сколько её продуктов улучшено с помощью искусственного интеллекта и как компания позиционирует такие инструменты, как фирменный чат-бот Gemini.
Существуют базовые модели ИИ, на которых основаны многие ИИ-инструменты, такие как GPT от OpenAI. Марк Цукерберг, генеральный директор Meta*, и вовсе использует этот термин для обозначения отдельных чат-ботов.
По мере того, как всё больше компаний пытаются продать нам искусственный интеллект, способы, которыми они используют этот термин и другую связанную с ним номенклатуру, могут становиться всё более запутанными. Есть несколько фраз, с которыми вы, вероятно, столкнётесь в статьях об ИИ, поэтому, чтобы помочь вам лучше понять их, мы собрали обзор многих ключевых терминов в области искусственного интеллекта, о которых в настоящее время говорят повсеместно.
Итак, перейдём к терминологии. В данной статье попытаемся максимально упростить сложные определения, а также скрасить их примерами. Это должно помочь даже самым непосвящённым в тему читателям быстро понять, о чём идёт речь. Поехали!
Базовые определения
- Нейронная сеть (Neural Network). Нейронная сеть — это компьютерная архитектура, которая помогает компьютерам обрабатывать данные с помощью узлов, которые можно сравнить с нейронами человеческого мозга. Нейронные сети имеют решающее значение для популярных генеративных систем искусственного интеллекта, потому что они могут научиться понимать сложные закономерности без явного программирования — например, при обучении работе с медицинскими данными, чтобы иметь возможность ставить диагнозы.
- Машинное обучение (Machine Learning, ML). Системы машинного обучения обучаются работе с данными так, чтобы они могли делать прогнозы относительно новой информации. Таким образом, они могут «учиться». Машинное обучение — это область искусственного интеллекта, которая имеет решающее значение для многих технологий искусственного интеллекта.
- Общий искусственный интеллект (Artificial General Intelligence, AGI). Искусственный интеллект, который не уступает человеку или даже умнее его. В перспективе AGI может стать невероятно мощной технологией, однако у многих людей эта аббревиатура вызывает неподдельный страх, так как вся научная фантастика по типу «Терминатора» или «Матрицы» как раз и представляет собой хоть и утрированное, но всё же изображение AGI.
- Генеративный искусственный интеллект (Generative AI). Технология искусственного интеллекта, способная генерировать уникальный текст, изображения, код, музыку и многое другое. Генеративные инструменты искусственного интеллекта основаны на моделях искусственного интеллекта, которые обычно обучаются на огромных объёмах данных.
- Вывод (Inference). Это тот результат, который выдаёт вам ИИ-модель после отправки запроса. Например, когда ChatGPT отвечает на запрос о том, как приготовить печенье с шоколадной крошкой, прислав подробный рецепт.
Наиболее популярные проблемы ИИ
- Галлюцинации (Hallucinations). Поскольку инструменты генеративного ИИ хороши лишь настолько, насколько хороши данные, на которых они обучены, порой они могут «галлюцинировать» или же, другими словами, уверенно выдумывать то, что, по их мнению, является наилучшим ответом на ваш вопрос. Эти галлюцинации, зачастую похожие на откровенную чушь, означают, что ИИ-системы могут допускать фактические ошибки или давать невразумительные ответы. В научных кругах даже существуют некоторые разногласия относительно того, можно ли будет когда-нибудь полностью избавиться от галлюцинаций искусственного интеллекта.
- Предвзятость (Bias). Галлюцинации — далеко не единственные проблемы, возникающие при работе с ИИ. Появление предвзятости обусловлено тем, что ИИ-системы запрограммированы простыми людьми, которые и сами склонны к предвзятости. Приведём пример: исследование от 2018 года, проведённое Джой Буоламвини и Тимнитом Гебру выявило, как программное обеспечение для распознавания лиц имело более высокий процент ошибок при попытке определить пол темнокожих женщин. Проблема крылась в том, что, когда система обучалась и модерировалась, входные данные не были представлены равномерно. То есть в базу для обучения модели изначально было внесено больше лиц белых людей, чем темнокожих. Исследователи могли просто не подумать о том, к чему приведёт данный перекос, и не придали ему достаточно внимания.
Типы ИИ-моделей
- Модель искусственного интеллекта (ИИ-модель). Модели искусственного интеллекта обучаются на данных, чтобы они могли выполнять задачи или принимать решения самостоятельно.
- Большие языковые модели (Large Language Models, LLM). Это такой тип модели искусственного интеллекта, который может обрабатывать и генерировать текст на естественном языке.
- Диффузионные модели (Diffusion Models). Модели искусственного интеллекта, которые во время обучения добавляют статический шум к объекту генерации. Позже, уже обученную модель раз за разом просят обращать процесс вспять, чтобы ИИ научился создавать максимально чёткое изображение. Подобные диффузионные модели могут работать не только с изображениями, но и с аудио / видео.
- Базовые модели (Foundation Models). Эти генеративные модели искусственного интеллекта обучаются на огромном объёме данных и, как следствие, могут стать основой для широкого спектра приложений без специальной подготовки для выполнения этих задач. GPT от OpenAI, Gemini от Google, Llama от Meta и Claude от Anthropic — всё это примеры базовых моделей. Многие компании также продвигают свои модели искусственного интеллекта как мультимодальные, что означает, что они могут обрабатывать несколько типов данных, таких как текст, изображения и видео.
- Пограничные модели (Frontier Models). В дополнение к базовым моделям компании, занимающиеся искусственным интеллектом, часто работают над тем, что они называют «пограничными моделями», что по сути является просто маркетинговым термином для обозначения их неизданных будущих моделей. Теоретически эти модели могут быть намного мощнее моделей искусственного интеллекта, доступных сегодня, хотя есть также опасения, что они могут представлять значительные риски
Обучение и связанные термины
- Обучение (Training) — это процесс, с помощью которого ИИ-модели учатся понимать данные определённым образом, анализируя наборы данных, чтобы они могли делать прогнозы и распознавать закономерности. Например, большие языковые модели были обучены путём «чтения» огромных объёмов текста. Это означает, что, когда инструменты искусственного интеллекта, такие как ChatGPT, отвечают на ваши запросы, они могут «понимать», что вы говорите, и генерировать ответы, которые звучат как человеческий язык и отражают суть вашего запроса.
- Обучающие данные (Training Data) — различные типы данных, которые в огромных объёмах скармливаются ИИ-моделям. Среди таких данных может быть текст, изображения, музыка и видео. Для обучения часто требуется значительное количество ресурсов и вычислительной мощности, и многие компании полагаются на мощные графические процессоры, помогающие в этом обучении.
- Параметры (Parameters) — это переменные, которые ИИ-модель изучает в ходе своего обучения. Они представляют собой числа внутри модели искусственного интеллекта, которые определяют, как входные данные (например, фрагмент текста подсказки) преобразуются в выходные данные (например, следующее слово после подсказки). Процесс «обучения» модели искусственного интеллекта заключается в использовании методов математической оптимизации для изменения значений параметров модели снова и снова, пока модель не станет очень хорошо преобразовывать входные данные в выходные. Другими словами, параметры модели искусственного интеллекта помогают определить ответы, которые они затем вам выдадут. Компании иногда хвастаются количеством параметров модели, чтобы продемонстрировать сложность этой модели.
- Токены (Tokens). Токены относятся к фрагментам текста, таким как слова, части слов или даже отдельные символы. Например, большие языковые модели разбивают текст на токены, чтобы они могли анализировать их, определять, как токены соотносятся друг с другом, и генерировать ответы. Чем больше токенов модель может обработать одновременно (количество, известное как её «контекстное окно»), тем более сложными могут быть результаты.
- TOPS. Эта аббревиатура, которая расшифровывается как «триллион операций в секунду», является термином, который поставщики технологий используют, чтобы похвастаться тем, насколько способны их чипы делать выводы с помощью искусственного интеллекта
Прочие важные термины
- Обработка естественного языка (Natural Language Processing, NLP). способность машин понимать человеческий язык благодаря машинному обучению. ChatGPT от OpenAI — простой тому пример. Он может понимать ваши текстовые запросы и генерировать текст в ответ. Ещё одним мощным инструментом, который может выполнять NLP, является технология распознавания речи Whisper от OpenAI, которую компания, как сообщается, использовала для расшифровки звука из более чем 1 миллиона часов видео на YouTube, чтобы помочь в обучении GPT-4.
- Трансформатор (Transformer). Трансформатор — это тип архитектуры нейронной сети, которая использует механизм «внимания» для обработки того, как части последовательности соотносятся друг с другом. Например, при запросе «Какого цвета небо?» модель-трансформатор использует внутреннее математическое представление, которое определяет релевантность и взаимосвязь между словами color, sky и blue. Она использует эти знания для генерации вывода «Небо голубое». Трансформаторы не только очень мощные, но и их обучение может занять куда меньше времени, чем у других типов нейронных сетей. С тех пор как бывшие сотрудники Google опубликовали первую статью о трансформаторах в 2017 году, они стали главной причиной, по которой мы сейчас так много говорим о генеративных технологиях искусственного интеллекта. Даже буква «Т» в ChatGPT расшифровывается как «Transformer».
- Retrieval Augmented Generation (RAG). Дословно переводится как «поисково-расширенная генерация». Когда модель искусственного интеллекта что-то генерирует, RAG позволяет модели находить и добавлять контекст за пределами того, на чём она была обучена, что может повысить точность того, что она в конечном итоге сгенерирует. Допустим, вы задаёте чат-боту вопрос, на который, исходя из его обучения, он не знает ответа. Без RAG чат-бот может просто выдать неправильный ответ. Однако с помощью RAG он может проверять внешние источники — например, другие сайты в Интернете — и использовать эти данные для обоснования своего ответа.
- Nvidia H100. Один из самых популярных графических процессоров, используемых для обучения ИИ. Многие компании настаивают на применении H100, потому что считается, что он куда лучше справляется с рабочими нагрузками искусственного интеллекта по сравнению с другими чипами искусственного интеллекта серверного уровня. И хотя чрезвычайный спрос на чипы Nvidia сделал её одной из самых ценных компаний мира, многие другие технологические компании разрабатывают свои собственные чипы искусственного интеллекта, которые со временем могут подорвать позиции Nvidia на рынке.
- Нейронные процессоры (Neural Processing Unit, NPU). Это специализированные процессоры в компьютерах, планшетах и смартфонах, которые могут выполнять логический вывод с помощью искусственного интеллекта прямо на устройстве, локально. Нейронные процессоры могут быть более эффективными при выполнении многих задач с использованием искусственного интеллекта (например, при добавлении размытия фона во время видеозвонка). NPU справляются с этой задачей быстрее и энергоэффективнее, чем центральный процессор или видеочип.
Популярные чат-боты, с каждым днём набирающие всё большую популярность:
- OpenAI / ChatGPT. Причина, по которой искусственный интеллект как явление сейчас настолько важен и вездесущ, вероятно, кроется именно в ChatGPT, чат-боте с искусственным интеллектом, который OpenAI выпустила в конце 2022 года. Взрывная популярность сервиса в значительной степени застала крупных технологических игроков врасплох, и теперь практически каждая вторая технологическая компания пытается похвастаться своим мастерством в области искусственного интеллекта.
- Microsoft / Copilot. Microsoft повсеместно внедряет Copilot, своего помощника по искусственному интеллекту, работающего на GPT-моделях от OpenAI, в максимально возможное количество фирменных продуктов. Технологический гигант также владеет 49-процентной долей в OpenAI.
- Google / Gemini. Google, в свою очередь, также стремится внедрить в свои продукты Gemini — нейронную сеть собственной разработки, по многим пунктам не уступающей конкурентам.
- Meta / Llama. Усилия Meta в области искусственного интеллекта сосредоточены на модели Llama (Large Language Model Meta AI), которая, в отличие от моделей других крупных технологических компаний, имеет полностью открытый исходный код.
- Apple / Apple Intelligence. Apple сейчас активно добавляет в свои продукты новые функции, ориентированные на искусственный интеллект. Одной из важных новых функций является доступность ChatGPT прямо внутри Siri. Это значит, что компания, подобно Microsoft, тоже использует наработки OpenAI, чтобы не распыляться на разработку собственной ИИ-модели.
- Anthropic / Claude. Компания Anthropic, плотно специализирующаяся на ИИ, была основана бывшими сотрудниками OpenAI. Amazon инвестировала в компанию 4 миллиарда долларов, в то время как Google вложил сотни миллионов (с потенциалом инвестировать ещё больше в будущем).
- xAI / Grok. ИИ-компания Илона Маска пока не может сравниться по масштабу с вышеозвученными игроками, однако недавно сумела привлечь финансирование в размере 6 миллиардов долларов.
- Perplexity — ещё одна компания, занимающаяся искусственным интеллектом. Она известна своей поисковой системой на базе искусственного интеллекта, которая попала под пристальное внимание общественности из-за кажущихся нечестными методов сбора данных.
- Hugging Face. Платформа, которая служит справочником для моделей и наборов данных искусственного интеллекта.
Заключение
На этом наш справочник по терминам ИИ подошёл к концу. Знание подобной терминологии в современном мире всё больше становится необходимостью, так как помогает отличать реальные инновации от маркетинговых уловок и принимать более осознанные решения при выборе технологий.
Понимание потенциальных проблем ИИ, таких как алгоритмическая предвзятость или так называемые «галлюцинации», позволяет нам более ответственно подходить к использованию ИИ-систем в различных сферах жизни. В то же время, осведомлённость о ключевых игроках рынка и их разработках даёт возможность участвовать в общественных обсуждениях будущего ИИ. Это важно для формирования этичного и полезного для общества направления развития технологий.
В целом, грамотность в области ИИ становится важным навыком в цифровом пространстве, помогая увереннее ориентироваться в быстро меняющемся технологическом ландшафте.