ии
April 7, 2024

Перспективы и проблемы применения криптовалют и искусственного интеллекта

https://t.me/CifLab

(перевод статьи Виталика Бутерина. Оригинал: https://vitalik.eth.limo/general/2024/01/30/cryptoai.html)

Многие люди на протяжении многих лет задавали один и тот же вопрос: какие пересечения между криптовалютами и искусственным интеллектом наиболее плодотворны?

Это вполне резонный вопрос: криптовалюты и ИИ - два главных тренда глубоких (программных) технологий последнего десятилетия, и кажется, что между ними должна быть какая-то связь. Легко придумать синергию на поверхностном уровне: децентрализация криптовалют может уравновесить централизацию ИИ, ИИ непрозрачен, а криптовалюты обеспечивают прозрачность, ИИ нужны данные, а блокчейн хорош для хранения и отслеживания данных.

Действительно, есть несколько перспективных применений ИИ в экосистемах блокчейна или ИИ вместе с криптографией, хотя важно быть осторожным в том, как применяется ИИ. Особая проблема заключается в следующем: в криптографии открытый исходный код - единственный способ сделать что-то действительно безопасным, но в ИИ открытость модели (или даже обучающих данных) значительно повышает ее уязвимость для атак противников машинного обучения. В этой статье мы рассмотрим классификацию различных способов пересечения криптографии и ИИ, а также перспективы и проблемы каждой категории.

Краткое описание взаимодействия криптовалют и ИИ


Четыре основные категории


ИИ - очень широкое понятие: вы можете считать, что "ИИ" - это набор алгоритмов, и эти алгоритмыобладают некоторыми общими свойствами: способностью делать чрезвычайно мощные вещи, а также ограниченностью наших возможностей узнать или понять, что происходит под капотом.

В данной статье мы будем классифицировать ИИ следующим образом:

  • ИИ как игрок в игре [наивысшая жизнеспособность]: ИИ, участвующие в механизмах, где конечным источником стимулов является протокол с человеческим вкладом.
  • ИИ как интерфейс к игре [высокий потенциал, но с рисками]: ИИ, помогающий пользователям разобраться в окружающем их криптовалютном мире и убедиться, что их поведение (т. е. подписанные сообщения и транзакции) соответствует их намерениям и их не обманывают и не мошенничают.
  • ИИ как правила игры [очень осторожно]: блокчейн, ДАО и подобные механизмы, напрямую вызывающие ИИ. Подумайте, например, о "судьях ИИ".
  • ИИ как цель игры [более долгосрочная, но интригующая]: разработка блокчейнов, ДАО и подобных механизмов с целью создания и поддержания ИИ, который можно использовать для других целей, используя криптовалютные биты либо для лучшего стимулирования обучения, либо для предотвращения утечки личных данных или использования ИИ не по назначению.

    Давайте рассмотрим их по порядку.

ИИ как игрок в игре


На самом деле эта категория существует уже почти десять лет, по крайней мере с тех пор, как начали активно использоваться децентрализованные биржи (DEX). В любой ситуации, когда есть биржа, есть возможность заработать на арбитраже, а боты могут делать арбитраж гораздо лучше, чем люди. Этот вариант использования существовал уже давно, даже с гораздо более простыми ИИ, чем те, что мы имеем сегодня, но в конечном итоге это очень реальное пересечение ИИ + криптовалюты. Совсем недавно мы увидели, как арбитражные боты MEV часто эксплуатируют друг друга. В любом блокчейн-приложении, связанном с аукционами или торговлей, обязательно появятся арбитражные боты.

Но арбитражные боты с искусственным интеллектом - это лишь первый пример гораздо более обширной категории, которая, возможно, вскоре начнет включать в себя множество других приложений.

Рынки предсказаний уже давно являются "святым Граалем", но пока что эти рынкине слишком прижились на практике, и на это есть ряд распространенных причин: крупнейшие участники часто иррациональны, люди, обладающие нужными знаниями, не хотят тратить время и делать ставки, если речь не идет о больших деньгах, рынки часто тонкие и т. д.

В конце концов, люди готовы ставить десятки миллиардов на спорт, так почему бы им не вложить достаточно денег в ставки на выборы в США или экономическое развитие Индонезии? Но этот аргумент должен столкнуться с тем фактом, что предыдущие итерации не смогли достичь такого масштаба. Поэтому в качестве другого ответа можно указать возможность повсеместного участия ИИ.

ИИ готовы работать менее чем за 1$ в час и обладают знаниями энциклопедии, а если этого недостаточно, их можно даже интегрировать с возможностью поиска в Интернете в режиме реального времени.

ИИ как интерфейс к игре


Одна из идей, заключается в том, что на рынке существует возможность написания программного обеспечения, ориентированного на пользователя, которое защищало бы его интересы, интерпретируя и выявляя опасности в онлайн-мире, по которому перемещается пользователь.

Одним из уже существующих примеров этого является функция обнаружения мошенничества в Metamask:

Другой пример - функция симуляции в кошельке Rabby, которая показывает пользователю ожидаемые последствия транзакции, которую он собирается подписать.

Потенциально такие инструменты могут быть дополнены искусственным интеллектом. ИИ мог бы давать гораздо более понятные человеку объяснения того, является ли конкретный токен подлинным . Есть проекты, которые начинают двигаться в этом направлении (например, кошелек LangChain, который использует ИИ в качестве основного интерфейса). Но вопрос состоит в том: являются ли интерфейсы с чистым ИИ в настоящее время безопасными или же они слишком рискованны? Есть один особый риск, о котором стоит упомянуть. Речь идет о машинном обучении противника: если у пользователя есть доступ к ИИ-помощнику в кошельке с открытым исходным кодом, у плохих парней тоже будет доступ к этому ИИ-помощнику, а значит, у них будет неограниченная возможность оптимизировать свои аферы так, чтобы не срабатывала защита кошелька. Во всех современных ИИ есть ошибки.

ИИ как правила игры

Конечно, мы можем проделать некоторую криптомагию и скрыть внутреннюю работу модели, чтобы злоумышленники не могли оптимизировать атаки, но в то же время доказать, что модель выполняется правильно и была построена с помощью разумного процесса обучения на разумном наборе базовых данных!

Но в случае с вычислениями, связанными с ИИ, есть два основных возражения:

  • Криптографические накладные расходы. Учитывая, что ИИ итак требует больших вычислительных затрат, можно ли вообще делать ИИ внутри криптографических черных ящиков с точки зрения вычислений?
  • Атаки на машинное обучение с использованием "черного ящика": есть способы оптимизировать атаки на модели ИИ, даже не зная многого о внутреннем устройстве модели. А если скрывать слишком много, то есть риск, что тому, кто выбирает обучающие данные, будет слишком легко испортить модель с помощью отравляющих атак.

Оба эти вопроса - сложные кроличьи норы, поэтому давайте разберемся в каждом из них по очереди.

Накладные расходы на криптографию


Криптографические гаджеты, особенно общего назначения, имеют высокие накладные расходы. Для прямой проверки блока Ethereum клиенту требуется несколько сотен миллисекунд, но генерация гаджета для доказательства корректности такого блока может занять часы.

Вычисления ИИ и без того дороги: самые мощные могут выдавать отдельные слова немного быстрее, чем человек может их прочитать. Плюс многомиллионные вычислительные затраты на обучение моделей. Разница в качестве между моделями высшего уровня и моделями, которые стараются больше экономить на стоимости обучения или количестве параметров, очень велика.

Однако, к счастью, ИИ - это очень специфический тип вычислений, что делает его пригодным для всевозможных оптимизаций.

Машинное обучение "черный ящик"


Теперь перейдем к другой большой проблеме: видам атак, которые можно совершить, даже если содержимое модели остается конфиденциальным и у вас есть только "API-доступ" к модели. Цитируем статью 2016 года:

Многие модели машинного обучения уязвимы к неблагоприятным примерам: входным данным, которые специально подготавливаются для того, чтобы заставить модель машинного обучения выдать неверный результат. Вредоносные примеры, которые влияют на одну модель, часто влияют и на другую модель, даже если эти две модели имеют разную архитектуру или были обучены на разных обучающих наборах, при условии, что обе модели были обучены выполнять одну и ту же задачу. Поэтому злоумышленник может обучить свою собственную модель-заменитель, создать против нее вредоносные примеры и передать их модели-жертве, имея при этом очень мало информации о ней.

По состоянию на 2024 год подобные атаки по-прежнему представляют собой серьезную проблему.

Чтобы эффективно бороться с этими видами атак "черного ящика", нужно сделать две вещи:

  • Ограничить, кто или что может запрашивать модель и в каком объеме. Черные ящики с неограниченным доступом к API небезопасны; черные ящики с очень ограниченным доступом к API могут быть безопасны.
  • Скрыть обучающие данные, сохраняя уверенность в том, что процесс, используемый для создания обучающих данных, не испорчен.

Но есть надежда, что если объединить все средства защиты вместе, скрыв саму модель ИИ, значительно ограничив количество запросов и потребовав, чтобы каждый запрос каким-то образом аутентифицировался, то атаки противника будут достаточно сложными, чтобы система могла быть безопасной.

И это подводит нас ко второй части: как мы можем скрыть обучающие данные?

Именно здесь "ДАО для демократического управления ИИ" может иметь смысл: мы можем создать внутрицепочечную ДАО, которая будет управлять процессом, кому разрешено предоставлять обучающие данные (и какие подтверждения требуются для самих данных), кому разрешено делать запросы и сколько их нужно, и использовать криптографические техники для шифрования всего процесса создания и работы ИИ от обучающих данных каждого отдельного пользователя до конечного результата каждого запроса. Такая DAO могла бы одновременно удовлетворять весьма популярной задаче вознаграждения людей за предоставление данных.

Важно еще раз подчеркнуть, что этот план очень амбициозен, и существует ряд способов, с помощью которых он может оказаться непрактичным:

  • Криптографические накладные расходы могут оказаться слишком высокими, чтобы такая полностью "черная" архитектура могла конкурировать с традиционными закрытыми подходами.
  • Может оказаться, что не существует хорошего способа сделать процесс предоставления обучающих данных децентрализованным и защищенным от атак отравления.
  • Многосторонние вычислительные гаджеты могут нарушить свои гарантии безопасности или конфиденциальности из-за сговора участников: в конце концов, такое уже неоднократно случалось с межцепочечными криптовалютными мостами.

В данный момент наше общество уже сильно зависит от неподотчетных централизованных судей ИИ: алгоритмов, которые определяют, какие посты и политические мнения получают поддержку, а какие нет, или даже цензуру, в социальных сетях.

ИИ как цель игры


Если описанные выше методы создания масштабируемого децентрализованного частного ИИ, содержимое которого является черным ящиком, не известным никому, действительно могут работать, то это также может быть использовано для создания ИИ с полезностью, выходящей за рамки блокчейна. Команда разработчиков протокола NEAR делает это основной целью своей текущей работы.

Если вы сможете создать "надежный черный ящик ИИ", запустив процесс обучения и вывода с помощью некоторой комбинации блокчейн, то множество приложений, где пользователи беспокоятся о том, что система может быть предвзятой или обмануть их, смогут извлечь из этого пользу.

Выводы


Сейчас, когда блокчейн и искусственный интеллект становятся все более мощными, растет число сценариев использования на пересечении этих двух областей. В целом, наиболее перспективными и легко реализуемыми являются случаи использования, когда основной механизм продолжает разрабатываться примерно так же, как и раньше, но отдельные игроки становятся ИИ, что позволяет механизму эффективно работать в гораздо более микромасштабном режиме.

Наиболее сложными для реализации являются приложения, которые пытаются использовать блокчейн и криптографические методы для создания единого децентрализованного доверенного ИИ, на который будет полагаться то или иное приложение для достижения определенных целей. Эти приложения многообещающи как с точки зрения функциональности, так и с точки зрения повышения безопасности ИИ, что позволяет избежать рисков централизации, связанных с более распространенными подходами к этой проблеме.

Однако существует множество способов, с помощью которых основополагающие предположения могут потерпеть неудачу; поэтому стоит быть осторожными, особенно при развертывании таких приложений в контекстах с высокой ценностью и риском.

С нетерпением ждем новых попыток конструктивного использования ИИ во всех этих областях, чтобы мы могли увидеть, какие из них действительно жизнеспособны в масштабе.

Еще больше на телеграм-канале: https://t.me/CifLab