Открытие хакатона «Agentic AI Against Aging»
- Vita Stepanova: Как устроен kick‑off — партнёры, идеи жюри, вызовы
- Alexey Strygin: Почему целимся в старение — структура хакатона, треки, призы, роль агентных ИИ
- Sujee Maniyam: Nebius Studio для агентных пайплайнов — открытые модели, кредиты, cookbook, поддержка
- Derya Unutmaz: Реверсия старения как инженерная задача — биосингулярность и персональные агентные системы
- Peter Fedichev: Agentic AI для того, что раньше было невозможно
- Konstantin Avchaciov: Двухагентный конвейер извлечения активностей лиганд–мишень из патентов
- Issac Wang: Immortal Dragons и муншоты долголетия — мост Азия–Запад и коллаборации
- Laura Minquini: Женское долголетие как поле данных
- Erik Van Winkle: Агент Aubrey de Grey и устойчивое финансирование через сообщество
- Andrey Tarkhov: От факторов Яманаки к дизайну белков
- Petr Lidsky: Singularis — граф гипотез, методов и результатов вместо монолитных статей
- Valerii Pavlov: Фенотипическая база для долголетия — связь генов и признаков по видам для моделей кривых смертности
- Dmitry Kruikov: Конструктивные теории старения
- Vlad Vinogradov: Бенчмарк прогноза исходов клинических испытаний
- Albert Kejun Ying: Агент систематического обзора и метаанализа
- Alex Dekan: Как оценивать метаагентов — точность извлечения, корректность статистики, воспроизводимость
- Alex Beatson: Предсказание DILI с учетом дозы — преклиника и клиника, метрики и валидация
- Aubrey de Grey: Комбинированные вмешательства и инженерный подход вместо универсальных теорий старения
- Alexey Strygin: Rapid adoption — от демо к продукту
Vita Stepanova: Как устроен kick‑off — партнёры, идеи жюри, вызовы
Я открываю двухчасовой kick-off и буду вести вас через всю сессию. В первой части час, посвящённый спонсорам и партнёрам: к нам присоединится жюри, чтобы представить свои идеи по долголетию. Затем мы переключимся на вызовы хакатона; для них позже будет отдельная Q&A‑сессия. Сегодня моя задача — дать вам целостную картину всего, что у нас на столе, и подчеркнуть: это не финальная точка — ответы и уточнения продолжатся на Q&A. Я проведу вас по всей программе, чтобы вы получили максимум контекста с самого начала. Сначала — наш общий обзор, затем блок партнёров и идей жюри, после чего перейдём к задачам. Пожалуйста, не считайте сегодняшние вводные исчерпывающими: основная дискуссия и ответы на вопросы пройдут позже, на отдельной сессии.
Представлюсь. Я — Вита, один из организаторов. Я искренне рада видеть всех вас, потому что уверена: мы здесь, чтобы бросить вызов старению, опираясь на революцию в области ИИ. Мы также поделимся некоторыми уроками и кейсами из прошлых вызовов.
Сразу после коротких вступительных слов от меня и Алексея наш партнёр Jirro покажет, что уже было сделано в этом направлении. Я верю, что на этот раз мы увидим ещё больше новых решений, свежих идей и стартов проектов.
Итак, начнём с краткого обзора от Алексея — ещё одного соорганизатора хакатона. Он объяснит, почему мы решили провести хакатон именно в таком формате и с такой структурой. Алексей, слово тебе.
Alexey Strygin: Почему целимся в старение — структура хакатона, треки, призы, роль агентных ИИ
Спасибо, Вита. Надеюсь, вы видите мою презентацию. Для начала — пара фактов. Для нас это честно ошеломительный старт: зарегистрировалось около 820 участников. Команда проделала огромную работу, спасибо им — давайте мысленно поаплодируем. Пару слов обо мне: я уже 12 лет в долголетии, на этом хакатоне веду rapid adoption‑трек и отвечаю за партнёрства. Наша команда — в основном энтузиасты и волонтёры, поэтому прошу с уважением относиться друг к другу и к организаторам. Мы здесь не за деньгами — мы здесь, чтобы бить старение и жить долго и здорово.
Короткий crash‑course — почему мы целимся именно в старение. Почти все болезни, которые убивают людей сегодня, растут с возрастом экспоненциально. Если мы таргетируем старение как процесс, мы можем отложить эти заболевания почти на неопределённый срок. По сути речь о том, чтобы «обмануть биологию» — не дать организму войти в режим деградации в старшем возрасте. Масштаб проблемы — около 110 000 смертей в день от причин, связанных со старением. Представьте метеорит, который каждый день сравнивает с землёй город на 100 тысяч — человечество подняло бы на ноги всё. Но к старению мы притупились и не реагируем как следует. Поэтому я хочу, чтобы этот хакатон стал нашим симметричным ответом: агентные ИИ снимают узкие места и ускоряют весь цикл «гипотеза → данные → эксперимент → валидация».
Есть и финансовый парадокс. Многие думают, что «миллиардеры всё решат». На практике, по расчётам Longevity Biotech Fellowship, лишь около 0,01% их совокупного капитала уходит на исследования старения. Лучший пример среди них — Кристиан Ангермайер: по моей оценке, он направляет 3–7% состояния на борьбу со старением. И ещё один факт: в мире всего порядка 10 000 людей реально работают над решением этой проблемы. Это размер одной неплохой конференции или меньше, чем футбольный стадион. Значит, нам нужна «армия» ИИ‑агентов, чтобы резко поднять пропускную способность науки и инженерии. В этом и есть смысл нашего хакатона.
Мы разделили программу на два трека. Первый — фундаментальный: хорошо определённые, кураторские вызовы с понятной валидацией. Это для тех, кто хочет взять чёткую постановку и сделать качественную работу; естественные исходы — публикации, коллаборации с компаниями, предложения работы. Второй — rapid adoption, его веду я (при поддержке Bio и Виты): это для тех, кому нужна свобода, кто хочет запустить агента в реальном мире, основать стартап или монетизировать созданное. Я отдельно расскажу про этот трек позже, через час–полтора.
Большое спасибо вычислительному спонсору Nebius. Каждой команде мы выдаём вычислительные кредиты; если вдруг вы их исчерпаете, можно запросить дополнительные в Discord. Использовать свою инфраструктуру не запрещено, но мы рекомендуем протестировать их AI Studio — это удобный способ быстро развернуть пайплайны.
Теперь о призах. Самые важные — нематериальные. Мы ускоряем прогресс в области долголетия. Уже один факт регистрации ~820 человек — это около 8% от всех, кто профессионально работает над продлением жизни в мире. Если мы добавим к людям «армию» ИИ‑агентов, мы реально ускорим ход событий, и наши родители, любимые, дети проживут дольше и здоровее. Плюс — сообщество: новые друзья, потенциальные ко‑фаундеры, единомышленники. Плюс — карьера: можно найти работу или коллаборацию; в моём треке уже многие VC согласились смотреть на лучшие команды, ангелы тоже, а мы поможем показать вас партнёрам и «ускорить агента».
Материальные призы такие. В фундаментальном треке — по $3 000 (USDT) на каждый вызов; всего вызовов около восьми. Есть повышенный приз от Athena DAO за проекты по женскому долголетию и женскому здоровью. В rapid adoption два победителя получают по $2 500. От Immortal Dragons — дополнительный приз $2 000. И ещё три приза от Nebius — в виде вычислительных кредитов. В сумме — почти $40 000 плюс ресурсы.
И да, у нас параллельно идёт мем‑хакатон, и мы продлили дедлайн до конца основного хакатона — финишируют одновременно. Хочется передышки — сделайте мемы и выложите. Я даю полное согласие на мемы про меня — вперёд и с удовольствием. Давайте получать удовольствие и при этом бить старение.
Sujee Maniyam: Nebius Studio для агентных пайплайнов — открытые модели, кредиты, cookbook, поддержка
Я — Sujee Maniyam, developer advocate Nebius.
Мы — глобальная компания, и мы предоставляем ИИ‑инфраструктуру: вы можете запускать свои модели и хостить их у нас. Важная деталь — мы владеем всей цепочкой от «железа» до софта, который его управляет. Это даёт нам сильную производительность и выгодную экономику — мы вполне честно конкурируем ценой.
Наши продукты — Nebius Cloud и Nebius Studio. Для хакатона вам, скорее всего, нужна именно Studio. В Studio — удобный UI и каталог примерно из 65 открытых моделей, включая все свежие релизы этого лета. Лето было крайне урожайным для open‑source, и все эти модели у нас уже доступны — выбирайте и запускайте.
Если смотреть на бенчмарки, мы стабильно в топ‑тиере по трём осям: производительность, цена и точность. Разрыв между открытыми и закрытыми моделями сейчас минимален — и это отличный момент, чтобы опираться на OSS.
Кредитная программа: на слайдах есть промокод — он даёт вам ощутимый объём кредитов, чтобы свободно поэкспериментировать. Мы разошлём деку со всем необходимым в каналах хакатона.
Нужны примеры? У нас есть «cookbook» — сборник готовых рецептов: и агенты, и прикладные демо, с которых удобно стартовать. Поддержка — в Discord: подключайтесь по коду со слайда, заходите в канал AI Studio Support, задавайте вопросы — мы мониторим и отвечаем оперативно.
Всем отличного хакатона — удачи с агентами и быстрых итераций!
Derya Unutmaz: Реверсия старения как инженерная задача — биосингулярность и персональные агентные системы
Прежде всего хочу поздравить организаторов и всех участников — это феноменально. Я не ожидал, что подадут заявки более восьмисот человек. Это показатель огромного интереса к теме старения — возможно, благодаря ИИ. Для меня это, без преувеличения, самая важная задача, которая стоит перед человечеством. Я не могу представить ничего более значимого.
Я по образованию врач, но уже около тридцати пяти лет занимаюсь исследовательской работой. Я иммунолог: изучаю иммунную систему, иммунное старение, пробую регенеративные подходы. Но главный вопрос, который меня по‑настоящему волнует, — можем ли мы не просто «здорово стареть», добавляя пару лет к жизни, а реально повернуть старение вспять? Речь не о том, чтобы прибавить два‑три года к среднему возрасту. Речь о том, чтобы вернуть семидесяти- и восьмидесятилетнего человека к состоянию двадцати–тридцати лет, прибавив десятки, а может быть и сотни лет жизни.
Долгое время это звучало как научная фантастика. Двадцать лет назад я сформулировал концепцию «биосингулярности» — по аналогии с идеями Вернора Винджа и Рэя Курцвейла о технологической сингулярности. Смысл был в том, что из‑за экспоненциального роста вычислений, ИИ и биологических технологий мы придём к моменту — где‑то в 2040‑х — когда сможем иметь полное инженерное понимание биологических систем. Не просто наблюдать, а именно ре‑инженерить их — вплоть до процессов старения. У меня даже был блог под это — «biosingularity», он до сих пор где‑то существует.
Почему это не фантастика? Потому что биология — не магия. Это физически реализуемая, вычислимая и предсказуемая система. Мы знаем, что даже если вмешаться в одну из миллиардов составляющих, эффект можно предсказать — именно поэтому лекарства работают, именно поэтому работают биомаркеры. Если ввести терапию, можно ожидать закономерного ответа системы. И наоборот: по одному биомаркеру — вроде глюкозы — можно предсказать риск заболевания, хотя «под капотом» миллиарды взаимодействий.
Есть ещё одна причина, почему это реально: живые системы — самовосстанавливающиеся и саморемонтирующиеся. Наш организм постоянно обновляется и чинит себя. Иначе мы бы начинали стареть буквально с рождения. Когда же механизм самовосстановления ломается, мы видим драматические примеры — как при прогерии, когда дети к восьми годам выглядят столетними. А если посмотреть на разных представителей животного мира, диапазон возможностей потрясающий: гренландские киты живут сотни лет, а некоторые крабы — возможно, около тысячи. Значит, «коридор» потенциальной продолжительности жизни колоссален, и жёсткого верха, вероятно, нет. В каком‑то смысле мы «по природе» бессмертны — вопрос в том, как управлять сложностью.
И вот здесь в игру входит ИИ. Биология невероятно сложна — триллионы компонентов и процессов, и всё это динамически меняется. Человеческий мозг просто не создан для того, чтобы удерживать такое количество переменных. Но для ИИ это естественный масштаб. Агентные системы уже сейчас помогают нам быстрее понимать, предсказывать и проектировать биологию — от клеточных процессов до системного уровня.
Важно, что агентный ИИ — это не только инструмент лаборатории. В ближайшем будущем у каждого может появиться персональная агентная система, которая будет предсказывать события в вашем организме по миллиардам параметров в реальном времени и подсказывать персонализированные вмешательства. Это означает не просто более раннюю диагностику, а активное управление траекторией старения — на уровне образа жизни, терапии, возможно, редактирования или перепрограммирования, когда это уместно и безопасно.
Возвращаясь к главному вопросу — можем ли мы повернуть старение вспять? Я считаю, что да. Для этого нам нужно сочетание двух вещей: инженерного подхода и агентного ИИ. Инженерный подход — значит, не ждать «единого ответа» сверху, а строить конвейеры знания: гипотеза → эксперимент → данные → валидация → следующая гипотеза. Агентный ИИ делает этот цикл достаточно быстрым, чтобы сложность перестала нас подавлять. Он структурирует литературу, подсказывает эксперименты, интегрирует данные, выявляет причинные связи, не теряя нить в многоуровневой системе. Всё остальное — время и дисциплина, и это то, что у нас как раз появляется.
Конечно, путь непростой. Нам нужны ткани и кровь, хорошие биобанки и продольные исследования, чтобы ИИ было на чём учиться. Нам нужна смелость ставить вопросы не на уровне «добавить два года», а на уровне «вернуть сорок лет». Нам нужна экосистема, где отрицательные результаты так же ценятся, как и положительные — потому что они экономят всем годы и деньги. Но самое главное — у нас впервые есть технологии, которые позволяют рассчитывать на ответ. Не просто на улучшение симптомов, а на реальную реконфигурацию биологических процессов.
Я очень рад быть частью этого события. Спасибо организаторам за приглашение и всем вам — за желание решать самую важную задачу нашего времени. Думаю, нас ждёт очень интересная работа — и я с нетерпением жду результатов.
Peter Fedichev: Agentic AI для того, что раньше было невозможно
Спасибо большое за приглашение и поздравляю с масштабом события — я даже занижал цифры, когда делился в соцсетях. Я представляю команду, которая использует ИИ, чтобы лучше понимать биологию и находить новые терапевтические мишени против хронических заболеваний и старения. Наша миссия — добиться интервенции против старения в течение нашей жизни. Я искренне верю, что с ИИ и машинным обучением мы можем выводить лекарства, которые работают лучше, чем нынешние классы.
Чтобы к этому прийти, нам нужны серьёзный прогресс и готовность к неортодоксальным решениям — и в открытии целей, и в дизайне молекул, и в том, как мы переводим всё это в клинику (дизайн испытаний, стратегии валидации). Это требует понимания и интеграции массивов данных: человеческая клиника, биология человека и модельных организмов, омика и т.д. Именно поэтому agentic AI — это не «ещё одна модная аббревиатура», а реальный следующий уровень поверх классического ML: агенты помогают разбирать сложные корпуса, связывать разрозненные источники и автоматизировать то, что у людей раньше занимало месяцы и годы.
Мы впервые попробовали «агентный хакатон» несколько месяцев назад — при поддержке некоторых людей, которые здесь сегодня. Мы открыли одну из наших задач и пригласили всех желающих. В итоге больше шестидесяти человек активно работали над проблемой. Через несколько дней появились подходы, которые выглядели как реальные решения. Мы наняли нескольких авторов, и уже через два с небольшим месяца у нас оказалось нечто, всё больше похожее на рабочую систему. Мы верим, что это даст ощутимый эффект — и уже скоро вы услышите подробности. Прямо сейчас мой коллега Константин расскажет конкретный пример.
Хочу поделиться ключевой мыслью. Сегодня большинство используют агентные системы, чтобы делать привычные вещи «на стероидах» — быстрее, дешевле, масштабнее. Это полезно, но не прорыв. Реальный эффект приходит там, где агентный ИИ делает то, что мы сами сделать не можем: извлечь неописанные факты из корпусов, соединить разноформатные источники, «прожевать» такой объём литературы и патентов, который для людей практически непосилен, увидеть структуру в хаосе неоднородных данных. Вот там настоящая ценность.
Поэтому у меня просьба ко всем, кто участвует: думайте не только «что ускорить», а «что раньше было невозможно». Сформулируйте такие задачи, приходите к организаторам — в этом и есть смысл подобных событий. Когда сотни людей одновременно обдумывают agentic‑подходы к долголетию, побочный эффект — мы получаем лучшие постановки, чем те, с которых начинали. Как меня учили наставники: отсутствие воображения — настоящая проблема; отсутствие времени и ресурсов — всего лишь неудобство.
Ещё раз поздравляю с хакатоном. Уверен, что за эти две недели появятся не только решения, но и более сильные проблемы — в хорошем смысле, проблемы правильной постановки, которые двигают область вперёд. А теперь передаю слово Константину — он покажет, что именно могут делать агенты в реальной биотех‑задаче.
Konstantin Avchaciov: Двухагентный конвейер извлечения активностей лиганд–мишень из патентов
Спасибо. Я был ментором на нашем первом «агентном» хакатоне и, честно, был изрядно взволнован — но именно тесная работа с менторами и постоянная коммуникация между командами делает задачу выполнимой. Чем больше вы обсуждаете друг с другом и с нами, тем лучше будут результаты.
Наша проблема и цель просты в формулировке и сложны на практике: использовать большие языковые модели и агентные пайплайны, чтобы извлечь гораздо больше экспериментальных данных для задач drug discovery — в первую очередь по связке лиганд–белок (activity/affinity), — и тем самым сузить «воронку» до считаных кандидатов, которые стоит проверять в лаборатории и клинике. Сегодня конвейер выглядит так: мы начинаем с десятков и сотен тысяч соединений, а лабораторные тесты обходятся очень дорого. Мы хотим «отдать» первый, самый широкий отсев ИИ‑агентам и возвращать на стол экспериментаторов уже короткий список разумных гипотез.
Почему это трудно? Во‑первых, данные. У современных моделей колоссальные мощности, и эмпирическое правило «10× данных на параметр» здесь никуда не девается. Лучшие открытые наборы по лиганд–белок до недавнего времени — порядка 3 млн примеров, и это явно мало. В отличие от CV или NLP, вы не можете честно «аугментировать» такие данные до бесконечности — химия и биофизика жёстко ограничивают фантазию. Значит, нужно находить новые, большие источники фактов.
Во‑вторых, источники эти существуют — просто они тяжело добываемы. Пример: BindingDB оценивает, что примерно 40% записей активности взяты из патентов США — и это извлечение из порядка 8 тысяч документов. Но только в одном крупном открытом корпусе — около 11 миллионов патентов, где лежат описания соединений, мишеней и результатов. Есть и платные лицензионные наборы на 10–30 миллионов записей — косвенно это подтверждает, что «добывать» есть что.
Что мы сделали в пилоте (это как раз результат прошлого хакатона). Мы построили двухагентный конвейер:
- Первый агент дешёво и жёстко отбирает релевантные фрагменты: есть ли в документе вообще признаки активности/аффинности, стоит ли «тратить токены» на глубокий разбор, какие секции и таблицы приоритетны.
- Второй агент «размечает» сущности и факты: нормализует названия лигандов и белков, связывает пары лиганд–мишень, извлекает численные значения активности/аффинности (Ki, Kd, IC50 и т.п.) со всеми единицами, условиями, режимами, фиксирует контекст (организм/клеточная линия, температура, pH и т.д.).
- После этого у нас — нормализация, валидация, устранение дубликатов и сборка финальной таблицы с прозрачным провенансом (откуда взято, какой фрагмент, какие преобразования применены).
Мы начали сотрудничать с командой Lazarus — это одна из команд‑победителей прошлого хакатона — и за два месяца продвинули идею до состояния, где уже готовим научную публикацию. По масштабу данных ориентируемся на 5–20 миллионов записей — это то, что, по нашим оценкам, действительно «кормит» современные модели.
Текущий статус. Мы пропустили через конвейер более 6 000 патентов из короткого временного среза и извлекли примерно 50 000 записей активностей. Из них около 10% «знают» открытые базы (то есть пересекаются с известными наборами), а ~90% — новые относительно публичных источников. Для пересечений с эталонами видим высокую корреляцию по значениям — это хороший знак качества, учитывая, что всё извлечение сделано языковыми моделями. Для области, где данные исторически собирали вручную «армии аннотаторов» десятилетиями, это серьёзный прогресс за месяцы.
Важно: «продуктовый» уровень — это не только извлечение, но и инженерия качества. Нам ещё предстоит нормально решать проверку единиц измерения, ловить пограничные кейсы распознавания таблиц, прозрачно трекать провенанс, следить за обновлениями корпусов и уметь переобучать/дообучать компоненты без деградации. Но уже сейчас видно, что агентный подход снимает ключевые узкие места — по скорости, по покрытию источников и по цене на запись.
Почему хакатон — хорош для всех. Для участников — это быстрый вход в науку и индустрию: вы решаете реальную задачу, и если у вас получается, мы продолжаем вместе. Для компаний — это способ быстро проверить идеи и найти таланты. Я надеюсь, что мы доведём начатое, опубликуем результаты и сделаем вклад (да, считайте это «донейшеном» в науку о долголетии) — и в данные, и в инструменты.
И последнее. Пожалуйста, работайте с менторами и разговаривайте друг с другом. Чем больше вы делитесь промежуточными находками и болями, тем быстрее вырастает общее решение. Агентные конвейеры — это командный вид спорта: от отбора источников до валидации и упаковки в воспроизводимые артефакты.
Issac Wang: Immortal Dragons и муншоты долголетия — мост Азия–Запад и коллаборации
Доброе утро! Рад видеть такую активность — в этом звонке сейчас около 156 участников. Я Айзек Ван, Immortal Dragons — целенаправленный фонд долголетия из Сингапура. Мы фокусируемся на seed, pre‑seed и bootstrapping компаний с радикальным продлением жизни и «муншот»‑идеями в долголетии. Поддерживаем направления, которые традиционные венчуры недофинансируют: искусственные матки, замены всего тела, генные терапии — смелые, трудные, но потенциально трансформационные технологии.
Помимо инвестиций, мы много делаем для евангелизации темы долголетия по всему миру: спонсируем события и конференции, публикуем книги, чтобы у темы был голос и фактура для широкой аудитории. Важная часть нашей миссии — связать Восток и Запад. У нас глубокие корни в Азии, и мы регулярно соединяем исследователей, фонды, венчурные фирмы, CRO, а также ведущих профессоров из азиатских и китайских университетов с проектами, которым это действительно нужно. Так создаются цепочки сотрудничества, без которых ни одна «муншот»‑идея не дойдёт до клиники и рынка.
Для нас это первое участие в хакатоне по долголетию. Очень интересно увидеть, к каким результатам вы придёте к концу хакатона — мы с большой симпатией относимся к формату, где идеи быстро обрастают прототипами и обратной связью. Если у вас есть вопросы, заявки или вы хотите поделиться идеей для потенциальных инвестиций и коллабораций — заходите на наш сайт id.life. Там есть все способы связаться с нами и командой.
Спасибо, и желаю всем очень продуктивной сессии — смелых гипотез, аккуратной валидации и партнёрств, которые переживут рамки хакатона.
Laura Minquini: Женское долголетие как поле данных
Спасибо за приглашение и за организацию — у вас потрясающая программа и сильные партнёры. Я — Лаура Минкини, представляю Athena DAO: мы — децентрализованная платформа, которая объединяет оценку (научный due diligence), образование и финансирование в женском здоровье с прицелом на женское долголетие. Я люблю формулировку, которой мы руководствуемся: мы строим поле женского долголетия.
Наш трек‑рекорд на сегодня. Мы оценили примерно 400 проектов со всего мира — от академических лабораторий и университетов до стартапов. Провели пять исследовательских когорт (calls for submissions) по темам: овариальное долголетие, ПКЯ и репродуктивные технологии/данные, эндометриоз, гинекологические онкологии. Совокупно профинансировано свыше $1 млн, поддержано шесть лабораторий, опубликованы три препринта, выданы 25 стипендий/феллоушипов. Команда научной экспертизы включает молекулярных биологов, клиницистов (MD), нейробиологов и вычислительных биологов. Мы строим end‑to‑end экосистему на пересечении академии, биотеха и венчура: делаем качественный due diligence, токенизируем и финансируем исследования с высоким трансляционным потенциалом, сопровождаем спин‑ауты из лабораторий.
Почему именно сейчас и почему именно женское долголетие? Главная проблема — данные. ИИ все вдохновляет, но алгоритм бессилен без данных. Женское здоровье структурно отстаёт примерно на 30 лет: женщины стали обязательной популяцией в клинических испытаниях совсем недавно, а без тканей и крови — без реальных биоматериалов — вы не построите достоверные модели для открытия лекарств. Риск в том, что ИИ «оставит женщин позади», если мы не исправим это сейчас: можно иметь «прекрасный алгоритм», но без данных он ничего не сделает.
Вторая проблема — финансирование. Я покажу любимый «мем‑слайд» наших друзей из Healthspan Capital: направления female‑specific longevity получают меньше денег, чем… питомцы. И это при том, что женщины — половина населения планеты. Если мы действительно двигаем долголетие вперёд, игнорировать женскую половину — стратегическая ошибка.
Теперь — об овариуме. Овариум — отличный орган для изучения долголетия. Это единственный орган у человека, который «умирает» в течение жизни — и из‑за этого он идеально подходит для продольных исследований, сопоставлений и вмешательств. Об этом годами говорит, среди прочих, д‑р Jennifer Garrison. Если вы в долголетии и ищете мощную, но недооценённую точку приложения — посмотрите на овариум.
Наши вызовы на этот хакатон:
1) Квантифицировать ценность отсрочки менопаузы. Собрать и проанализировать доступные датасеты о социально‑экономических эффектах менопаузы: продуктивность, участие в рабочей силе, стоимость здравоохранения. Наша цель — получить конкретные числа, которыми можно оперировать в диалоге с донорами, инвесторами, регуляторами, работодателями. Нам нужны цифры, а не только нарративы.
2) Персонализированные модели «вех» менопаузы. Симптомы появляются неравномерно, различаются у разных женщин, меняются во времени. Нужно разработать способ собирать, анализировать и представлять эти траектории так, чтобы их можно было подключать к более крупным агентным моделям. Это про структуру данных, про онтологии симптомов/событий и про связку с механизмами и вмешательствами.
Призы Athena DAO за каждый из двух вызовов — по 4 000 ATTH. Мы надеемся, что для кого‑то это станет топливом для первых версий продукта или исследовательской инициативы. У нас уже есть два профинансированных проекта, где ИИ помогает ускорять фертильность и работать с менопаузой; один из них связан с командой, о которой сегодня уже говорил Пётр. К подготовке наших задач причастны Nicholas и один из немногих активно практикующих исследователей овариального старения — д‑р Joshua Johnson. Мы здесь, чтобы помогать: наука, методология, доступ к данным, менторинг.
И — приглашение. Даже если вы мужчины и даже если вы пока не глубоко в женском здоровье — присоединяйтесь. Сообщество Athena DAO — около 35 000 человек по всему миру, мы очень активны и открыты. Мы будем участвовать и в других хакатонах (включая Лондон). Нам нужны инженеры, учёные, продуктологи, дизайнеры — и, конечно, команды, которые возьмут наши вызовы и доведут их до результатов.
Повторю главную мысль. Если мы строим долголетие, мы не можем позволить себе, чтобы ИИ «пролетел» мимо женщин из‑за нехватки данных. Нам нужно закрывать разрыв: собирать правильные наборы, делать их пригодными для ИИ, тестировать интервенции и масштабировать то, что работает. Овариум — одно из лучших мест, чтобы начать, потому что он даёт ясную биологическую ось и измеримый эффект. Мы здесь, чтобы поддержать вас — и будем очень рады сотрудничеству.
Erik Van Winkle: Агент Aubrey de Grey и устойчивое финансирование через сообщество
Спасибо за приглашение. Я — Erik Van Winkle, отвечаю за операции в Bio Protocol. Коротко покажу, как мы строим новый слой финансирования науки, завязанный на экономику внимания, и почему это важно для долголетия.
Мы запускаем лаунчпад, где представлены научные проекты, DAO и ИИ‑агенты — и уже есть запуски, которые работают в реальном мире. Самый яркий кейс — агент «Aubrey de Grey». Мы вместе с Обри обучили агента на материалах его лаборатории, чтобы обеспечить высокий уровень фактической строгости и полезности для научной аудитории. Агент общается с большим комьюнити в X/Twitter, развивается, мы его постоянно улучшаем — работа продолжается.
Как это превращается в финансирование? Мы используем простую механику: 1% транзакционного налога с оборота токена агента направляется на исследования. Это «налог внимания»: чем больше людей взаимодействуют с агентом и токеном, тем стабильнее поток средств в науку. На сегодня по «Aubrey» одобрено к перечислению порядка $270–300 тысяч — эти средства пойдут на исследования (RMR2) в лаборатории де Грея. Вокруг агента сложилось активное сообщество; в ходе взаимодействий собрано уже порядка 2 500 гипотез — разного уровня качества, но среди них есть такие, которые наша научная команда посчитала достойными токенизации и последующего доведения до интеллектуальной собственности. И важная деталь: сам агент удерживает долю токенов, формируя для себя самоподдерживающийся источник финансирования, независимый от классических грантов.
Чего мы ждём от вас в рамках хакатона. Мы зовём команды помочь нам вместе с агентом «Aubrey de Grey» генерировать новые качественные гипотезы — именно те, которые:
- новы, а не ретеллинг литературы;
- имеют реальный маршрут к эксперименту (понятная постановка, измеримые эндпойнты, доступные методики);
- органично рождаются из коллаборации «человек ↔ агент»: человек ставит направление и критерии, агент помогает систематизировать литературу, стыкует факты, предлагает варианты.
Мы не говорим, что это замена классическим источникам финансирования. Но это новый устойчивый слой, который вяжется с тем, что уже происходит в интернете: внимание монетизируется, а мы направляем эту монетизацию на науку. В результате появляются не только деньги, но и «коллективный мозговой штурм» — тысячи глаз, которые вместе с агентом просеивают поле гипотез.
Подытожу. У нас есть работающий пример (агент «Aubrey de Grey»), есть понятная механика финансирования (1% транзакционного налога), есть значимые суммы, и есть живое сообщество, которое генерирует идеи. Ваша задача на хакатоне — усилить этот процесс и показать, как агентные подходы дают хорошие гипотезы с ясным путём к эксперименту. Спасибо — и будем рады ответить на вопросы в ближайших сессиях.
Andrey Tarkhov: От факторов Яманаки к дизайну белков
Спасибо за приглашение. Мы — Retro Biosciences, компания по продлению здоровой жизни. Четыре года назад мы стартовали в Редвуд‑Сити (Калифорния), привлекли $180 млн и сейчас нас около 70 человек. Наша миссия — прибавить как минимум 10 лет здоровой жизни, а лучше больше. У нас три терапевтических направления: две программы в области клеточных/генных терапий и одна — по малым молекулам.
Недавно мы совместно с командами OpenAI использовали их лучшие модели, чтобы ре‑инженерить факторы Яманаки. Мы добились резкого роста эффективности — детали можно посмотреть в нашей публикации. Этим кейсом я хочу подчеркнуть главное: большие модели, если их правильно снабдить доменными данными (структуры, эволюция, ко‑эволюция), способны не просто «пересказывать литературу», а реально подсказывать рабочие молекулярные решения.
Задача для хакатона. Я хочу, чтобы вы «поиграли в переводчиков» между последовательностью и функцией белка. Аминокислоты для белков — как слова для языка, а современные трансформеры умеют «читать» зависимость между «словами» и «смыслом». Возьмите любой белок, который вам интересен (или сделайте общий инструмент под любой белок на входе) и постройте агентный конвейер, который на основе последовательности и дополнительных источников подсказывает функциональные гипотезы (варианты замен, доменные изменения, конструкты), релевантные целям долголетия.
Как усиливать LLM:
— Общие знания модели + структурные/эволюционные данные. Я ожидаю, что вы соедините «энциклопедическую» базу LLM с фактами об эволюции (консервация/дивергенция по видам), структурой (домены, вторичная/третичная организация), ко‑эволюции (ковариации позиций) и экспериментальными фактами из литературы.
— Внешние базы и справочники. Используйте любые хорошие онтологии и базы по белкам/доменам/семействам, источники вроде вики‑баз (в духе Future House и аналогов), каталоги по aging‑генам (GeneAge и др.), «карты» взаимодействий и известные мутации.
Где фокус (долголетие):
— Сравнительная и эволюционная геномика долголетия. Смотрите на виды с высоким временем жизни (киты, летучие мыши и др.) и короткоживущие аналоги; ищите консервацию/вариации в интересующих белках и семействах.
— Генетические вмешательства. Подтягивайте данные по мутантным штаммам, knockout/knockin, overexpression в дрожжах, нематодах, мухах, мышах; учитывайте человеческие варианты (включая GWAS по долголетию).
— Уровень описания. Можно работать на уровне аминокислотных замен, а можно подняться до доменов/мотивов/семейств (course‑graining). Выберите стратегию: широкий охват (много белков, мелко) или узкий, но глубокий (несколько целей, но детально).
Ключевой исследовательский вопрос. Может ли итоговый инструмент/база предложить правку/мутацию, которая (в перспективе) реально сдвинет человеческую продолжительность жизни? Ответ пока неизвестен. Но мы знаем про человеческие варианты, коррелирующие с долголетием, — используйте их как ориентиры/«якоря» в своей гипотезе.
Технические ориентиры для конвейера:
— Парсинг источников → нормализация сущностей (белки/домены/позиции/единицы) → интеграция доказательств (структура, эволюция, ко‑эволюция, литература) → генерация гипотез → ранжирование по правдоподобию/экспериментальности.
— Обязательно сохраняйте провенанс: откуда взят факт/таблица/фигура, какой фрагмент текста или ID записи, какие преобразования применены.
— Предусмотрите уровни уверенности и набор «признаков‑объяснителей» (почему модель предлагает именно эту замену/доменный шифт).
— Подумайте о формате вывода, пригодном для мокрой лаборатории: конкретные позиции/варианты, конструкты, предсказанный функциональный сдвиг, условия теста (клетлиния/организм), измеримые readout’ы.
Как оценивать себя:
— Реплицируемость: если дать вашему агенту соседние виды/ортологи/паралогии — повторяются ли мотивы и предложения?
— Согласованность с эволюцией/структурой: не противоречат ли гипотезы базовым ограничениям?
— «Путь к эксперименту»: можно ли из вашего вывода сформировать ясный план in vitro/in vivo теста?
— Польза для сообщества: даже если гипотеза не верифицирована, оставьте после себя аккуратный набор данных/кода/схем, чтобы другие команды могли продолжить.
Несколько практических советов:
— Не пытайтесь «угадать» единственно правильный белок. Лучше сделайте инструмент, который действует одинаково аккуратно на разных белках и «собирает» контекст вокруг каждого кандидата.
— Не бойтесь course‑graining: иногда «замкнутый» доменный сдвиг даёт более предсказуемый функциональный эффект, чем точечная замена.
— Не забывайте про отрицательные результаты — они экономят месяцы: фиксируйте, какие линии рассуждений не дали сигналов, чтобы другие не ходили кругами.
И последнее. Мы делали похожую работу с факторами Яманаки — и именно «сведение» знаний LLM с эволюцией/структурой/ко‑эволюцией позволило резко улучшить эффективность. Я хочу, чтобы вы почувствовали этот «а‑ха» момент на своей задаче: когда модель перестаёт быть просто «читалкой», а начинает вести вас к инженерному изменению белка. Если получится упаковать решение в воспроизводимый инструмент — данные + код + протокол оценки — это будет ценностью для всех.
Petr Lidsky: Singularis — граф гипотез, методов и результатов вместо монолитных статей
Я работаю в City University of Hong Kong, и наша лаборатория пытается построить унифицирующую теорию старения и применить её на практике. Но задача шире самой геронтологии: на мой взгляд, наука сегодня работает гораздо медленнее, чем могла бы, потому что способ, которым мы передаём знания, устарел.
Сейчас знание упаковано в академические статьи — «романы» на 30–40 страниц с экспозицией, кульминацией и развязкой. Этот формат возник 300 лет назад и долгое время был полезен, но больше не отвечает потребностям темпа. Статьи тяжело читать, если вам нужен конкретный эксперимент: приходится «прокапывать» десятки страниц. Полноценных инструментов для добычи экспериментальных фактов и сквозного поиска по литературе до недавней ИИ‑волны почти не было.
Это лишь малая часть проблемы. Каждая статья уникальна по структуре — оценка качества и влияния требует реальных экспертов, которых нужно собирать и нагружать. Альтернативой стали цитаты, но и они шумные: средняя статья содержит ~50 ссылок, из которых лишь ~4–5 отражают ключевую эволюцию идеи, остальные — «шум». В итоге главный критерий оказывается «имя журнала», а это производит системные искажения: неправильные стимулы, долгие «большие» статьи, задержки доступа к данным, политика в принятии решений, безумные APC (платежи авторам), кризис воспроизводимости (чтобы пробиться в «топ‑журналы», авторов тянет к эффектным трактовкам), кризис peer review (недооценённый, неоплачиваемый труд перегруженных рецензентов). Все академические KPI привязаны к статьям, поэтому реформировать систему крайне трудно — это как менять колёса на ходу.
Моё предложение — формат Singularis: сделать базовой единицей научной коммуникации не «роман», а атомарный, цитируемый элемент. Например: гипотеза, внешний факт, метод, эксперимент, результат, вывод, анализ данных. Элементы связаны не просто ссылками, а осмысленными, типизированными отношениями (какой результат подтверждает какую гипотезу, какой метод применён к какому эксперименту и т.д.).
Что это даёт и как мы туда идём:
— Я хочу «расплющивать» каждую PDF‑статью в граф: собрать гипотезы, методы, эксперименты, результаты, выводы и внешние факты, а затем связать их внутри статьи осмысленными ребрами.
— Затем я строю связи между статьями, исходя из существующих референсов, но соединяя не «целые статьи», а конкретные элементы (результат одной подтверждает/опровергает гипотезу другой).
— Итог — сквозной граф знаний науки, удобный для человека (быстрая навигация к нужному эксперименту) и для ИИ‑поиска (сегодня качественный научный поиск может занимать 7–8 минут на один запрос, что делает невозможными многие high‑throughput‑задачи).
С таким графом появляются честные, смысловые метрики научной ценности — топологические: кто что подтвердил, где рождаются опорные факты, как «течёт» доказательство через эксперименты и выводы. Эти метрики могут заменить «имя журнала» при найме, грантах, наградах. На следующих шагах я хочу встроить публикацию и рецензирование прямо в граф. Дальняя цель — оставить традиционные «монолитные» статьи и журналы в прошлом.
Где мы сейчас? У меня уже работает алгоритм, который «сплющивает» PDF в граф с перечисленными элементами (внешние факты, гипотезы, методы, эксперименты, результаты, выводы) и осмысленными связями. Но этот конвейер держится на LLM — он дорогой по деньгам и времени и не масштабируется на десятки миллионов публикаций.
Задача для хакатона:
— Постройте эффективный регекс‑/правил‑ориентированный пайплайн, который приближает разметку LLM, но стоит на порядки дешевле.
— Ваша основная метрика — насколько хорошо ваш алгоритм воспроизводит «LLM‑рид‑аут» (точность извлечения элементов и связей относительно эталона).
— Второй критерий — только при близких результатах по первому: предложите улучшения структуры графа (типы элементов, типы связей, уровень гранулярности), чтобы граф стал лучше для человека и машины.
Требования к артефактам:
— Чёткие спецификации элементов: как вы определяете «гипотезу», «метод», «результат», «вывод», «внешний факт», «анализ».
— Типизированные отношения между элементами (подтверждает/опровергает/зависит/применяет/повторяет/расширяет и т.п.).
— Прозрачный провенанс: ссылка на участок текста/таблицу/рисунок и правила, по которым он превратился в элемент/ребро.
— Сравнение с LLM‑эталоном на общих статьях (качество и стоимость/время на документ).
— Демонстрация выгоды: ускорение извлечения и снижение стоимости на документ при сохранении приемлемого качества.
К чему это приведёт:
— Быстрая, человеко‑читабельная навигация по ключевым элементам статьи и их связям.
— ИИ‑поиск по графу вместо «полнотекстового шаманства», что снимает 7–8‑минутные задержки и открывает high‑throughput‑аналитику.
— Более честные метрики научной ценности, которые действительно отражают эволюцию идей.
— Основа для живой системы публикации и peer review внутри графа, где сразу видны контекст, зависимости и проверяемость.
Я хочу, чтобы вы не «косметически улучшали» LLM‑конвейер, а сделали альтернативу, которая масштабирумa на весь массив литературы. Думайте об атомарности, типизированных связях и воспроизводимости. Если вы покажете, что правила + регулярки способны на 80–90% качества LLM, но в 10–100 раз дешевле и быстрее — это уже победа для всей научной экосистемы.
Valerii Pavlov: Фенотипическая база для долголетия — связь генов и признаков по видам для моделей кривых смертности
Я здесь буду голосом задачи, автор — Александр Баланс (с ним можно связаться по указанной в слайдах почте). Формулировка проста, но по последствиям она фундаментальная: зачем нам фенотипическая база и как она реально ускоряет прогресс в долголетии?
Сейчас большинство исследований старения упирается в гены — это важно, но «ген сам по себе» не объясняет, как именно организм стареет. В биологии путь такой: генотип → регуляторные сети → фенотип. Даже крошечные вариации в ДНК могут приводить к заметным фенотипическим различиям, но в реальности это почти никогда не «один ген — один признак», это сети. Мы видели, как целевые генетические правки способны радикально менять сложные фенотипы — вплоть до реконструкции признаков у вымерших видов. То есть «редактирование для сложных признаков» — не фантастика, а технология, и это прямая подсказка, что со старением как фенотипом тоже можно работать инженерно.
Наш вызов не про создание нового вида. Он про дизайн генетических и молекулярных вмешательств, которые сдвигают кривую смертности в популяции. Важно различать кривые. Вы привыкли к кривой выживаемости (survival): она падает с возрастом. Кривая смертности (mortality) — это, грубо, зеркальная перспектива: как быстро растёт риск смерти по мере старения. У человека риск смерти примерно удваивается каждые восемь лет — это «правило Гомперца». А вот у голого землекопа (naked mole rat) риск с возрастом почти не растёт — кривая практически плоская. Наша цель — не «рисовать бесконечность», а сделать человеческую траекторию более «голоземлекопо‑подобной»: удлинить здоровое плато до того, как начнётся спад, снизить наклон кривой.
Как мы к этому подходим. План — построить модель, которая предсказывает кривые смертности по геномным данным, затем использовать эту модель для генерации кандидатных вмешательств (генетических/молекулярных), затем тестировать гипотезы экспериментально и итеративно обновлять датасет. Каждая итерация — новые данные, уточнение модели, лучшая генерация интервенций, и круг замыкается.
Главная проблема — «нулевой шаг»: у нас нет стартового фенотипического датасета в формате, пригодном для обучения такой модели. Сейчас информация разбросана по статьям, приложениях, графикам, supplemental’ам, и извлекать её вручную — годами. Из‑за этого мы тормозим там, где ИИ мог бы ускорять. Поэтому задача хакатона — сделать этот стартовый набор данных: верифицируемый, корректный, машинно‑учебный.
Зачем именно фенотипы и контекст. Надёжный датасет — позвоночник предсказательной системы. Он позволяет обучить модель, связывающую «геном → фенотип → кривую смертности», и дальше быстро проверять гипотезы — в идеале уже не «вслепую». Чем лучше данные, тем короче цикл «гипотеза → эксперимент → ревизия», тем быстрее мы добираемся до вмешательств, которые действительно сдвигают траектории.
Что мы знаем на сегодня про вмешательства. В мышах нет воспроизводимого «радикального продления жизни одной мутацией». Зато есть тысячи многообещающих интервенций, каждая на 10–40% повышает медиану жизни: подавление GH/IGF‑сигнального пути, ингибирование mTOR (рапамицин), митохондриальные каталазы, overexpression ряда генов и пр. Есть эффектные кейсы частичного перепрограммирования у очень старых мышей — там удваивалась оставшаяся продолжительность жизни. Но из этого не следует, что есть «главная кнопка». Напротив: всё указывает на мультигенный, системный дизайн на мульти‑модальных данных. Именно совокупность управляемых рычагов — путь к заметному эффекту.
Какой нужен конвейер (минимально жизнеспособный):
1) Поиск и классификация литературы по видам. Нам нужны источники не только по человеку, но и по модельным организмам (дрожжи, нематоды, мухи, мыши), а также по долгоживущим видам (киты, летучие мыши и пр.). Классифицируем по виду и тематике.
2) Извлечение количественных фенотипических трейтов и экспериментального контекста: штамм, пол, возраст, среда, диета, протокол, параметры анализа. Все величины — с единицами, все условия — формализованы.
3) Нормализация и запись в базу с прозрачным провенансом: откуда взята цифра/кривая/параметр, какой рисунок или таблица, какой фрагмент текста. Никаких «плавающих» значений без источника.
Требования к артефакту: верифицируемость и пригодность к ML. «Верифицируемость» значит, что любую запись можно отследить до первоисточника и воспроизвести логику преобразования. «Пригодность к ML» — что у нас устойчивые схемы данных, согласованные единицы измерения, явные связи «ген(ы) ↔ трейт(ы) ↔ вид ↔ условия», удобные для моделирования кривых смертности.
В чём ценность именно такого набора. Во‑первых, он позволяет обучать предсказательные модели и ранжировать интервенции по ожидаемому эффекту на кривую смертности. Во‑вторых, он делает возможной генерацию кандидатных комбинаций вмешательств («мультилевер‑дизайн») — с учётом контекста вида/штамма, возраста начала, пола, среды. В‑третьих, он становится «живой памятью» — база не статична: результаты экспериментов возвращаются в конвейер и улучшают модель. В‑четвёртых, он экономит ресурсы: плохие или повторяющиеся идеи отсекаются до мокрой лаборатории.
Куда мы хотим прийти (видение). Самообновляющаяся открытая фенотипическая база, которая связывает гены, трейты и продолжительность жизни поперёк видов. Такая база — топливо для моделей, которые не только предсказывают, но и помогают проектировать вмешательства (design‑assist), а дальше — валидируются экспериментально. Прозрачный провенанс делает результаты проверяемыми, а значит — пригодными для науки и индустрии.
Несколько практических примечаний:
- Учитывайте, что «кривая смертности» — агрегатный фенотип, и простая свёртка частных трейтов не всегда даст правду. Поэтому важны и «сквозные» фенотипы (hazard, время до события), и детальные трейты (метаболика, иммунные маркеры), и контекст.
- Отдельно следите за единицами и определениями. Любая «плавающая» единица или расплывчатое определение треита («улучшилось состояние») ломает пригодность к ML.
- Включайте отрицательные результаты. Они нужны не меньше: это экономит циклы всей экосистеме.
Что мы ожидаем на выходе хакатона. «ML‑ready» фенотипический датасет с доказуемым происхождением записей, базовым покрытием по видам и ключевым трейтам, и минимальным набором инструментов для пополнения/проверки. Дальше — итерации, публикации и, надеюсь, первые предсказательные успехи, которые стоит нести в мокрую лабораторию.
Я верю, что это хорошая точка входа для агентного ИИ: задача хорошо декомпозируется на агентов поиска, агентов извлечения, агентов нормализации и валидации. А самое главное — этот артефакт нужен всем: исследователям, инженерам, продуктам. Спасибо, и завтра на Q&A отвечу на любые технические вопросы — от схем данных до стратегии оценки качества.
Dmitry Kruikov: Конструктивные теории старения
Всем привет, я Дима из ComputAge. Короткая лекция про наш вызов «Теории старения» — зачем вообще нужна рабочая теория старения и как её строить так, чтобы она вела к экспериментам и вмешательствам.
Начну с исторической рамки. На этом графике видно, как средняя продолжительность жизни менялась в разные эпохи. До появления массовой вакцинации люди в среднем едва дотягивали до пятидесяти. Затем в середине XIX века вакцинация, а в начале XX — антибиотики, и кривая резко пошла вверх. Сегодня мы упёрлись в новый потолок — именно старение. Это не про «сделать жизнь чуть более здоровой»; это про сам механизм, который «крутит ручку» смертности с возрастом.
Почему нужна теория? Даже наивная, но корректная теория может быть очень мощным инструментом. Смотрите, как работает иммунитет в самом простом приближении: обнаружение угрозы → сигнал тревоги → прибытие «подкреплений» → атака, а затем — память об угрозе для ускоренного ответа в будущем. Даже на этой «картонной» схеме возникает идея вакцины: давайте дадим ослабленную версию патогена и обучим систему заранее. Результат — скачок продолжительности жизни на десятки лет. Это пример, как теория, пусть и простая, трансформирует практику.
Где мы сейчас со старением. Часто упоминают «hallmarks of aging» — это полезный список наблюдаемых феноменов: геномная нестабильность, укорочение теломер, митохондриальная дисфункция и т. д. Но это не теория. Hallmarks не объясняют причинность, не показывают, как «кирпичики» связаны между собой, и главное — не предлагают конкретной терапии с понятным механизмом. Теория должна вести к вмешательствам, которые можно ставить в эксперимент и проверять.
Контрасты на уровне теорий. Возьмём раннюю гипотезу «энергетического ресурса»: организму дана некая «жизненная субстанция», и она расходуется. Звучит красиво, но что точно измерять? Как восполнять? Теория не даёт операциональных ответов. Другой пример — теория повреждений ДНК: мутации и иные повреждения копятся с возрастом и вызывают фенотипы старения. Это уже механистическая рамка: она предлагает конкретные молекулярные причины и сразу подсказывает стратегию — усиливать системы репарации ДНК. Но и она не объясняет всё: почему, например, ограничение калорий повышает продолжительность жизни у множества видов? Видно, что нам нужна теория, которая «сцепляет» механизмы между собой и делает предсказания, проверяемые экспериментально.
Посмотрим на эмпирику. По базе DrugAge топ‑10 препаратов для мышей дают порядка 20% к медиане жизни. Недавно был результат, где комбинация двух средств давала около 30%. Это замечательно, но не в два раза. Хорошая теория должна объяснять, почему сегодня потолок таков, и подсказывать, как поднять его — например, за счёт правильных комбинаций вмешательств.
Что я называю «конструктивной теорией старения». У такой теории четыре критерия:
1) Она предлагает биомаркеры, которые объясняют различия максимальной продолжительности жизни между видами.
2) Она предлагает биомаркеры, которые объясняют смертность в пределах одного вида (то есть динамику риска с возрастом).
3) Она предсказывает тестируемое вмешательство в долголетие — не абстракцию, а конкретный протокол.
4) Она механистическая, а не феноменологическая: опирается на биохимические/сигнальные пути, а не на метафоры вроде «энтропии» или «потери резильентности».
Наш вызов состоит из двух задач (их лучше делать последовательно).
Задача 1 — сбор и классификация литературы по теориям старения. Сложность не в количестве, а в неоднородности: одна статья может затрагивать несколько теорий; какая‑то вообще окажется не про биологическое старение. Ваш агент должен уметь отфильтровать нерелевантное и правильно разнести релевантные работы по корзинам. Вывод — таблицы заданного формата (шаблоны в Discord): ключи идентификации, краткие резюме, признаковая разметка по теориям/уровням организации/типам данных и пр.
Задача 2 — ответ на ключевые вопросы по теориям старения на основе выбранных работ. Мы подготовили валидационный набор из 10 известных статей и эталонные ответы. Ваша цель — отвечать корректно и полно, с опорой на текст и данные, показывая, что агент действительно «понимает», а не просто извлекает шаблонные фразы.
Как мы оцениваем. В первой задаче — чем больше релевантных работ с корректной классификацией, тем лучше (качество фильтрации и полнота покрытия — важны). Во второй — ключевая метрика корректность ответов по валидационному набору. Итоговый балл — средний ранг метрик по обеим задачам. Победителей ждут призы, и, что для меня особенно важно, — соавторство в научной публикации по итогам хакатона. Это не «сайд‑ивент», у этого вызова должен быть научный выхлоп.
Несколько методологических замечаний:
- Разделяйте уровни объяснения. Теория «межвидовых различий» (почему киты живут столетиями) и теория «внутривидовой динамики» (почему у человека риск удваивается примерно каждые 8 лет) — это не одно и то же. Правильная теория должна уметь работать на обоих уровнях, но часто компоненты будут различаться.
- Механизмы и предикторы — не одно и то же. Биомаркер, который хорошо предсказывает продолжительность жизни, не обязательно является причинной «ручкой». В теории нужно чётко прописывать, что вы считаете причиной, а что — индикатором.
- Комбинации вмешательств — вероятный путь вперёд. Если одиночные средства дают ~20%, мы почти наверняка выйдем на большее за счёт грамотной композиции механизмов. Теория должна давать принцип комбинирования, а не просто список «топ‑N».
- Негативные результаты — ценны. Если теория предсказывает вмешательство, а эксперимент его не подтверждает, это не провал, а важная информация для корректировки теории (и экономия многим лабораториям времени и денег).
Что мы даём. Форматы таблиц, список ключевых вопросов, валидационный набор из 10 статей с эталонами, а также методические подсказки по работе с источниками. В Discord — все детали, включая примеры хороших ответов, чтобы вы понимали «планку качества».
Чего я ожидаю увидеть на финише. Во‑первых, аккуратно собранную и размеченную базу по теориям старения — с чёткой гранулярностью (уровень теории, типы данных, ключевые тезисы, тип связи с вмешательствами). Во‑вторых, убедительную демонстрацию, что ваш агент способен отвечать на содержательные вопросы по теориям, а не «пересказывать вступления». В‑третьих, зачатки именно конструктивной теории: набор гипотез/биомаркеров, которые объясняют межвидовые и внутривидовые паттерны и ведут к тестируемым вмешательствам.
Если коротко: мы переходим от «списков феноменов» к инженерной теории старения, у которой есть критерии истинности и которая выдаёт проверяемые предсказания. Это не одна ночь — но за хакатон вполне реально построить хорошую базу, показать, как агент отвечает на серьёзные вопросы, и наметить теоретический каркас, который можно публиковать и развивать. Я буду рядом, чтобы помогать, — и с удовольствием разделю авторство с командами, которые принесут содержательные результаты. Удачи!
Vlad Vinogradov: Бенчмарк прогноза исходов клинических испытаний
Всем привет! Я — Влад Виноградов. Для этого хакатона мы подготовили задачу предсказания исходов клинических испытаний (trial outcome prediction), но с одного важного, принципиального угла: «честная» постановка, где ваш агент действительно предсказывает, а не вспоминает уже опубликованные результаты.
Почему это важно:
— Если мы умеем заблаговременно оценивать вероятность успеха испытания, мы экономим годы и сотни миллионов, бережём пациентов и ресурсы, и начинаем двигать в клинику то, что имеет шанс на результат.
— Пример из практики (который обсуждали, в частности, у Дерека Лоу): PARP‑ингибитор показал провал в фазе III при TNBC, а затем — в других показаниях; индикаторы проблем были, но их «не услышали» вовремя. Агентная система должна уметь подсвечивать такие красные флаги до того, как они обернутся потерянными годами.
Почему классические бенчмарки «текут»:
— Большинство датасетов — это по сути исторический дамп clinicaltrials.gov и смежных источников. Их легко «подглядеть» в сети, а современные LLM нередко уже содержат информацию об исходах в своих весах.
— В итоге задача превращается в поиск по вебу/памяти модели, а не в предсказание. Это плохо и для науки, и для индустрии.
Как мы решаем проблему: «честный» бенчмарк ASCO:
— Мы взяли крупнейшую онкологическую конференцию ASCO (Chicago; аудитория ~45 000 специалистов). На этой площадке ежегодно впервые объявляют результаты множества клинических испытаний.
— Мы скачали около 6 500 абстрактов и отфильтровали их по жёстким правилам: только интервенции у людей; только лекарственные препараты; в абстракте должен быть хотя бы один endpoint с результатом (чтобы было «что предсказывать»).
— Далее прогнали агентный «deep‑research», чтобы исключить утечки: мы вычистили любые источники, которые могли раскрывать итог до старта конференции (новости, пресс‑релизы, препринты и т.п.).
— Результат — 143 тщательно курированных абстракта, где исходы были впервые представлены на ASCO, то есть их честно невозможно «воспроизвести из прошлого». Это и есть наш тестовый материал.
Правила честности и технический регламент:
— Строгий временной отсек: при веб‑доступе ваш агент должен использовать только источники, датированные не позднее 28 мая (стартовой даты конференции). Любые источники позже — вне правил.
— Модели можно брать современные (cutoff большинства не конфликтует с нашей датой), но мы ожидаем, что агент не «тянет» явные готовые исходы из статей/новостей после ASCO.
— Если вы обнаружили «утечку» (где‑то до ASCO всё‑таки засветился исход) — сообщайте: мы уберём такой пример из бенчмарка. Это общая игра «за честность».
Что должен уметь агент:
— Предсказывать исходы по абстрактам: успех/неуспех первичных/вторичных конечных точек, с учётом дизайна, популяции, эндпойнтов, стратификаций, контекстных факторов.
— Выдавать объяснимый reasoning trace: «красно‑жёлто‑зелёные» флаги рисков, перечисленные факты и гипотезы, которые привели модель к такому выводу.
— Давать рекомендации по дизайну: как изменить популяцию/критерии включения, какие эндпойнты выбрать, как повысить мощность, какие биомаркеры/стратификации учесть, есть ли проблемы с компаратором.
— Строго фиксировать источники и ограничения: какие куски абстракта/источников использованы, какая уверенность, где нужна проверка человеком.
Формат соревнования:
— Классический «публичный/приватный» лидерборд: на хакатоне вы видите public‑score по части набора, а после завершения открывается private‑test для финальной оценки.
— Просьба не переобучаться на паблик: мы заведомо удерживаем часть примеров скрытой. Иначе «внезапные» просадки на приватном тесте неизбежны.
— Сабмиты — структурированы: предсказание по каждому абстракту/эндпойнту, confidence, описание reasoning и рекомендации. Подробные форматы выложим в каналы.
Почему именно ASCO:
— Это ежегодная витрина «первых результатов»: в момент публикации абстракта широкая публика ещё не видела подробные статьи, а значит, вы действительно предсказываете по «сырой» публичной информации.
— Я сам был на ASCO в этом году с постером; конференция — колоссальная, и там действительно впервые звучат данные, которые потом формируют новости индустрии на месяцы вперёд. Это идеальная площадка, если вам нужна честная постановка «до публикации в журналах».
Что считается хорошим решением:
— Ваш агент аккуратно извлекает факты из абстракта (заболевание/стадия, линии терапии, размер/стратификация популяции, режим дозирования, эндпойнты и метрики), стыкует их с известными паттернами риска и выдаёт аргументированное предсказание.
— Reasoning всегда привязан к источнику (цитата/фрагмент), содержит как «за», так и «против», и явно указывает на факторы, которые «перевесили».
— Рекомендации по дизайну реалистичны: не «сделайте выборку больше», а «при текущей дисперсии и ожидаемом эффект‑сайзе X мощность Y% ⇒ потребуется N пациентов; альтернативно — заменить эндпойнт на Z/использовать стратификацию по биомаркеру B».
— Код — воспроизводим: простой запуск, фиксация версий, логирование затрат (в т.ч. токены/время), отчёт, который можно читать без контекста.
Этика и практический смысл
— Мы хотим меньше «обречённых» испытаний и больше честных шансов для перспективных подходов. Это прямой вклад в здоровье пациентов и экономику R&D.
— Агентные системы не заменяют клиническую экспертизу, но добавляют «второй мозг», который читает быстрее и шире, помогая людям вовремя заметить очевидные (и не очень) сигналы.
Оргмоменты:
— Мы публикуем стартовый датасет (143 абстракта) и правила сабмитов с валидацией.
— Ограничения по времени/источникам и шаблоны отчётов — в Discord.
— Мы на связи: задавайте вопросы, присылайте находки, сообщайте об утечках.
Желаю удачи. Если у вас получится агент, который стабильно предсказывает исходы на свежем материале и честно обосновывает позицию — это уже ценность для индустрии. А если он ещё и предлагает разумные правки дизайна — у вас потенциально «продукт завтрашнего дня».
Albert Kejun Ying: Агент систематического обзора и метаанализа
Я — Альберт Кэджун Ин из Стэнфорда. Наша цель — собрать агента, который полностью автоматизирует систематический обзор и мета‑анализ. Мы готовим для вас весь методический каркас, а ваша задача — реализовать агентный конвейер, который от формулировки вопроса доводит до публикабельного отчёта.
Как устроен «правильный» мета‑анализ (PICO и дальше)
- P (population): определяем популяцию чётко — вид, нозология, стадия, линия терапии, критерии включения/исключения (возраст, пол, биомаркеры, сопутствующие).
- I (intervention): фиксируем вмешательство — молекула/комбинация, доза, режим, длительность, сопутствующая терапия.
- C (comparison): компаратор — плацебо или активный, стандартная терапия; важно заранее решить, какие сравнения допустимы.
- O (outcomes): первичные/вторичные конечные точки; как измеряются (HR, OR, RR, различия средних), окно наблюдения, схема визитов.
Дальше — стандартная методология систематического обзора:
1) Стратегия поиска. Готовим протокол запроса по ключевым базам (PubMed/MEDLINE, EMBASE, CENTRAL, клинические регистры и т.д.), решаем, включаем ли препринты и не‑РКИ источники. Фиксируем все ключевые слова, MeSH‑термины, логические операторы.
2) Дедупликация и первичный скрининг. Убираем повторы, делаем скрининг по заголовкам/аннотациям, помечаем кандидатов на полный текст.
3) Полнотекстовый отбор и критерии качества. По заранее заданным правилам «включить/исключить» (дизайн, мощность, полнота отчётности, риск систематических ошибок), плюс — шкалы качества/риска смещения (RoB, Jadad, Newcastle–Ottawa и др. по уместности).
4) Извлечение данных. Таблицы и фигуры: размеры выборок, характеристики групп, эффекты (HR/OR/RR/MD/SMD), доверительные интервалы, p‑значения, события/время до события, цензурирование, графики выживаемости (при необходимости — дигитайзинг Kaplan–Meier).
5) Нормализация и кодирование. Приводим эффекты к единому знаку/направлению, согласуем единицы, кодируем страты (пол, возраст, линия терапии, статус биомаркеров), выносим предпланированные сабгруппы.
6) Модели мета‑анализа. Fixed‑effects и random‑effects (DerSimonian–Laird/REML), оценка межисследовательской гетерогенности (Q, τ², I²), проверка публикационного смещения (воронки, Egger/Begg), чувствительные анализы (leave‑one‑out), предиктивные интервалы, при необходимости — сетевой мета‑анализ.
7) Интерпретация и отчёт. Лесные диаграммы, табличные сводки, стратифицированные результаты, оценка риска смещения и качества доказательств (GRADE), чёткая формулировка выводов и ограничений.
Что именно должен делать агент:
- Формулировать PICO из текстового задания (или формы) и сохранять протокол.
- Искать литературу по согласованной стратегии, логировать запросы/даты/источники, выгружать результаты.
- Скрининг: первичный (title/abstract) и полнотекстовый, с обоснованием каждого решения (почему исключено/включено).
- Извлекать статистику из таблиц/фигур/текста, указывать источник (страница/секция/DOI/PMID), приводить к нормализованному формату.
- Запускать мета‑аналитические модели, строить графики, считать гетерогенность, делать сенситивити‑анализы.
- Собирать итоговый отчёт уровня препринта: методы, результаты, графики, интерпретации, ограничения, воспроизводимость.
Качества, на которых мы настаиваем:
- Воспроизводимость: фиксируем версии баз/дат, версии моделей, параметры; отчёт должен «собираться» нажатием одной кнопки.
- Прослеживаемость (провенанс): каждая цифра — с адресом в источнике, каждый шаг — с логом.
- Объяснимость: почему включено/исключено, где риск смещения, что происходит с эффектом при удалении конкретного исследования.
- Экономичность: агент должен быть бережливым по времени и бюджету (кредиты/токены/CPU/GPU), без потери корректности.
Типичные подводные камни, которые агент обязан учитывать:
- Несоответствие метрик (HR vs OR vs RR), инвертированные шкалы, «смешение» событий и времени; необходимость перерасчётов.
- Дупликаты и пересекающиеся когорты (одна и та же выборка в нескольких публикациях).
- Пост‑hoc сабгруппы и «похороненные» негативные результаты.
- Публикационное смещение; его оценка и влияние на итог.
- Высокая гетерогенность: когда pooled‑оценка не имеет смысла без стратификации.
Вывод/артефакты:
- Репозиторий с кодом, схемами данных, конфигом поиска, логами, скриптом автосборки отчёта, артефактами (PDF/HTML).
- Табличные выгрузки (tidy data) и графики (forest, funnel, influence/leave‑one‑out).
- Readme с инструкцией запуска и списком ограничений.
Дальше Алекс расскажет, как мы будем оценивать решения и что мы предоставляем в помощь — от «essential reading» до API источников.
Alex Dekan: Как оценивать метаагентов — точность извлечения, корректность статистики, воспроизводимость
Спасибо, Альберт. Я — Алекс Декан. Сформулирую, по каким критериям мы оцениваем ваших агентов, и что вы получаете от нас для старта.
Чего мы ждём от агента — четыре критерия:
1) Точность отбора исследований. Скрининг (title/abstract и полнотекст) должен соответствовать протоколу; «лишние» исключения и «мусорные» включения штрафуются. Мы проверяем по контрольным наборам и экспертной вёрстке.
2) Точность извлечения данных. Эффекты (HR/OR/RR/MD/SMD), интервалы, события, размеры групп, страты и контексты должны вытягиваться корректно. Для графиков выживаемости — аккуратный дигитайзинг и/или восстановление HR из KM‑кривых по стандартным методикам (при необходимости).
3) Валидность статистики. Правильный выбор моделей (fixed/random), расчёт гетерогенности (Q, τ², I²), корректная агрегация при разных метриках, анализ смещения (funnel/Egger), чувствительные анализы. Ошибки в метриках и «слипание» разнородных эффектов — красная карточка.
4) Эффективность по времени/стоимости. Мы учитываем время прогона и «стоимость» (токены/кредиты/CPU/GPU). Цель — не «выжечь» бюджет, а показать умную экономию без потери качества.
Что вы получаете от нас:
- Essential reading: подборка материалов по систематическим обзорам, мета‑анализам (Cochrane Handbook, PRISMA), работе с клиническими регистрами, стандартам отчётности.
- Доступ к источникам и API: clinicaltrials.gov, PubMed/MEDLINE (через e‑utilities), и другие релевантные базы — со шпаргалками по запросам и ограничителям.
- Форматы данных: схемы таблиц для извлечения; шаблоны отчёта (RMarkdown/Quarto/Jupyter) и forest/funnel‑диаграмм.
- Два эталонных мета‑анализа (публикации), по которым мы будем валидировать корректность: ваш агент должен воспроизвести эффекты в разумных пределах и корректно обосновать расхождения (если есть).
Оцениваем не только «итоговую цифру»
- Нам важны explainability и провенанс: любой результат должен иметь «нить» — от pooled‑оценки до конкретной строки в таблице/фигуре первоисточника.
- Нам важны «красные флаги»: если риск смещения высок или гетерогенность не даёт смысла pooled‑оценке, агент должен это явно сказать и предложить разумные ветвления (стратификация, исключение outlier’ов, переключение метрик).
Про экономичность:
- Приветствуются кэширование результатов поиска, аккуратные сэмплеры токенов, использование локальных моделей/правил там, где это уместно, и точечные «дорогие» вызовы только тогда, когда без них никак.
- В отчёте — явный трекинг затрат (время, кредиты/токены), чтобы сравнивать решения не только по качеству, но и по цене.
Итог, к которому вы должны прийти:
- Автособираемый, воспроизводимый отчёт уровня препринта, понятный человеку‑рецензенту и годный для дальнейшей доработки до публикации.
- Данные и код в состоянии «взять и продолжить»: чтобы следующая команда могла расширять охват исследований или подставлять другой PICO без переписывания ядра.
Мы будем рядом — подскажем по источникам и моделям, поможем с отладкой конвейеров. Сделайте робота‑систематика, который из запроса и баз приходит к корректной, объяснённой и экономичной интеграции доказательств. Это ровно тот случай, где агентный ИИ снимает узкие места и экономит месяцы работы.
Alex Beatson: Предсказание DILI с учетом дозы — преклиника и клиника, метрики и валидация
Я — Алекс Битсон из Axiom. Мы строим ИИ‑инструменты, которые помогают учёным точнее и дешевле оценивать токсичность лекарств, прежде всего гепатотоксичность. Почему это критично? Печёночная токсичность — крупнейшая причина провалов в клинике: около четверти неудач приходится на печень. За одну неделю прошлого года совокупная капитализация компаний просела на ~$5 млрд из‑за DILI‑провалов — это масштаб проблемы в деньгах. В QALY‑метрике ставки ещё выше: каждый одобренный препарат в среднем спасает десятки тысяч качественных лет жизни только в одной стране; глобально счёт идёт на миллионы.
Что не так с существующими экспериментами:
- Бенчмарки big pharma показывают: in vitro и даже in vivo испытания плохо предсказывают клинические исходы — слабая чувствительность/специфичность при высокой стоимости.
- Молекулярное пространство огромно: чтобы предсказывать токсичность по структуре, нужны большие, разнообразные датасеты.
- Клинические наборы по DILI обычно малы (сотни препаратов), часто без дозовых кривых; выборка смещена и «плывёт» по годам. Преклиника — тоже в дефиците и чаще с примитивными end‑point’ами («умерли ли клетки»), которые плохо переносятся в клинику.
Нам придётся «делать данные» — и это как раз вызов хакатона.
Два пути участия (можно выбрать один или соединить):
1) Клинический контур (агенты‑кураторы из веба)
- Базовая задача: для списка препаратов агент ищет и классифицирует клиническую гепатотоксичность как toxic / non‑toxic / unclear и вытаскивает дозу(ы), при которых наблюдается токсичность.
- Амбициозная версия: извлекать частоты и тяжести DILI‑исходов, фармакокинетику (Cmax, AUC), контекст (показание, сопутствующие), чтобы строить более информативные мэппинги «доза → риск».
- Источники: clinicaltrials.gov, публикации, патенты, пресс‑релизы. Важны провенанс и датировка.
2) Преклинический контур (данные и связь с клиникой)
- Собирать релевантные in vitro/in vivo ассайные данные (в т.ч. RNA‑seq‑подписи, binding‑профили), проверять их полезность для предсказания клинического DILI.
- Креатив приветствуется: всё, что устойчиво коррелирует с клинической токсичностью (с учётом дозы), — в игру.
Базовый валидатор и скрытый тест:
- Открытый валидатор: FDA DILIrank — с него начинаем тестировать идеи.
- Скрытый набор: наш внутренний клинический бенчмарк, составленный из литературы. Именно по нему будем оценивать финальные модели.
Что нужно сдать (deliverables):
- Энсамбль моделей с правильной валидацией:
- Используем scaffold split (мы дадим ссылку на библиотеку): валидационные/тестовые молекулы должны иметь другие скелеты, чем в обучении.
- Каждый член ансамбля логирует scaffolds/ID молекул, которые он видел на обучении.
- Ключевое правило честности: при предсказании для конкретного препарата голосуют только те члены ансамбля, которые НЕ обучались на нём (out‑of‑fold).
- Функция инференса: на вход — представление молекулы и доза; на выход — P(DILI | dose). Дозозависимость обязательна.
- Код для полного воспроизведения: сбор данных, препроцессинг, обучение, инференс, метрики. «Запустил — получил те же числа» — не обсуждается.
Как оцениваем:
- Главная метрика — ROC‑AUC, но только в зоне высокой специфичности: FPR < 0.5 (в scikit‑learn есть флаг для усечённого AUC). Это имитирует реальную практику: лучше сделать немного очень уверенных токсичных предсказаний, чем «размазать» риск по всем.
- Вторичные аспекты — уместность признаков, устойчивость к распределительным сдвигам (новые scaffolds), ясная дозозависимость (кривая «доза → риск» должна иметь смысл).
- Важны объяснения (feature importance, протокол с sanity‑checks) и прозрачность данных (что откуда, как нормализовано, где провенанс в веб‑кейсах).
Почему дозозависимость критична:
- DILI — это не бинарная «печень сломалась/не сломалась». Риск, как правило, меняется с дозой и режимом (длительность, титрование). Модель без дозового канала — практической ценности мало.
- Инференс должен уметь «подстраивать» риск под дозу и ideally возвращать кривую риска (или хотя бы несколько реперных точек) с доверительными границами.
Архитектурные ориентиры (примерно):
- В клиническом контуре: агент «поиска» (ограничители дат/источников), агент «извлечения» (дозы, частоты, тяжести, PK), агент «нормализации» (единицы, схемы дозирования, показания), агент «валидации» (проверки на дубликаты/конфликты), затем — сборка обучающего набора.
- В модельном контуре: молекулярные представления (графовые/SMILES‑эмбеддинги), дозовый канал (скаляр/вектор признаков дозы и режима), обучающие цели (классификация DILI с учётом дозы или регрессия риска), калибровка вероятностей.
- В преклиническом: модальный фьюжн (структура + ассайные признаки + транскриптомика, если доступно), регуляризация против «подглядывания».
Этика и «честность» данных:
- Для веб‑извлечения обязательны: ссылки, даты, версии, хеши выгрузок. В отчёте — ровно где и что вы нашли, какие правила принятия решения заложены (toxic / non‑toxic / unclear).
- Любой «слив» готовых ответов из поздних источников по скрытому набору — повод для исключения. Договоримся играть честно — иначе вся постановка теряет смысл.
Мы поможем:
- Выложим пример harness для оценки (те же настройки, что мы используем на скрытом тесте), чтобы вы заранее видели, как выглядит «официальный» вызов вашей функции.
- Я буду в Discord — задавайте вопросы по данным/метрикам/сплитации/инференсу; лучше спросить раньше, чем переписывать конвейер в последний день.
Резюме:
- Цель — научить модель(и) делать немного, но очень уверенных токсичных предсказаний, учитывая дозу и структуры молекул, и при этом честно разделять обучение/валидацию (scaffold split + out‑of‑fold).
- Сделайте ставку на качество данных: где нет хорошего набора — постройте его агентами.
- Сдайте воспроизводимый код и понятную функцию инференса — это то, с чем мы можем работать дальше вместе с вами.
Aubrey de Grey: Комбинированные вмешательства и инженерный подход вместо универсальных теорий старения
Спасибо всем организаторам и спикерам — я с большим удовольствием провёл последние два часа. Постараюсь быть завтра на сессии вопросов и ответов, пришлите точное время. И начну с важного уточнения: я действительно когда‑то работал в ИИ, но это было тридцать лет назад, и поле сегодня совсем другое. Тем не менее, меня искренне восхищает масштаб вклада ИИ в биомедицину прямо сейчас.
Сначала — о «широких» победах. Такие вещи, как AlphaFold и его продолжения, — это не просто удобные инструменты, а сдвиг масштаба. Я верю, что их потенциал пока далёк от исчерпания. А если говорить конкретно про регенеративную медицину и долголетие, то недавний прорыв Retro Biosciences в коллаборации с OpenAI особенно симптоматичен: число аминокислотных замен, к которым привела модель, попросту недостижимо классическими экспериментальными подходами вроде направленной эволюции. Это действительно «новый мир» — мы можем целенаправленно улучшать функции белков, а не перебирать в темноте.
Теперь — про теории старения. Я хочу предложить расширить рамку вызова «Aging Theories». Я не верю, что где‑то «ждёт» универсальная механистическая теория старения, общая для всех млекопитающих, которую мы пока не открыли. Ещё двадцать с лишним лет назад я считал, что отдача от изучения нематод для понимания человеческого старения убывает; сейчас я думаю, что мы пришли к такому же порогу и на уровне млекопитающих. Скорее всего, дальнейшие полезные открытия будут органо‑ и видоспецифичными, а не «общими для всех».
Из этого следует практическое предложение: в рамках челленджа необходимо поощрять не только «позитивные» результаты (кандидат общих механизмов), но и «негативные» — аккуратно собранные и убедительные аргументы, что универсальной механистической теории нет. Это тоже ценность: оно экономит годы и миллионы, перестраивает фокус на то, где действительно лежат рычаги.
Ещё одно ключевое убеждение, которое важно проговаривать чаще. Тело старается не стареть. Наш организм по умолчанию настроен поддерживать здоровье; проблема в том, что набор инструментов, который у него есть, со временем оказывается недостаточным. Наша задача — не «переубедить» тело, а увеличить мощность этих инструментов. И здесь как раз уместен инженерный подход: добавлять, усиливать, обходить — там, где «нативная» система не справляется.
Отсюда следует и очень «прикладной» вывод. Перестаньте надеяться на «каллиброванные аналоги» ограничения калорий у человека — calorie‑restriction mimetics не масштабируются для долгоживущих видов. Куда продуктивнее комбинировать уже существующие вмешательства, каждое из которых у мышей даёт небольшой, но воспроизводимый прирост. Я уверен, что «секрет» прогресса — в правильных композициях: суммировании и взаимодействии механизмов, а не в поиске одной «красной кнопки».
Мне нравится мыслить об этом как об «неизвестных известных». Мы уже знаем множество вещей, но пока не соединили их так, чтобы получить качественно новый эффект. Это не отменяет роли теории; наоборот, теория здесь — это принцип конструирования комбинаций, объяснение, почему именно эта связка должна работать, и как её тестировать.
Про ИИ — ещё несколько тезисов:
- На уровне белков ИИ уже делает то, чего раньше нельзя было сделать: предлагает рабочие модификации с сильным функциональным сдвигом.
- На уровне систем — даёт возможность одновременно «видеть» множество контуров управления, которые для человека слишком сложны.
- На уровне практики — добавляет нам скорость: не две-три итерации в год, а десятки и сотни проверяемых гипотез.
Я хочу, чтобы в этом хакатоне мы больше внимания уделили именно инженерной стороне. Не ждать «правильной» теории, а собирать комбинации вмешательств и проверять их, обеспечивая хорошую трассируемость и дизайн эксперимента; не только «искать новое», но и аккуратно подтверждать, когда «общего закона» нет. Так мы продвинемся быстрее — и сделаем полезное для клиники.
Повторю главное:
- Относительно теорий: поощряем в равной мере подтверждения и убедительные опровержения «универсальности».
- Относительно практики: тело на нашей стороне, «кнопка» в одном месте вряд ли существует, поэтому собираем и усиливаем комбинации.
- Относительно ИИ: это уже не «помощник в поиске», а полноценный инструмент инженерии биологии.
Большое спасибо всем, кто сделал это событие возможным. Поздравляю организаторов с масштабом — и всем командам желаю смелых гипотез и аккуратной валидации. Надеюсь присоединиться к завтрашней дискуссии — и с удовольствием продолжу разговор на конкретных примерах.
Alexey Strygin: Rapid adoption — от демо к продукту
Сейчас несколько слов о нашем rapid adoption‑треке — почему он есть, что в нём главное и как мы вместе сделаем так, чтобы из хакатона выходили не только демо, но и проекты.
Во‑первых, про цель. Этот трек — для тех, кому нужна свобода: вы хотите основать стартап, запустить агента «в поле», монетизировать сервис, дойти до первых платящих пользователей. У фундаментального трека — своя, очень важная роль (публикации, эталонные датасеты, методы, индустриальные коллаборации). У rapid adoption — другая: приводить агентные подходы к состоянию «живого продукта».
Во‑вторых, про то, как мы ускоряем. Я заранее договорился с инвесторами — VC и ангелами, которые готовы смотреть лучшие команды. Я помогу с интро и «упаковкой» — чтобы вы решали задачу так, как её понимают индустрия и инвестор; мои коллеги по треку делают то же самое. У нас есть и новые механики финансирования — вы сегодня слышали про лаунчпад агентных токенов (Bio Protocol), и мы будем разбираться, где такой подход уместен. Если вы выбираете этот путь — мы рядом.
В‑третьих, про «четыре узких горлышка», которые мы целимся расширять:
1) Осведомлённость. Слишком много людей «примирились» со смертью — та самая «пропаганда принятия». Нам нужны простые и внятные истории, кейсы и цифры, которые меняют интерфейс разговора.
2) Финансирование. Помимо грантов — лаунчпады агентов, DAO, целевые фонды, партнёрства с компаниями. Мы будем подключать эти пути по мере появляющихся результатов.
3) Люди. В отрасли объективно мало кадров — по моим словам в начале, нас меньше 10 000 на весь мир. Нужны не только учёные и ML‑инженеры, но и продакты, дизайнеры, devops — вся цепочка.
4) Данные. В патентах, регистрах, клинических базах лежат «невытащенные» пласты. Агентные конвейеры должны превращать это в обучаемые датасеты с провенансом.
Про формат. У нас есть набор слабо заданных, но осмысленных задач — берите любую, меняйте под себя, делайте. Хотите — предлагайте свою, если она бьёт в одну из целей выше. Важный критерий — агентная уместность: где‑то агенты реально снимают узкое место, а где‑то «пистолетом по воробьям». Покажите, что именно здесь агент — правильный инструмент.
Про оценку. Мы смотрим на:
- Бизнес‑потенциал или социальный импакт (вы выбираете, что для вас первично).
- Качество демо (30 баллов): запускаемость, ясная документация, убедительное видео.
- Вклад в долголетие (20 баллов): что конкретно ускоряете и на сколько.
- Агентную уместность (20 баллов): где агенты дают то, чего без них не получить.
Про призы и ресурсы. В rapid adoption два приза по $2 500, плюс вычислительные кредиты от Nebius. Отдельно — повышенный приз от Athena DAO за женское долголетие, и $2 000 от Immortal Dragons. В сумме на хакатоне около $40 000 призов и вычислительные ресурсы — но главное, повторю, — нематериальные «призы»: карьерные прыжки, связи, сообщество, скорость.
Про практику.
- Пожалуйста, назначайте со мной короткие слоты — я расчистил окно в ближайшие дни; поговорим 20 минут, выберем фокус, подберём ментора, подумаем о первых пользователях.
- Думайте «после хакатона»: кто платит (или кто пользователь, если это non‑profit), как растёт точность/покрытие, что делаете с данными и инфраструктурой, чтобы завтра не переписывать всё заново.
- И, конечно, работайте в паре с фундаментальным треком: если вы кладёте в основу открытый датасет/метод — указывайте провенанс, воспроизводимость, версии. Это ускоряет всех.
Что покажет хороший проект к финалу:
- Реального пользователя или понятный путь к нему (даже если это «соседняя лаборатория»).
- Агентный конвейер, который решает измеримую проблему быстрее/дешевле/точнее, чем без агентов.
- Отчёт о воспроизводимости (что, где, как; данные; код; затраты).
- Демо, которое можно включить на звонке и показать «с нуля».
Я здесь, чтобы помогать. Если вы в rapid adoption — приходите, обсудим. Если вы в фундаментальном — подумайте, как ваши артефакты можно «упаковать» для реального использования. И давайте сделаем так, чтобы через две недели у нас было не только много красивых идей, но и вещи, которые живут дальше. Спасибо.