<?xml version="1.0" encoding="utf-8" ?><feed xmlns="http://www.w3.org/2005/Atom" xmlns:tt="http://teletype.in/" xmlns:opensearch="http://a9.com/-/spec/opensearch/1.1/"><title>Dmytro V</title><author><name>Dmytro V</name></author><id>https://teletype.in/atom/kayros81</id><link rel="self" type="application/atom+xml" href="https://teletype.in/atom/kayros81?offset=0"></link><link rel="alternate" type="text/html" href="https://teletype.in/@kayros81?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=kayros81"></link><link rel="next" type="application/rss+xml" href="https://teletype.in/atom/kayros81?offset=10"></link><link rel="search" type="application/opensearchdescription+xml" title="Teletype" href="https://teletype.in/opensearch.xml"></link><updated>2026-04-05T12:03:06.867Z</updated><entry><id>kayros81:TPYxP5CJs0g</id><link rel="alternate" type="text/html" href="https://teletype.in/@kayros81/TPYxP5CJs0g?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=kayros81"></link><title>Топ-10 лучших нейросетей для создания видео</title><published>2025-04-22T14:33:05.122Z</published><updated>2025-04-22T14:33:05.122Z</updated><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://img2.teletype.in/files/17/6f/176fb73f-d50a-4004-a71c-3a8146ee310d.png"></media:thumbnail><summary type="html">&lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/0d49b3050e0358f0c5727d046b120976.jpg&quot;&gt;Нужно быстро создать видео, а времени, навыков или бюджета нет? На помощь придут нейросети. Инструменты на основе ИИ уже умеют генерировать видео с нуля, озвучивать ролики, убирать шум, стабилизировать картинку, подставлять голос или переводить речь на другой язык.</summary><content type="html">
  &lt;p id=&quot;1YLR&quot;&gt;Нужно быстро создать видео, а времени, навыков или бюджета нет? На помощь придут нейросети. Инструменты на основе ИИ уже умеют генерировать видео с нуля, озвучивать ролики, убирать шум, стабилизировать картинку, подставлять голос или переводить речь на другой язык.&lt;/p&gt;
  &lt;h2 id=&quot;1&quot;&gt;Зачем использовать ИИ для создания видео и кому это пригодится&lt;/h2&gt;
  &lt;p id=&quot;lTvX&quot;&gt;Создание ролика — процесс не самый быстрый и простой. Нужно писать сценарий, снимать, монтировать, озвучивать. А если добавить сюда цветокоррекцию, работу со звуком и анимацию — можно потратить недели, а то и месяцы.&lt;/p&gt;
  &lt;p id=&quot;X931&quot;&gt;По крайней мере, так было раньше. С появлением ИИ многое стало легче. Теперь достаточно одной идеи — и нейросети для видео онлайн воплощают ее в жизнь.&lt;/p&gt;
  &lt;p id=&quot;AIF6&quot;&gt;Кому пригодятся ИИ-инструменты?&lt;/p&gt;
  &lt;ul id=&quot;TYzt&quot;&gt;
    &lt;li id=&quot;zwzJ&quot;&gt;Маркетологам и SMM-специалистам — чтобы делать ролики для соцсетей быстро и в больших количествах.&lt;/li&gt;
    &lt;li id=&quot;dpXq&quot;&gt;Малому бизнесу — для презентаций, рекламы и обучающих роликов без привлечения агентств.&lt;/li&gt;
    &lt;li id=&quot;b6Ud&quot;&gt;Блогерам и авторам контента — чтобы прокачать качество контента и упростить монтаж.&lt;/li&gt;
    &lt;li id=&quot;3YGj&quot;&gt;Преподавателям и коучам — для записи и оформления обучающих роликов.&lt;/li&gt;
    &lt;li id=&quot;MC0Z&quot;&gt;HR-специалистам и рекрутерам — чтобы делать короткие видео о вакансии или онбординг-ролики.&lt;/li&gt;
    &lt;li id=&quot;7lYT&quot;&gt;Просто людям с идеями — ведь теперь, чтобы создать видео, не нужно быть продюсером.&lt;/li&gt;
  &lt;/ul&gt;
  &lt;h2 id=&quot;2&quot;&gt;1. &lt;a href=&quot;https://openai.com/sora/&quot; target=&quot;_blank&quot;&gt;Sora&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;TRPT&quot;&gt;Если вы хоть немного интересуетесь нейросетями, то наверняка слышали про Sora — флагманский инструмент от компании OpenAI для генерации видео. Его активно обсуждают маркетологи, креаторы, предприниматели и просто фанаты технологий. Но действительно ли он так хорош, как о нем говорят?&lt;/p&gt;
  &lt;p id=&quot;N3C7&quot;&gt;Sora — это ИИ для генерации видео, которая создает реалистичные короткие ролики (от 5 до 20 секунд) по обычному текстовому описанию. Работает Sora на базе GPT и других моделей OpenAI и доступен только по платной подписке внутри ChatGPT.&lt;/p&gt;
  &lt;p id=&quot;GaGk&quot;&gt;Sora умеет:&lt;/p&gt;
  &lt;ul id=&quot;lrkf&quot;&gt;
    &lt;li id=&quot;e3w3&quot;&gt;создавать видео из текстового запроса на английском,&lt;/li&gt;
    &lt;li id=&quot;2FKL&quot;&gt;генерировать сцену целиком, а не по кадрам — за счет чего ролик выглядит цельным,&lt;/li&gt;
    &lt;li id=&quot;5BCZ&quot;&gt;редактировать уже готовые ролики, менять детали, продлевать сцены или делать зацикленные фрагменты,&lt;/li&gt;
    &lt;li id=&quot;7wND&quot;&gt;подбирать шаблоны, стили, соединять разные фрагменты и управлять композицией с помощью функции Storyboard.&lt;/li&gt;
  &lt;/ul&gt;
  &lt;p id=&quot;JQEK&quot;&gt;Sora особенно хороша в создании пейзажей, абстрактных паттернов и мультяшных роликов. Видео с людьми и животными получаются чуть менее реалистичными, особенно при активных движениях — но для многих задач это не критично. А вот если вы хотите добиться кинематографического эффекта или создать вау-ролик для соцсетей, Sora вполне справится.&lt;/p&gt;
  &lt;figure id=&quot;igda&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/0d49b3050e0358f0c5727d046b120976.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Скриншоты видео от Sora&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;3&quot;&gt;2. &lt;a href=&quot;https://deepmind.google/technologies/veo/veo-2/&quot; target=&quot;_blank&quot;&gt;Google Veo&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;q0e2&quot;&gt;Veo 2.0 — это модель генерации видео от Google. Она работает на базе ИИ и интегрирована с Google Cloud. Позволяет пользователям создавать короткие ролики в разных стилях по текстовым подсказкам. Фокус — на визуальную реалистичность, сложные эффекты, движения камеры и работу со светом.&lt;/p&gt;
  &lt;p id=&quot;scQd&quot;&gt;У ИИ от Google есть ограничения. Например, нет AI-аватаров, то есть нельзя персонализировать ролик или использовать нужное лицо. Но нейросеть хорошо подойдет для визуально сложных коротких видео — промороликов, эстетичных заставок, mood-видео. Сработает для креативщиков и маркетологов, которым важна визуальная составляющая.&lt;/p&gt;
  &lt;figure id=&quot;KF3O&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/2daa2f1b0d1320ceaf537d0e39b56c21.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Скриншоты видео от Google Veo&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;4&quot;&gt;3. &lt;a href=&quot;https://www.vidu.com/&quot; target=&quot;_blank&quot;&gt;Vidu&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;E0br&quot;&gt;Одна из фишек Vidu — создание видео по референсам. Можно загружать персонажей, объекты, окружение. Система Multi-Entity Consistency гарантирует, что все визуальные элементы будут органично сочетаться.&lt;/p&gt;
  &lt;p id=&quot;egaa&quot;&gt;Загружаете изображение, описываете нужную анимацию — и получаете полноценный ролик. Эта функция идеально подходит для сторителлинга, образовательных роликов и креативов. Можно действовать и через текст — описываете, что хотите увидеть. Создание видео занимает меньше 30 секунд.&lt;/p&gt;
  &lt;p id=&quot;I09K&quot;&gt;Платформа генерирует плавные движения, реалистичные переходы, масштабные эффекты и выразительную мимику. Даже лауреат премии «Оскар» продюсер Карл Рид отмечал, что Vidu справляется с 2D-анимацией.&lt;/p&gt;
  &lt;figure id=&quot;QxiO&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/b2b0acabb4ff03ac62ffb1f76d799a27.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Пример из мультяшного ролика по промпту Girl walking along the Moscow embankment. Kremlin in the background. Кремль не используется, но получилось почти без огрехов&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;5&quot;&gt;4. &lt;a href=&quot;https://runwayml.com/research/introducing-gen-3-alpha&quot; target=&quot;_blank&quot;&gt;Runway Gen-3&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;51V9&quot;&gt;В ИИ Runway третьего поколения можно создать видео, будто вырезанное из sci-fi фильма. А в режиме image-to-video платформа превращает фото в атмосферный монтаж с движением, плавными переходами и киноэффектами.&lt;/p&gt;
  &lt;p id=&quot;gt9x&quot;&gt;На платформе доступна кастомизация — можно управлять темпом и переходами. Показывается превью в реальном времени — удобно следить за результатом.&lt;/p&gt;
  &lt;p id=&quot;BSa1&quot;&gt;Можно загрузить личные фотографии, арты, рекламные баннеры — и на выходе получить динамичный ролик с мягкими панорамами и зумами.&lt;/p&gt;
  &lt;figure id=&quot;2ZQb&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/bee1f13036f1cebe10f7b6122ee45eeb.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Кадры из видео по загруженной фотографии девушки и промпту Girl walking along the Moscow embankment. Kremlin in the background&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;6&quot;&gt;5. &lt;a href=&quot;https://stability.ai/stable-video&quot; target=&quot;_blank&quot;&gt;Stable Video Diffusion&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;sCAW&quot;&gt;Главные отличия Stable Video Diffusion (SVD) от конкурентов — тщательная проработка стратегии обучения и масштабирование модели на огромных наборах данных.&lt;/p&gt;
  &lt;p id=&quot;VQqh&quot;&gt;ИИ умеет генерировать ролики по текстовому описанию с кинематографической проработкой сцен, превращать статичные изображения в последовательность реалистичных кадров.&lt;/p&gt;
  &lt;p id=&quot;EXAH&quot;&gt;Есть функция multi-view — создание нескольких согласованных ракурсов объекта. Инструмент Frame Interpolation позволяет плавно дополнять промежуточные кадры — чтобы повысить частоту видео. Используется контроль движения камеры (LoRA).&lt;/p&gt;
  &lt;figure id=&quot;sHJv&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/6ade786acccea0e884894d3bdc069dcf.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Скриншоты видео от Stable Video Diffusion&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;7&quot;&gt;6. &lt;a href=&quot;https://hailuoai.video/&quot; target=&quot;_blank&quot;&gt;Hailuo&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;Jm60&quot;&gt;Нейросеть Hailuo AI MiniMax позволяет генерировать полноценные креативы на основе одного изображения.&lt;/p&gt;
  &lt;p id=&quot;fITr&quot;&gt;Hailuo хорошо создает сцены, в которых требуется плавное, минималистичное движение. Например, медленный зум. Сложнее обстоят дела с быстрыми сценами: активным движением персонажей, резкой сменой ракурсов. Такие видео иногда требуют нескольких итераций и шлифовки промпта.&lt;/p&gt;
  &lt;p id=&quot;B579&quot;&gt;Сложные действия — бег, танец — могут давать нестабильный результат. Но если использовать четкий и детализированный запрос, ИИ способен справиться и с этим.&lt;/p&gt;
  &lt;figure id=&quot;HzqZ&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/d1d4efd10917d28527767ed2041fc623.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Скриншоты из ролика по запросу Girl walking along the Moscow embankment. Kremlin in the background [Truck left, Pan right, Tracking shot]&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;8&quot;&gt;7. &lt;a href=&quot;https://www.klingai.com/global/&quot; target=&quot;_blank&quot;&gt;Kling&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;h7iv&quot;&gt;ИИ Kling хорошо справляется с простыми сценами и плавными действиями, но, как и большинство генераторов, сложно работает с быстрыми и сложными движениями вроде танцев или прыжков.&lt;/p&gt;
  &lt;p id=&quot;lBui&quot;&gt;Motion Brush — одна из самых интересных фишек этого ИИ. С ее помощью можно вручную задать траекторию движения объектов в кадре через рисунок прямо по изображению. Motion Brush отлично справляется с мелкими движениями, например, поворотами головы. При этом Kling может добиться похожего эффекта через промпт, но без такой точности.&lt;/p&gt;
  &lt;figure id=&quot;nYB6&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/a17f59c9ce10e9cac963fb99ccfcfc79.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Скриншоты из видео от Kling&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;9&quot;&gt;8. &lt;a href=&quot;https://www.genmo.ai/&quot; target=&quot;_blank&quot;&gt;Genmo Mochi&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;Pdw0&quot;&gt;ИИ от Genmo четко следует текстовому сценарию: учитывает персонажей, окружение, ракурсы, стиль камеры и настроение сцены. Дополняет это реалистичная симуляция физики — ветер, волосы, вода, ткань, мимика. То есть с Mochi можно создавать короткие сцены с живыми персонажами и детализированным окружением.&lt;/p&gt;
  &lt;p id=&quot;moUg&quot;&gt;Mochi дает «управлять камерой»: прописывать панораму, зум, наклон и поворот, плавные переходы. Уровень динамики можно настроить от стабильного (50%) до максимально насыщенного движением (99%).&lt;/p&gt;
  &lt;figure id=&quot;fdiu&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/5ba7caaf942d208d8d4fbeb2812dc37f.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Скриншот ролика от Genmo Mochi&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;10&quot;&gt;9. &lt;a href=&quot;https://fusionbrain.ai/&quot; target=&quot;_blank&quot;&gt;Kandinsky&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;m1Wk&quot;&gt;Kandinsky 4.0 — логическое продолжение моделей Kandinsky 3.0/3.1 (text-to-image) и Kandinsky Video 1.0/1.1 (text-to-video). У «Кандинского» частично открытый код и бесплатный API-доступ.&lt;/p&gt;
  &lt;p id=&quot;8bY2&quot;&gt;Что умеет русская бесплатная нейросеть для видео?&lt;/p&gt;
  &lt;ul id=&quot;OgUW&quot;&gt;
    &lt;li id=&quot;TgrF&quot;&gt;Text-to-Video: генерирует ролик по текстовому описанию.&lt;/li&gt;
    &lt;li id=&quot;8gYH&quot;&gt;Image-to-Video: превращает изображения в видео с моушеном и переходами.&lt;/li&gt;
    &lt;li id=&quot;lhGq&quot;&gt;Text-to-Image-to-Video: по тексту создает картинку, а затем ролик.&lt;/li&gt;
    &lt;li id=&quot;ikKM&quot;&gt;Video-to-Audio: генерирует аудио сопровождение к видео.&lt;/li&gt;
  &lt;/ul&gt;
  &lt;p id=&quot;H6PX&quot;&gt;Модель поддерживает реалистичные эффекты — свет, ветер, движение жидкости, блики. Можно прописать детали: мягкий фокус, кинематографическая глубина резкости. На практике, чтобы получить хороший результат, нужно несколько попыток. На каждую уходит примерно по 4 минуты.&lt;/p&gt;
  &lt;figure id=&quot;amyQ&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/612fda10a212b571b58b449b16e41c5f.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Скриншоты видео от Kandinsky 4.0&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;11&quot;&gt;10. &lt;a href=&quot;https://shedevrum.ai/&quot; target=&quot;_blank&quot;&gt;Шедеврум&lt;/a&gt;&lt;/h2&gt;
  &lt;p id=&quot;eRyd&quot;&gt;ИИ Шедеврум от Яндекса может генерировать четырехсекундные ролики с частотой 24 кадра в секунду в формате MP4. Чтобы получить ролик, пользователю нужно ввести текстовое описание задуманной сцены. Далее ИИ предложит четыре варианта первого кадра и набор анимационных эффектов, которые определяют стиль движения в ролике.&lt;/p&gt;
  &lt;p id=&quot;sQgt&quot;&gt;На практике Шедеврум иногда отказывается выполнять запросы. Например, не хочет генерировать видео по промпту &lt;em&gt;«Девушка гуляет по набережной Москвы, на фоне Кремль, естественное освещение»&lt;/em&gt;. Но соглашается на запрос &lt;em&gt;«Девушка гуляет по набережной Москвы»&lt;/em&gt;.&lt;/p&gt;
  &lt;p id=&quot;MVSS&quot;&gt;Первые кадры — изображения — получаются отличные, но при анимации ИИ иногда сливает человека с объектами, а сама картинка немного дергается.&lt;/p&gt;
  &lt;figure id=&quot;ue1n&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/90a939819cf2f80187ea7e67bf58b9d7.jpg&quot; width=&quot;1999&quot; /&gt;
    &lt;figcaption&gt;Скриншоты видео от Шедеврума&lt;/figcaption&gt;
  &lt;/figure&gt;
  &lt;h2 id=&quot;12&quot;&gt;Как правильно составлять промпты для генерации видео&lt;/h2&gt;
  &lt;p id=&quot;ulEq&quot;&gt;Несмотря на разницу в интерфейсах и технических возможностях ИИ, принципы построения промта универсальны для них всех:&lt;/p&gt;
  &lt;ul id=&quot;QIUS&quot;&gt;
    &lt;li id=&quot;xOx0&quot;&gt;Главный объект или действие. Это может быть персонаж, животное, природное явление, техника или фантастическая сущность. Чем конкретнее, тем лучше. Пример: &lt;em&gt;«Робот идет по разрушенному городу»&lt;/em&gt;.&lt;/li&gt;
    &lt;li id=&quot;UfNv&quot;&gt;Сцена и окружение. Опишите, где происходит действие: пейзаж, интерьер, время суток, погодные условия. Пример: &lt;em&gt;«Город в постапокалиптическом стиле, сумерки, туман»&lt;/em&gt;.&lt;/li&gt;
    &lt;li id=&quot;eTAl&quot;&gt;Движение или динамика. Видео предполагает развитие — добавьте глаголы и пространственные указания: «летит», «движется вперед», «камера вращается», «вид сверху». Пример: &lt;em&gt;«Дрон пролетает над каньоном»&lt;/em&gt;.&lt;/li&gt;
    &lt;li id=&quot;ZxiN&quot;&gt;Стиль и атмосфера. Уточните художественную обработку: реализм, мультфильм, неон, стимпанк, 3D, черно-белое кино. Пример: &lt;em&gt;«В стилистике научной фантастики 70-х годов»&lt;/em&gt;.&lt;/li&gt;
    &lt;li id=&quot;lyNM&quot;&gt;Темп и ритм. Если ИИ это поддерживает, полезно указать, какое движение вам нужно: быстрое, медленное, плавное или скачкообразное.&lt;/li&gt;
  &lt;/ul&gt;
  &lt;h2 id=&quot;13&quot;&gt;Частые ошибки при составлении промптов для генерации роликов&lt;/h2&gt;
  &lt;ul id=&quot;uG5S&quot;&gt;
    &lt;li id=&quot;YmOK&quot;&gt;Избыточная длина запроса. Слишком длинные промты затрудняют интерпретацию. Лучше — коротко и по сути.&lt;/li&gt;
    &lt;li id=&quot;j5Oo&quot;&gt;Слишком общие фразы. Например, &lt;em&gt;«что-то красивое»&lt;/em&gt; или &lt;em&gt;«вдохновляющее видео». &lt;/em&gt;Они не дадут ИИ нужных ориентиров. Вместо абстракций используйте конкретные визуальные образы.&lt;/li&gt;
    &lt;li id=&quot;wKvL&quot;&gt;Противоречия в запросе. Не упоминайте в промпте одновременно день и ночь, джунгли и пустыню, реализм и мультяшность. Это сбивает алгоритм.&lt;/li&gt;
  &lt;/ul&gt;
  &lt;h2 id=&quot;14&quot;&gt;&lt;/h2&gt;
  &lt;p id=&quot;sWoO&quot;&gt;источник &lt;a href=&quot;https://pr-cy.ru/news/p/10611-top-neurosetey-video?utm_source=news&amp;utm_medium=email&amp;utm_campaign=weekly&amp;utm_content=main_theme&quot; target=&quot;_blank&quot;&gt;https://pr-cy.ru/news/p/10611-top-neurosetey-video?utm_source=news&amp;amp;utm_medium=email&amp;amp;utm_campaign=weekly&amp;amp;utm_content=main_theme&lt;/a&gt;&lt;/p&gt;

</content></entry><entry><id>kayros81:DH0JX-9m7DT</id><link rel="alternate" type="text/html" href="https://teletype.in/@kayros81/DH0JX-9m7DT?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=kayros81"></link><title>5 Open-Source MCP Servers That ll Make Your AI Agents Unstoppable</title><published>2025-04-21T09:23:31.652Z</published><updated>2025-04-21T09:25:13.035Z</updated><media:thumbnail xmlns:media="http://search.yahoo.com/mrss/" url="https://img3.teletype.in/files/6e/46/6e46cca6-6c0c-4913-b582-8eb49db6ad22.png"></media:thumbnail><tt:hashtag>mcps</tt:hashtag><tt:hashtag>mcp_server</tt:hashtag><summary type="html">&lt;img src=&quot;https://miro.medium.com/v2/resize:fit:700/1*J7eJdJABcxolA4WaDLHvaA.png&quot;&gt;Freedium</summary><content type="html">
  &lt;figure id=&quot;Dx6c&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://miro.medium.com/v2/resize:fit:700/1*J7eJdJABcxolA4WaDLHvaA.png&quot; width=&quot;700&quot; /&gt;
  &lt;/figure&gt;
  &lt;h1 id=&quot;X15Y&quot;&gt;So, I&amp;#x27;ve been messing around with AI lately — Claude, mostly — and I got kinda bored with it just answering questions.&lt;/h1&gt;
  &lt;p id=&quot;8HNv&quot;&gt;I wanted it to &lt;em&gt;do&lt;/em&gt; stuff, you know? Like pull data from websites or poke around my GitHub.&lt;/p&gt;
  &lt;p id=&quot;Zr6L&quot;&gt;That&amp;#x27;s when I found these things called MCP servers. They&amp;#x27;re like little helpers that let your AI interact with tools and apps. Open-source, free, and honestly kinda fun to play with.&lt;/p&gt;
  &lt;p id=&quot;IgZW&quot;&gt;I&amp;#x27;m gonna tell you about five I&amp;#x27;ve tried that made me go, &amp;quot;Whoa, this is awesome.&amp;quot;&lt;/p&gt;
  &lt;h3 id=&quot;bca6&quot;&gt;What&amp;#x27;s an MCP Server?&lt;/h3&gt;
  &lt;p id=&quot;x2o7&quot;&gt;Okay, MCP stands for Model Context Protocol. It&amp;#x27;s a way for AIs like Claude to talk to stuff outside their bubble, like websites or code notebooks. Without it, your AI&amp;#x27;s just guessing.&lt;/p&gt;
  &lt;blockquote id=&quot;6G8R&quot;&gt;With it, it&amp;#x27;s like, &amp;quot;Hey, Claude, grab my GitHub issues,&amp;quot; and it actually does it. I was stoked when I first got one working — it felt like I&amp;#x27;d unlocked a cheat code.&lt;/blockquote&gt;
  &lt;p id=&quot;8VLG&quot;&gt;Here are the five I&amp;#x27;ve been digging into.&lt;/p&gt;
  &lt;h3 id=&quot;d0b2&quot;&gt;1. Stagehand: AI That Surfs the Web&lt;/h3&gt;
  &lt;p id=&quot;iYCn&quot;&gt;Stagehand&amp;#x27;s this cool tool from &lt;a href=&quot;https://www.browserbase.com/&quot; target=&quot;_blank&quot;&gt;Browserbase&lt;/a&gt;. It lets your AI act like it&amp;#x27;s got a browser open — clicking links, grabbing text, whatever. I used it to scrape a bunch of recipe titles from a food blog for a project, and it was way easier than writing scripts myself.&lt;/p&gt;
  &lt;pre id=&quot;86kg&quot;&gt;Copygit clone https://github.com/browserbase/stagehand-mcp
cd stagehand-mcp
npm install
npm start&lt;/pre&gt;
  &lt;p id=&quot;nuW3&quot;&gt;It runs on localhost:3000. Then I told Claude (using Claude Desktop, which works great for this):&lt;/p&gt;
  &lt;pre id=&quot;Xsk4&quot;&gt;CopyGo to a news site and get the top headlines.Stagehand zipped over, snatched the titles, and Claude spit them back out. So handy for stuff like checking prices or pulling data without coding.&lt;/pre&gt;
  &lt;blockquote id=&quot;HOla&quot;&gt;It&amp;#x27;s free, open-source, and doesn&amp;#x27;t break like some other web tools I&amp;#x27;ve tried.&lt;/blockquote&gt;
  &lt;figure id=&quot;sG11&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://miro.medium.com/v2/resize:fit:700/1*J7eJdJABcxolA4WaDLHvaA.png&quot; width=&quot;700&quot; /&gt;
  &lt;/figure&gt;
  &lt;h3 id=&quot;6266&quot;&gt;2. Jupyter: Data Stuff Without the Hassle&lt;/h3&gt;
  &lt;p id=&quot;ZRkZ&quot;&gt;This one&amp;#x27;s for anyone who likes playing with numbers. The Jupyter MCP server lets your AI mess with Jupyter notebooks — you know, those coding apps for data. I&amp;#x27;m no data scientist, but I got Claude to look at a CSV of my coffee shop spending (embarrassing, honestly) and tell me what&amp;#x27;s up.&lt;/p&gt;
  &lt;p id=&quot;mBJR&quot;&gt;Here&amp;#x27;s how I set it up:&lt;/p&gt;
  &lt;pre id=&quot;eeTW&quot;&gt;Copygit clone https://github.com/jjsantos01/jupyter-notebook-mcp
cd jupyter-notebook-mcp
pip install -r requirements.txt
python server.py&lt;/pre&gt;
  &lt;p id=&quot;nbJA&quot;&gt;It runs on localhost:8000. I told Claude:&lt;/p&gt;
  &lt;pre id=&quot;D9Gk&quot;&gt;CopyOpen coffee.csv and tell me how much I spent on lattes.&lt;/pre&gt;
  &lt;p id=&quot;uZkT&quot;&gt;Claude made a notebook, ran some Python, and said:&lt;/p&gt;
  &lt;pre id=&quot;hONu&quot;&gt;CopyYou dropped $87.50 on lattes this month. Ouch.&lt;/pre&gt;
  &lt;blockquote id=&quot;nwJ8&quot;&gt;I didn&amp;#x27;t have to write any code myself. It&amp;#x27;s like having a nerdy friend do the math for you.&lt;/blockquote&gt;
  &lt;h3 id=&quot;d4cb&quot;&gt;3. Opik: Figuring Out What Your AI&amp;#x27;s Doing&lt;/h3&gt;
  &lt;p id=&quot;ZESS&quot;&gt;Opik&amp;#x27;s from &lt;a href=&quot;https://www.comet.com/site/&quot; target=&quot;_blank&quot;&gt;Comet&lt;/a&gt;, and it&amp;#x27;s all about keeping tabs on your AI. Like, if it starts acting weird, Opik shows you why. I had an AI bot once that kept giving dumb answers, and Opik helped me see it was hitting a limit on some API.&lt;/p&gt;
  &lt;p id=&quot;c9CU&quot;&gt;I got it going with:&lt;/p&gt;
  &lt;pre id=&quot;zWvR&quot;&gt;Copygit clone https://github.com/comet-ml/opik
cd opik
./opik.sh&lt;/pre&gt;
  &lt;p id=&quot;Ru9w&quot;&gt;Then I added it to some code:&lt;/p&gt;
  &lt;pre id=&quot;qkGy&quot;&gt;Copyimport opik

opik.configure(use_local=True)

@opik.track
def ask_something(question):
    return &amp;quot;You asked: &amp;quot; + question

ask_something(&amp;quot;What&amp;#x27;s for dinner?&amp;quot;)I asked Claude to check the logs:
Show me what my AI&amp;#x27;s been up to.&lt;/pre&gt;
  &lt;p id=&quot;M3RB&quot;&gt;It showed me every call, how long it took, all that jazz.&lt;/p&gt;
  &lt;blockquote id=&quot;yyKn&quot;&gt;It&amp;#x27;s like a spy for your AI, helping you catch problems fast.&lt;/blockquote&gt;
  &lt;figure id=&quot;S7ss&quot; class=&quot;m_original&quot;&gt;
    &lt;img src=&quot;https://miro.medium.com/v2/resize:fit:700/1*AS0o2pJsLYfKLD_KYfcq4Q.png&quot; width=&quot;700&quot; /&gt;
  &lt;/figure&gt;
  &lt;h3 id=&quot;9e81&quot;&gt;4. GitHub: AI That Codes With You&lt;/h3&gt;
  &lt;p id=&quot;uxpg&quot;&gt;This server&amp;#x27;s straight from GitHub, and it lets your AI dig into your repos. I used it when I was swamped and needed to check what was going on in a project without opening a million tabs. Claude just gave me a rundown of open issues — super helpful.&lt;/p&gt;
  &lt;p id=&quot;hPvj&quot;&gt;Setup&amp;#x27;s like this:&lt;/p&gt;
  &lt;pre id=&quot;HWGW&quot;&gt;Copygit clone https://github.com/github/github-mcp-server
cd github-mcp-server
npm install
export GITHUB_TOKEN=your_token
npm start&lt;/pre&gt;
  &lt;p id=&quot;A6xq&quot;&gt;It&amp;#x27;s on localhost:4000. I said:&lt;/p&gt;
  &lt;pre id=&quot;IneA&quot;&gt;CopyClaude, what&amp;#x27;s up with my repo &amp;#x27;side-hustle&amp;#x27;?&lt;/pre&gt;
  &lt;p id=&quot;p23D&quot;&gt;Claude came back with:&lt;/p&gt;
  &lt;pre id=&quot;YgEO&quot;&gt;CopyTwo issues open: one&amp;#x27;s a bug in the login, another&amp;#x27;s about adding a share button.&lt;/pre&gt;
  &lt;blockquote id=&quot;biE6&quot;&gt;Saves me from drowning in GitHub notifications.&lt;/blockquote&gt;
  &lt;h3 id=&quot;94b5&quot;&gt;5. FastAPI-MCP: Your AI Calls Your APIs&lt;/h3&gt;
  &lt;p id=&quot;1mSh&quot;&gt;FastAPI-MCP is this neat trick for turning FastAPI apps into something your AI can use. I made a little API to track my to-do list, and this let Claude check it without me doing extra work.&lt;/p&gt;
  &lt;p id=&quot;kyRR&quot;&gt;Here&amp;#x27;s what I did:&lt;/p&gt;
  &lt;pre id=&quot;1xv7&quot;&gt;CopyОбъяснятьgit clone https://github.com/jlowin/fastmcp
cd fastmcp
pip install fastapi-mcpThen I tweaked my FastAPI app:
from fastapi import FastAPI
from fastmcp import mcp

app = FastAPI()

@app.get(&amp;quot;/todo/{item_id}&amp;quot;)
async def get_todo(item_id: int):
    return {&amp;quot;id&amp;quot;: item_id, &amp;quot;task&amp;quot;: f&amp;quot;Task {item_id}&amp;quot;}

@mcp.tool()
async def get_todo_tool(item_id: int):
    return await get_todo(item_id)&lt;/pre&gt;
  &lt;p id=&quot;wZEr&quot;&gt;Ran it with uvicorn main:app — reload, hooked it to localhost:8000, and told Claude:&lt;/p&gt;
  &lt;pre id=&quot;8ONr&quot;&gt;CopyWhat&amp;#x27;s task 5 on my to-do list?Got back:
Task 5 is &amp;quot;Call mom.&amp;quot;&lt;/pre&gt;
  &lt;blockquote id=&quot;j3rb&quot;&gt;It&amp;#x27;s dead simple to make my own tools for Claude.&lt;/blockquote&gt;
  &lt;h3 id=&quot;24c5&quot;&gt;Why These Are Worth Your Time&lt;/h3&gt;
  &lt;p id=&quot;lCUR&quot;&gt;I&amp;#x27;ve had a blast with these servers. Stagehand&amp;#x27;s great for web stuff, Jupyter&amp;#x27;s awesome for data, Opik keeps things honest, GitHub&amp;#x27;s a coder&amp;#x27;s dream, and FastAPI-MCP lets me build whatever. They&amp;#x27;re all free, and you can tweak them if you&amp;#x27;re feeling fancy.&lt;/p&gt;
  &lt;p id=&quot;78Jl&quot;&gt;A few things I learned:&lt;/p&gt;
  &lt;blockquote id=&quot;IPC3&quot;&gt;Start with one that sounds fun. I picked GitHub first &amp;#x27;cause I&amp;#x27;m always in repos.&lt;/blockquote&gt;
  &lt;blockquote id=&quot;QcMA&quot;&gt;Claude Desktop&amp;#x27;s my go-to for testing this stuff.&lt;/blockquote&gt;
  &lt;blockquote id=&quot;vMez&quot;&gt;Check GitHub for each server&amp;#x27;s readme — it&amp;#x27;s got the good stuff.&lt;/blockquote&gt;
  &lt;blockquote id=&quot;a6Q2&quot;&gt;Play around locally before you go big.&lt;/blockquote&gt;
  &lt;tt-tags id=&quot;BBFS&quot;&gt;
    &lt;tt-tag name=&quot;mcps&quot;&gt;#mcps&lt;/tt-tag&gt;
    &lt;tt-tag name=&quot;mcp_server&quot;&gt;#mcp_server&lt;/tt-tag&gt;
  &lt;/tt-tags&gt;

</content></entry></feed>