<?xml version="1.0" encoding="utf-8" ?><rss version="2.0" xmlns:tt="http://teletype.in/" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>Dmytro V</title><generator>teletype.in</generator><description><![CDATA[Dmytro V]]></description><link>https://teletype.in/@kayros81?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=kayros81</link><atom:link rel="self" type="application/rss+xml" href="https://teletype.in/rss/kayros81?offset=0"></atom:link><atom:link rel="next" type="application/rss+xml" href="https://teletype.in/rss/kayros81?offset=10"></atom:link><atom:link rel="search" type="application/opensearchdescription+xml" title="Teletype" href="https://teletype.in/opensearch.xml"></atom:link><pubDate>Sun, 05 Apr 2026 12:03:15 GMT</pubDate><lastBuildDate>Sun, 05 Apr 2026 12:03:15 GMT</lastBuildDate><item><guid isPermaLink="true">https://teletype.in/@kayros81/TPYxP5CJs0g</guid><link>https://teletype.in/@kayros81/TPYxP5CJs0g?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=kayros81</link><comments>https://teletype.in/@kayros81/TPYxP5CJs0g?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=kayros81#comments</comments><dc:creator>kayros81</dc:creator><title>Топ-10 лучших нейросетей для создания видео</title><pubDate>Tue, 22 Apr 2025 14:33:05 GMT</pubDate><media:content medium="image" url="https://img2.teletype.in/files/17/6f/176fb73f-d50a-4004-a71c-3a8146ee310d.png"></media:content><description><![CDATA[<img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/0d49b3050e0358f0c5727d046b120976.jpg"></img>Нужно быстро создать видео, а времени, навыков или бюджета нет? На помощь придут нейросети. Инструменты на основе ИИ уже умеют генерировать видео с нуля, озвучивать ролики, убирать шум, стабилизировать картинку, подставлять голос или переводить речь на другой язык.]]></description><content:encoded><![CDATA[
  <p id="1YLR">Нужно быстро создать видео, а времени, навыков или бюджета нет? На помощь придут нейросети. Инструменты на основе ИИ уже умеют генерировать видео с нуля, озвучивать ролики, убирать шум, стабилизировать картинку, подставлять голос или переводить речь на другой язык.</p>
  <h2 id="1">Зачем использовать ИИ для создания видео и кому это пригодится</h2>
  <p id="lTvX">Создание ролика — процесс не самый быстрый и простой. Нужно писать сценарий, снимать, монтировать, озвучивать. А если добавить сюда цветокоррекцию, работу со звуком и анимацию — можно потратить недели, а то и месяцы.</p>
  <p id="X931">По крайней мере, так было раньше. С появлением ИИ многое стало легче. Теперь достаточно одной идеи — и нейросети для видео онлайн воплощают ее в жизнь.</p>
  <p id="AIF6">Кому пригодятся ИИ-инструменты?</p>
  <ul id="TYzt">
    <li id="zwzJ">Маркетологам и SMM-специалистам — чтобы делать ролики для соцсетей быстро и в больших количествах.</li>
    <li id="dpXq">Малому бизнесу — для презентаций, рекламы и обучающих роликов без привлечения агентств.</li>
    <li id="b6Ud">Блогерам и авторам контента — чтобы прокачать качество контента и упростить монтаж.</li>
    <li id="3YGj">Преподавателям и коучам — для записи и оформления обучающих роликов.</li>
    <li id="MC0Z">HR-специалистам и рекрутерам — чтобы делать короткие видео о вакансии или онбординг-ролики.</li>
    <li id="7lYT">Просто людям с идеями — ведь теперь, чтобы создать видео, не нужно быть продюсером.</li>
  </ul>
  <h2 id="2">1. <a href="https://openai.com/sora/" target="_blank">Sora</a></h2>
  <p id="TRPT">Если вы хоть немного интересуетесь нейросетями, то наверняка слышали про Sora — флагманский инструмент от компании OpenAI для генерации видео. Его активно обсуждают маркетологи, креаторы, предприниматели и просто фанаты технологий. Но действительно ли он так хорош, как о нем говорят?</p>
  <p id="N3C7">Sora — это ИИ для генерации видео, которая создает реалистичные короткие ролики (от 5 до 20 секунд) по обычному текстовому описанию. Работает Sora на базе GPT и других моделей OpenAI и доступен только по платной подписке внутри ChatGPT.</p>
  <p id="GaGk">Sora умеет:</p>
  <ul id="lrkf">
    <li id="e3w3">создавать видео из текстового запроса на английском,</li>
    <li id="2FKL">генерировать сцену целиком, а не по кадрам — за счет чего ролик выглядит цельным,</li>
    <li id="5BCZ">редактировать уже готовые ролики, менять детали, продлевать сцены или делать зацикленные фрагменты,</li>
    <li id="7wND">подбирать шаблоны, стили, соединять разные фрагменты и управлять композицией с помощью функции Storyboard.</li>
  </ul>
  <p id="JQEK">Sora особенно хороша в создании пейзажей, абстрактных паттернов и мультяшных роликов. Видео с людьми и животными получаются чуть менее реалистичными, особенно при активных движениях — но для многих задач это не критично. А вот если вы хотите добиться кинематографического эффекта или создать вау-ролик для соцсетей, Sora вполне справится.</p>
  <figure id="igda" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/0d49b3050e0358f0c5727d046b120976.jpg" width="1999" />
    <figcaption>Скриншоты видео от Sora</figcaption>
  </figure>
  <h2 id="3">2. <a href="https://deepmind.google/technologies/veo/veo-2/" target="_blank">Google Veo</a></h2>
  <p id="q0e2">Veo 2.0 — это модель генерации видео от Google. Она работает на базе ИИ и интегрирована с Google Cloud. Позволяет пользователям создавать короткие ролики в разных стилях по текстовым подсказкам. Фокус — на визуальную реалистичность, сложные эффекты, движения камеры и работу со светом.</p>
  <p id="scQd">У ИИ от Google есть ограничения. Например, нет AI-аватаров, то есть нельзя персонализировать ролик или использовать нужное лицо. Но нейросеть хорошо подойдет для визуально сложных коротких видео — промороликов, эстетичных заставок, mood-видео. Сработает для креативщиков и маркетологов, которым важна визуальная составляющая.</p>
  <figure id="KF3O" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/2daa2f1b0d1320ceaf537d0e39b56c21.jpg" width="1999" />
    <figcaption>Скриншоты видео от Google Veo</figcaption>
  </figure>
  <h2 id="4">3. <a href="https://www.vidu.com/" target="_blank">Vidu</a></h2>
  <p id="E0br">Одна из фишек Vidu — создание видео по референсам. Можно загружать персонажей, объекты, окружение. Система Multi-Entity Consistency гарантирует, что все визуальные элементы будут органично сочетаться.</p>
  <p id="egaa">Загружаете изображение, описываете нужную анимацию — и получаете полноценный ролик. Эта функция идеально подходит для сторителлинга, образовательных роликов и креативов. Можно действовать и через текст — описываете, что хотите увидеть. Создание видео занимает меньше 30 секунд.</p>
  <p id="I09K">Платформа генерирует плавные движения, реалистичные переходы, масштабные эффекты и выразительную мимику. Даже лауреат премии «Оскар» продюсер Карл Рид отмечал, что Vidu справляется с 2D-анимацией.</p>
  <figure id="QxiO" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/b2b0acabb4ff03ac62ffb1f76d799a27.jpg" width="1999" />
    <figcaption>Пример из мультяшного ролика по промпту Girl walking along the Moscow embankment. Kremlin in the background. Кремль не используется, но получилось почти без огрехов</figcaption>
  </figure>
  <h2 id="5">4. <a href="https://runwayml.com/research/introducing-gen-3-alpha" target="_blank">Runway Gen-3</a></h2>
  <p id="51V9">В ИИ Runway третьего поколения можно создать видео, будто вырезанное из sci-fi фильма. А в режиме image-to-video платформа превращает фото в атмосферный монтаж с движением, плавными переходами и киноэффектами.</p>
  <p id="gt9x">На платформе доступна кастомизация — можно управлять темпом и переходами. Показывается превью в реальном времени — удобно следить за результатом.</p>
  <p id="BSa1">Можно загрузить личные фотографии, арты, рекламные баннеры — и на выходе получить динамичный ролик с мягкими панорамами и зумами.</p>
  <figure id="2ZQb" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/bee1f13036f1cebe10f7b6122ee45eeb.jpg" width="1999" />
    <figcaption>Кадры из видео по загруженной фотографии девушки и промпту Girl walking along the Moscow embankment. Kremlin in the background</figcaption>
  </figure>
  <h2 id="6">5. <a href="https://stability.ai/stable-video" target="_blank">Stable Video Diffusion</a></h2>
  <p id="sCAW">Главные отличия Stable Video Diffusion (SVD) от конкурентов — тщательная проработка стратегии обучения и масштабирование модели на огромных наборах данных.</p>
  <p id="VQqh">ИИ умеет генерировать ролики по текстовому описанию с кинематографической проработкой сцен, превращать статичные изображения в последовательность реалистичных кадров.</p>
  <p id="EXAH">Есть функция multi-view — создание нескольких согласованных ракурсов объекта. Инструмент Frame Interpolation позволяет плавно дополнять промежуточные кадры — чтобы повысить частоту видео. Используется контроль движения камеры (LoRA).</p>
  <figure id="sHJv" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/6ade786acccea0e884894d3bdc069dcf.jpg" width="1999" />
    <figcaption>Скриншоты видео от Stable Video Diffusion</figcaption>
  </figure>
  <h2 id="7">6. <a href="https://hailuoai.video/" target="_blank">Hailuo</a></h2>
  <p id="Jm60">Нейросеть Hailuo AI MiniMax позволяет генерировать полноценные креативы на основе одного изображения.</p>
  <p id="fITr">Hailuo хорошо создает сцены, в которых требуется плавное, минималистичное движение. Например, медленный зум. Сложнее обстоят дела с быстрыми сценами: активным движением персонажей, резкой сменой ракурсов. Такие видео иногда требуют нескольких итераций и шлифовки промпта.</p>
  <p id="B579">Сложные действия — бег, танец — могут давать нестабильный результат. Но если использовать четкий и детализированный запрос, ИИ способен справиться и с этим.</p>
  <figure id="HzqZ" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/d1d4efd10917d28527767ed2041fc623.jpg" width="1999" />
    <figcaption>Скриншоты из ролика по запросу Girl walking along the Moscow embankment. Kremlin in the background [Truck left, Pan right, Tracking shot]</figcaption>
  </figure>
  <h2 id="8">7. <a href="https://www.klingai.com/global/" target="_blank">Kling</a></h2>
  <p id="h7iv">ИИ Kling хорошо справляется с простыми сценами и плавными действиями, но, как и большинство генераторов, сложно работает с быстрыми и сложными движениями вроде танцев или прыжков.</p>
  <p id="lBui">Motion Brush — одна из самых интересных фишек этого ИИ. С ее помощью можно вручную задать траекторию движения объектов в кадре через рисунок прямо по изображению. Motion Brush отлично справляется с мелкими движениями, например, поворотами головы. При этом Kling может добиться похожего эффекта через промпт, но без такой точности.</p>
  <figure id="nYB6" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/a17f59c9ce10e9cac963fb99ccfcfc79.jpg" width="1999" />
    <figcaption>Скриншоты из видео от Kling</figcaption>
  </figure>
  <h2 id="9">8. <a href="https://www.genmo.ai/" target="_blank">Genmo Mochi</a></h2>
  <p id="Pdw0">ИИ от Genmo четко следует текстовому сценарию: учитывает персонажей, окружение, ракурсы, стиль камеры и настроение сцены. Дополняет это реалистичная симуляция физики — ветер, волосы, вода, ткань, мимика. То есть с Mochi можно создавать короткие сцены с живыми персонажами и детализированным окружением.</p>
  <p id="moUg">Mochi дает «управлять камерой»: прописывать панораму, зум, наклон и поворот, плавные переходы. Уровень динамики можно настроить от стабильного (50%) до максимально насыщенного движением (99%).</p>
  <figure id="fdiu" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/5ba7caaf942d208d8d4fbeb2812dc37f.jpg" width="1999" />
    <figcaption>Скриншот ролика от Genmo Mochi</figcaption>
  </figure>
  <h2 id="10">9. <a href="https://fusionbrain.ai/" target="_blank">Kandinsky</a></h2>
  <p id="m1Wk">Kandinsky 4.0 — логическое продолжение моделей Kandinsky 3.0/3.1 (text-to-image) и Kandinsky Video 1.0/1.1 (text-to-video). У «Кандинского» частично открытый код и бесплатный API-доступ.</p>
  <p id="8bY2">Что умеет русская бесплатная нейросеть для видео?</p>
  <ul id="OgUW">
    <li id="TgrF">Text-to-Video: генерирует ролик по текстовому описанию.</li>
    <li id="8gYH">Image-to-Video: превращает изображения в видео с моушеном и переходами.</li>
    <li id="lhGq">Text-to-Image-to-Video: по тексту создает картинку, а затем ролик.</li>
    <li id="ikKM">Video-to-Audio: генерирует аудио сопровождение к видео.</li>
  </ul>
  <p id="H6PX">Модель поддерживает реалистичные эффекты — свет, ветер, движение жидкости, блики. Можно прописать детали: мягкий фокус, кинематографическая глубина резкости. На практике, чтобы получить хороший результат, нужно несколько попыток. На каждую уходит примерно по 4 минуты.</p>
  <figure id="amyQ" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/612fda10a212b571b58b449b16e41c5f.jpg" width="1999" />
    <figcaption>Скриншоты видео от Kandinsky 4.0</figcaption>
  </figure>
  <h2 id="11">10. <a href="https://shedevrum.ai/" target="_blank">Шедеврум</a></h2>
  <p id="eRyd">ИИ Шедеврум от Яндекса может генерировать четырехсекундные ролики с частотой 24 кадра в секунду в формате MP4. Чтобы получить ролик, пользователю нужно ввести текстовое описание задуманной сцены. Далее ИИ предложит четыре варианта первого кадра и набор анимационных эффектов, которые определяют стиль движения в ролике.</p>
  <p id="sQgt">На практике Шедеврум иногда отказывается выполнять запросы. Например, не хочет генерировать видео по промпту <em>«Девушка гуляет по набережной Москвы, на фоне Кремль, естественное освещение»</em>. Но соглашается на запрос <em>«Девушка гуляет по набережной Москвы»</em>.</p>
  <p id="MVSS">Первые кадры — изображения — получаются отличные, но при анимации ИИ иногда сливает человека с объектами, а сама картинка немного дергается.</p>
  <figure id="ue1n" class="m_original">
    <img src="https://s3-eu-central-1.amazonaws.com/news.pr-cy.ru/1384120/images/90a939819cf2f80187ea7e67bf58b9d7.jpg" width="1999" />
    <figcaption>Скриншоты видео от Шедеврума</figcaption>
  </figure>
  <h2 id="12">Как правильно составлять промпты для генерации видео</h2>
  <p id="ulEq">Несмотря на разницу в интерфейсах и технических возможностях ИИ, принципы построения промта универсальны для них всех:</p>
  <ul id="QIUS">
    <li id="xOx0">Главный объект или действие. Это может быть персонаж, животное, природное явление, техника или фантастическая сущность. Чем конкретнее, тем лучше. Пример: <em>«Робот идет по разрушенному городу»</em>.</li>
    <li id="UfNv">Сцена и окружение. Опишите, где происходит действие: пейзаж, интерьер, время суток, погодные условия. Пример: <em>«Город в постапокалиптическом стиле, сумерки, туман»</em>.</li>
    <li id="eTAl">Движение или динамика. Видео предполагает развитие — добавьте глаголы и пространственные указания: «летит», «движется вперед», «камера вращается», «вид сверху». Пример: <em>«Дрон пролетает над каньоном»</em>.</li>
    <li id="ZxiN">Стиль и атмосфера. Уточните художественную обработку: реализм, мультфильм, неон, стимпанк, 3D, черно-белое кино. Пример: <em>«В стилистике научной фантастики 70-х годов»</em>.</li>
    <li id="lyNM">Темп и ритм. Если ИИ это поддерживает, полезно указать, какое движение вам нужно: быстрое, медленное, плавное или скачкообразное.</li>
  </ul>
  <h2 id="13">Частые ошибки при составлении промптов для генерации роликов</h2>
  <ul id="uG5S">
    <li id="YmOK">Избыточная длина запроса. Слишком длинные промты затрудняют интерпретацию. Лучше — коротко и по сути.</li>
    <li id="j5Oo">Слишком общие фразы. Например, <em>«что-то красивое»</em> или <em>«вдохновляющее видео». </em>Они не дадут ИИ нужных ориентиров. Вместо абстракций используйте конкретные визуальные образы.</li>
    <li id="wKvL">Противоречия в запросе. Не упоминайте в промпте одновременно день и ночь, джунгли и пустыню, реализм и мультяшность. Это сбивает алгоритм.</li>
  </ul>
  <h2 id="14"></h2>
  <p id="sWoO">источник <a href="https://pr-cy.ru/news/p/10611-top-neurosetey-video?utm_source=news&utm_medium=email&utm_campaign=weekly&utm_content=main_theme" target="_blank">https://pr-cy.ru/news/p/10611-top-neurosetey-video?utm_source=news&amp;utm_medium=email&amp;utm_campaign=weekly&amp;utm_content=main_theme</a></p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@kayros81/DH0JX-9m7DT</guid><link>https://teletype.in/@kayros81/DH0JX-9m7DT?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=kayros81</link><comments>https://teletype.in/@kayros81/DH0JX-9m7DT?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=kayros81#comments</comments><dc:creator>kayros81</dc:creator><title>5 Open-Source MCP Servers That ll Make Your AI Agents Unstoppable</title><pubDate>Mon, 21 Apr 2025 09:23:31 GMT</pubDate><media:content medium="image" url="https://img3.teletype.in/files/6e/46/6e46cca6-6c0c-4913-b582-8eb49db6ad22.png"></media:content><tt:hashtag>mcps</tt:hashtag><tt:hashtag>mcp_server</tt:hashtag><description><![CDATA[<img src="https://miro.medium.com/v2/resize:fit:700/1*J7eJdJABcxolA4WaDLHvaA.png"></img>Freedium]]></description><content:encoded><![CDATA[
  <figure id="Dx6c" class="m_original">
    <img src="https://miro.medium.com/v2/resize:fit:700/1*J7eJdJABcxolA4WaDLHvaA.png" width="700" />
  </figure>
  <h1 id="X15Y">So, I&#x27;ve been messing around with AI lately — Claude, mostly — and I got kinda bored with it just answering questions.</h1>
  <p id="8HNv">I wanted it to <em>do</em> stuff, you know? Like pull data from websites or poke around my GitHub.</p>
  <p id="Zr6L">That&#x27;s when I found these things called MCP servers. They&#x27;re like little helpers that let your AI interact with tools and apps. Open-source, free, and honestly kinda fun to play with.</p>
  <p id="IgZW">I&#x27;m gonna tell you about five I&#x27;ve tried that made me go, &quot;Whoa, this is awesome.&quot;</p>
  <h3 id="bca6">What&#x27;s an MCP Server?</h3>
  <p id="x2o7">Okay, MCP stands for Model Context Protocol. It&#x27;s a way for AIs like Claude to talk to stuff outside their bubble, like websites or code notebooks. Without it, your AI&#x27;s just guessing.</p>
  <blockquote id="6G8R">With it, it&#x27;s like, &quot;Hey, Claude, grab my GitHub issues,&quot; and it actually does it. I was stoked when I first got one working — it felt like I&#x27;d unlocked a cheat code.</blockquote>
  <p id="8VLG">Here are the five I&#x27;ve been digging into.</p>
  <h3 id="d0b2">1. Stagehand: AI That Surfs the Web</h3>
  <p id="iYCn">Stagehand&#x27;s this cool tool from <a href="https://www.browserbase.com/" target="_blank">Browserbase</a>. It lets your AI act like it&#x27;s got a browser open — clicking links, grabbing text, whatever. I used it to scrape a bunch of recipe titles from a food blog for a project, and it was way easier than writing scripts myself.</p>
  <pre id="86kg">Copygit clone https://github.com/browserbase/stagehand-mcp
cd stagehand-mcp
npm install
npm start</pre>
  <p id="nuW3">It runs on localhost:3000. Then I told Claude (using Claude Desktop, which works great for this):</p>
  <pre id="Xsk4">CopyGo to a news site and get the top headlines.Stagehand zipped over, snatched the titles, and Claude spit them back out. So handy for stuff like checking prices or pulling data without coding.</pre>
  <blockquote id="HOla">It&#x27;s free, open-source, and doesn&#x27;t break like some other web tools I&#x27;ve tried.</blockquote>
  <figure id="sG11" class="m_original">
    <img src="https://miro.medium.com/v2/resize:fit:700/1*J7eJdJABcxolA4WaDLHvaA.png" width="700" />
  </figure>
  <h3 id="6266">2. Jupyter: Data Stuff Without the Hassle</h3>
  <p id="ZRkZ">This one&#x27;s for anyone who likes playing with numbers. The Jupyter MCP server lets your AI mess with Jupyter notebooks — you know, those coding apps for data. I&#x27;m no data scientist, but I got Claude to look at a CSV of my coffee shop spending (embarrassing, honestly) and tell me what&#x27;s up.</p>
  <p id="mBJR">Here&#x27;s how I set it up:</p>
  <pre id="eeTW">Copygit clone https://github.com/jjsantos01/jupyter-notebook-mcp
cd jupyter-notebook-mcp
pip install -r requirements.txt
python server.py</pre>
  <p id="nbJA">It runs on localhost:8000. I told Claude:</p>
  <pre id="D9Gk">CopyOpen coffee.csv and tell me how much I spent on lattes.</pre>
  <p id="uZkT">Claude made a notebook, ran some Python, and said:</p>
  <pre id="hONu">CopyYou dropped $87.50 on lattes this month. Ouch.</pre>
  <blockquote id="nwJ8">I didn&#x27;t have to write any code myself. It&#x27;s like having a nerdy friend do the math for you.</blockquote>
  <h3 id="d4cb">3. Opik: Figuring Out What Your AI&#x27;s Doing</h3>
  <p id="ZESS">Opik&#x27;s from <a href="https://www.comet.com/site/" target="_blank">Comet</a>, and it&#x27;s all about keeping tabs on your AI. Like, if it starts acting weird, Opik shows you why. I had an AI bot once that kept giving dumb answers, and Opik helped me see it was hitting a limit on some API.</p>
  <p id="c9CU">I got it going with:</p>
  <pre id="zWvR">Copygit clone https://github.com/comet-ml/opik
cd opik
./opik.sh</pre>
  <p id="Ru9w">Then I added it to some code:</p>
  <pre id="qkGy">Copyimport opik

opik.configure(use_local=True)

@opik.track
def ask_something(question):
    return &quot;You asked: &quot; + question

ask_something(&quot;What&#x27;s for dinner?&quot;)I asked Claude to check the logs:
Show me what my AI&#x27;s been up to.</pre>
  <p id="M3RB">It showed me every call, how long it took, all that jazz.</p>
  <blockquote id="yyKn">It&#x27;s like a spy for your AI, helping you catch problems fast.</blockquote>
  <figure id="S7ss" class="m_original">
    <img src="https://miro.medium.com/v2/resize:fit:700/1*AS0o2pJsLYfKLD_KYfcq4Q.png" width="700" />
  </figure>
  <h3 id="9e81">4. GitHub: AI That Codes With You</h3>
  <p id="uxpg">This server&#x27;s straight from GitHub, and it lets your AI dig into your repos. I used it when I was swamped and needed to check what was going on in a project without opening a million tabs. Claude just gave me a rundown of open issues — super helpful.</p>
  <p id="hPvj">Setup&#x27;s like this:</p>
  <pre id="HWGW">Copygit clone https://github.com/github/github-mcp-server
cd github-mcp-server
npm install
export GITHUB_TOKEN=your_token
npm start</pre>
  <p id="A6xq">It&#x27;s on localhost:4000. I said:</p>
  <pre id="IneA">CopyClaude, what&#x27;s up with my repo &#x27;side-hustle&#x27;?</pre>
  <p id="p23D">Claude came back with:</p>
  <pre id="YgEO">CopyTwo issues open: one&#x27;s a bug in the login, another&#x27;s about adding a share button.</pre>
  <blockquote id="biE6">Saves me from drowning in GitHub notifications.</blockquote>
  <h3 id="94b5">5. FastAPI-MCP: Your AI Calls Your APIs</h3>
  <p id="1mSh">FastAPI-MCP is this neat trick for turning FastAPI apps into something your AI can use. I made a little API to track my to-do list, and this let Claude check it without me doing extra work.</p>
  <p id="kyRR">Here&#x27;s what I did:</p>
  <pre id="1xv7">CopyОбъяснятьgit clone https://github.com/jlowin/fastmcp
cd fastmcp
pip install fastapi-mcpThen I tweaked my FastAPI app:
from fastapi import FastAPI
from fastmcp import mcp

app = FastAPI()

@app.get(&quot;/todo/{item_id}&quot;)
async def get_todo(item_id: int):
    return {&quot;id&quot;: item_id, &quot;task&quot;: f&quot;Task {item_id}&quot;}

@mcp.tool()
async def get_todo_tool(item_id: int):
    return await get_todo(item_id)</pre>
  <p id="wZEr">Ran it with uvicorn main:app — reload, hooked it to localhost:8000, and told Claude:</p>
  <pre id="8ONr">CopyWhat&#x27;s task 5 on my to-do list?Got back:
Task 5 is &quot;Call mom.&quot;</pre>
  <blockquote id="j3rb">It&#x27;s dead simple to make my own tools for Claude.</blockquote>
  <h3 id="24c5">Why These Are Worth Your Time</h3>
  <p id="lCUR">I&#x27;ve had a blast with these servers. Stagehand&#x27;s great for web stuff, Jupyter&#x27;s awesome for data, Opik keeps things honest, GitHub&#x27;s a coder&#x27;s dream, and FastAPI-MCP lets me build whatever. They&#x27;re all free, and you can tweak them if you&#x27;re feeling fancy.</p>
  <p id="78Jl">A few things I learned:</p>
  <blockquote id="IPC3">Start with one that sounds fun. I picked GitHub first &#x27;cause I&#x27;m always in repos.</blockquote>
  <blockquote id="QcMA">Claude Desktop&#x27;s my go-to for testing this stuff.</blockquote>
  <blockquote id="vMez">Check GitHub for each server&#x27;s readme — it&#x27;s got the good stuff.</blockquote>
  <blockquote id="a6Q2">Play around locally before you go big.</blockquote>
  <tt-tags id="BBFS">
    <tt-tag name="mcps">#mcps</tt-tag>
    <tt-tag name="mcp_server">#mcp_server</tt-tag>
  </tt-tags>

]]></content:encoded></item></channel></rss>