<?xml version="1.0" encoding="utf-8" ?><rss version="2.0" xmlns:tt="http://teletype.in/" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:media="http://search.yahoo.com/mrss/"><channel><title>Alexey Volkov</title><generator>teletype.in</generator><description><![CDATA[Alexey Volkov]]></description><link>https://teletype.in/@cameda?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><atom:link rel="self" type="application/rss+xml" href="https://teletype.in/rss/cameda?offset=0"></atom:link><atom:link rel="next" type="application/rss+xml" href="https://teletype.in/rss/cameda?offset=10"></atom:link><atom:link rel="search" type="application/opensearchdescription+xml" title="Teletype" href="https://teletype.in/opensearch.xml"></atom:link><pubDate>Tue, 07 Apr 2026 08:09:07 GMT</pubDate><lastBuildDate>Tue, 07 Apr 2026 08:09:07 GMT</lastBuildDate><item><guid isPermaLink="true">https://teletype.in/@cameda/Yjv5FWpyA7d</guid><link>https://teletype.in/@cameda/Yjv5FWpyA7d?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/Yjv5FWpyA7d?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>Debug mode for csi-s3</title><pubDate>Tue, 20 Feb 2024 17:12:00 GMT</pubDate><category>Kubernetes</category><description><![CDATA[Включить debug для csi-s3. Может пригодиться при проблемах с ним.]]></description><content:encoded><![CDATA[
  <p id="K6Yl">Включить debug для csi-s3. Может пригодиться при проблемах с ним.</p>
  <p id="QRmS">Для этого создаём StorageClass с необходимыми параметрами дебага.</p>
  <pre id="r60C" data-lang="yaml">kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: csi-s3
provisioner: ru.yandex.s3.csi
parameters:
  mounter: geesefs
  options: &quot;--memory-limit=1000 --dir-mode=0777 --file-mode=0666 --debug_s3 --debug_fuse --log-file /var/log/s3.txt --no-systemd&quot;
  bucket: cam-xxxxxxx
  csi.storage.k8s.io/provisioner-secret-name: csi-s3-secret
  csi.storage.k8s.io/provisioner-secret-namespace: kube-system
  csi.storage.k8s.io/controller-publish-secret-name: csi-s3-secret
  csi.storage.k8s.io/controller-publish-secret-namespace: kube-system
  csi.storage.k8s.io/node-stage-secret-name: csi-s3-secret
  csi.storage.k8s.io/node-stage-secret-namespace: kube-system
  csi.storage.k8s.io/node-publish-secret-name: csi-s3-secret
  csi.storage.k8s.io/node-publish-secret-namespace: kube-system</pre>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/iwQq7IFAQp-</guid><link>https://teletype.in/@cameda/iwQq7IFAQp-?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/iwQq7IFAQp-?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>Error. failed to create shim task: OCI runtime create failed: runc create failed</title><pubDate>Tue, 20 Feb 2024 17:08:52 GMT</pubDate><category>Kubernetes</category><description><![CDATA[Проблема происходит при использовании SECCOMP и появляется из-за утечки памяти при создании родительского процесса.]]></description><content:encoded><![CDATA[
  <p id="2FRM">Проблема происходит при использовании SECCOMP и появляется из-за утечки памяти при создании родительского процесса.</p>
  <p id="QwFe"><strong>Ошибка.</strong></p>
  <p id="lYYV">Failed to create pod sandbox: rpc error: code = Unknown desc = failed to create containerd task: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: unable to init seccomp: error loading seccomp filter into kernel: error loading seccomp filter: errno 524: unknown</p>
  <p id="q0XU"><strong>Описание проблемы.</strong></p>
  <p id="dz5z">Корневая проблема - следствием утечек памяти и срабатываний OOM Killer было увеличение числа Zombie-процессов, затем увеличению числа вызовов в BPF, что приводило к большому выделению страниц памяти путем вызова метода <code>vmalloc()</code>, а также к отбрасыванию всех последующих вызовов к BPF после достижения лимита в опции <code>bpf_jit_enable</code>. Это приводило к утечкам<br />памяти в <code>seccomp</code> и проблемам при создании подов в окружении Kubernetes.</p>
  <p id="AUZD"><strong>Решение.</strong><br />1. Можно развернуть DaemonSet с root привилегиями для подов, которые смогут менять значения <code>bpf_jit_limit</code>.<br />Однако, у этого решения есть минус. При достижении нового лимита, проблема повторится.</p>
  <p id="UYl9">2. Обновить ядро на воркер-нодах до более новой версии, в которых есть патч.<br />Как указывается в данном обсуждении:<br /><a href="https://github.com/moby/moby/issues/45498#issuecomment-1542155705" target="_blank">https://github.com/moby/moby/issues/45498#issuecomment-1542155705</a><br />Бэкпорт, с удвоением лимита <code>bpf_jit_limit</code>, для этой ветки был начиная с версии 5.4.240.</p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/Q09ZtpuU8dY</guid><link>https://teletype.in/@cameda/Q09ZtpuU8dY?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/Q09ZtpuU8dY?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>Поскейлить автомасштабируемую группу узлов в 0 не выйдет</title><pubDate>Mon, 11 Dec 2023 10:40:09 GMT</pubDate><category>Kubernetes</category><description><![CDATA[В отличие от фиксированной группы.]]></description><content:encoded><![CDATA[
  <p id="Resa">В отличие от фиксированной группы.</p>
  <p id="vLQo">С даунскейлом нод группы действительно могут возникать проблемы. Это происходит в случае когда на всех нодах автомасштабируемой группы находятся системные поды, которые не могут эвакуироваться с неё. Такое поведение может наблюдаться с подами CoreDNS, которые управляются PDB. Или некоторыми компонентами CNI, у которых есть хранилище emptydir.</p>
  <p id="GS9b">Если в кластере есть одна автомасштабируемая нод группа, то такую группу поскейлить в 0 не получится. Так как этому будут препятствовать системные поды. Которые будут хотеть приземлиться на ноду. А контроллер будет заботливо эту ноду создавать. Поэтому всегда будет минимум одна нода.</p>
  <p id="qPs8">В тоже время, если создать фиксированную группу, то такую группу можно поскейлить в 0. Так как вы сами управляете числом нод в группе, а не контроллер.</p>
  <p id="7Z8h">Это можно сделать с помощью команды: </p>
  <pre id="7dLA" data-lang="bash">yc k8s node-group update &lt;id_node_group&gt; --fixed-size=0</pre>
  <p id="Em8m">Также стоит учесть, что самостоятельно системные поды не уедут с ноды, если её не задрейнить. Для этого поможет команда:</p>
  <pre id="XJpr" data-lang="bash">kubectl drain &lt;node-name&gt; --ignore-daemonsets --delete-emptydir-data --force</pre>
  <p id="7Y9z">Но если в кластере несколько нод групп из которых одна масштабируемая, то такую группу поскейлить в 0 можно. В этом случае системные поды можно эвакуировать на нод группу с фиксированным числом нод.</p>
  <p id="f28J">Поэтому, если необходимо иметь возможность скейлить одну или несколько масштабируемых нод групп в ноль, то при их создании необходимо выбрать минимально количество ВМ в группе - ноль. Также иметь группу, можно с минимальной конфигурацией, куда системные поды будут эвакуироваться в случае дрейна нод из масштабируемой группы.</p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/1NVUAZZI3QY</guid><link>https://teletype.in/@cameda/1NVUAZZI3QY?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/1NVUAZZI3QY?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>Error. При создании реплики процесс зависает так как не подключается диск с базой.</title><pubDate>Thu, 09 Nov 2023 20:34:14 GMT</pubDate><category>PostgreSQL</category><description><![CDATA[При добавлении нового хоста с репликой, процесс может намертво зависнуть.]]></description><content:encoded><![CDATA[
  <p id="0n4d">При добавлении нового хоста с репликой, процесс может намертво зависнуть.</p>
  <p id="STfs"><strong>Причина.</strong></p>
  <p id="0Wz5">Если зайти на хост, то с помощью df -h можно будет заметить, что не подключился диск с базой.</p>
  <p id="qMgL"><strong>Что делать.</strong></p>
  <p id="5ZXf">В этом случае поможет сделать стоп процесса postgres.</p>
  <pre id="3GgH">systemctl stop postgresql</pre>
  <p id="00lt"> После чего диск должен подключиться и начаться процесс наливки реплики.</p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/sPRntqe5j9j</guid><link>https://teletype.in/@cameda/sPRntqe5j9j?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/sPRntqe5j9j?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>Error. При накатывании реплики появляются ошибки, что потерян WAL.</title><pubDate>Thu, 09 Nov 2023 20:21:38 GMT</pubDate><category>PostgreSQL</category><description><![CDATA[В этом случае восстановление реплики из бекапа не поможет. Лить надо только с мастера.]]></description><content:encoded><![CDATA[
  <p id="cAiY">В этом случае восстановление реплики из бекапа не поможет. Лить надо только с мастера.</p>
  <p id="imj4"><strong>Ошибка будет вида.</strong></p>
  <pre id="3W7t">2023-11-09 23:01:08.728 MSK,,,738013,,654d3a84.b42dd,2,,2023-11-09 23:01:08 MSK,,0,FATAL,08P01,&quot;could not receive data from WAL stream: ERROR: requested WAL segment 0000001700000DA1000000C4 has already been removed&quot;,,,,,,,,,&quot;&quot;,&quot;walreceiver&quot;,,0</pre>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/LNo3hHuz3DR</guid><link>https://teletype.in/@cameda/LNo3hHuz3DR?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/LNo3hHuz3DR?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>Взаимосвязь параметров hostPort и hostNetwork</title><pubDate>Mon, 23 Oct 2023 17:15:04 GMT</pubDate><category>Kubernetes</category><description><![CDATA[hostPort может не работать без указания hostNetwork начиная с определённой версии.]]></description><content:encoded><![CDATA[
  <p id="TLFh">hostPort может не работать без указания hostNetwork начиная с определённой версии.</p>
  <section style="background-color:hsl(hsl(170, 33%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="YHaQ">Если указать в спецификации hostPort, то для корректной работы необходимо будет добавить параметр hostNetwork. Иначе hostPort не будет работать.</p>
  </section>
  <pre id="kYOW" data-lang="yaml">ports:
- containerPort: 8080
  hostPort: 55080
  name: busybox
  protocol: TCP
hostNetwork: true</pre>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/LUOh7anCi3j</guid><link>https://teletype.in/@cameda/LUOh7anCi3j?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/LUOh7anCi3j?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>CornerCase. Error while dialing dial unix /run/containerd/containerd.sock </title><pubDate>Mon, 23 Oct 2023 15:44:28 GMT</pubDate><category>Kubernetes</category><description><![CDATA[В одном кейсе данная ошибка возникла по вине containerd.]]></description><content:encoded><![CDATA[
  <p id="zz0j">В одном кейсе данная ошибка возникла по вине containerd.</p>
  <p id="ul9P"><strong>Причина.</strong></p>
  <p id="BtrV">Containerd рестартовал демонсет. Поды которого выступали как прокси для приложения. Контейнеры сами по себе не рестартовались.</p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/Dw5KqGL-IpG</guid><link>https://teletype.in/@cameda/Dw5KqGL-IpG?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/Dw5KqGL-IpG?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>cgroups: cgroup deleted: unknown</title><pubDate>Fri, 20 Oct 2023 11:24:32 GMT</pubDate><category>Kubernetes</category><description><![CDATA[Могут возникать из-за ошибок с контейнерами]]></description><content:encoded><![CDATA[
  <p id="Nkpp">Могут возникать из-за ошибок с контейнерами</p>
  <p id="wI5X">Было древнее ишью, где реализовали игнор данной ошибки со стороны containerd: <a href="https://github.com/containerd/containerd/pull/3419" target="_blank">https://github.com/containerd/containerd/pull/3419</a></p>
  <p id="bxM7">Вот описание проблемы от чела: <a href="https://github.com/containerd/containerd/issues/9140?ysclid=lnyheugjka538858773" target="_blank">https://github.com/containerd/containerd/issues/9140?ysclid=lnyheugjka538858773</a></p>
  <p id="neTv">У него стартует контейнер, а потом падает с этой ошибкой. </p>
  <section style="background-color:hsl(hsl(263, 48%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="PjmV">Проблема в приложении, которое крутится в контейнере.</p>
  </section>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/btcAl1EbA4Q</guid><link>https://teletype.in/@cameda/btcAl1EbA4Q?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/btcAl1EbA4Q?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>Эксперимент. Что будет с операцией по обновлению нод группы, если запустить её удаление?</title><pubDate>Fri, 20 Oct 2023 10:11:49 GMT</pubDate><category>Kubernetes</category><description><![CDATA[Операция обновления отменится. И начнётся удаление группы.]]></description><content:encoded><![CDATA[
  <p id="KadV">Операция обновления отменится. И начнётся удаление группы.</p>
  <p id="MH7O"><strong>Операция обновления отменится. Выпадет ошибка.</strong></p>
  <pre id="cMT0" data-lang="bash">Aborting due to multiple operations on the same target</pre>
  <p id="wnJN">И начнёт выполняться операция удаления группы.</p>

]]></content:encoded></item><item><guid isPermaLink="true">https://teletype.in/@cameda/3XO5ivd0Jcr</guid><link>https://teletype.in/@cameda/3XO5ivd0Jcr?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda</link><comments>https://teletype.in/@cameda/3XO5ivd0Jcr?utm_source=teletype&amp;utm_medium=feed_rss&amp;utm_campaign=cameda#comments</comments><dc:creator>cameda</dc:creator><title>Containerd config version `1` has been deprecated and will be removed in containerd v2.0</title><pubDate>Fri, 20 Oct 2023 09:16:29 GMT</pubDate><category>Kubernetes</category><description><![CDATA[Данное предупреждение появляется в логах. Нас это сообщение не очень волнует.]]></description><content:encoded><![CDATA[
  <p id="OohG">Данное предупреждение появляется в логах. Нас это сообщение не очень волнует.</p>
  <p id="dMAK"><strong>Текущая версия CRI.</strong></p>
  <pre id="ZDwq" data-lang="bash">crictl version
Version:  0.1.0
RuntimeName:  containerd
RuntimeVersion:  1.6.22
RuntimeApiVersion:  v1</pre>
  <p id="iDyn">Текущая версия является LTS версией. С поддержкой до February 15, 2022 max(February 15, 2025 or next LTS + 6 months)</p>
  <p id="Ld4A">Версия 2.0 пока не готова.</p>
  <p id="d32V">Подробнее об этом здесь: <a href="https://containerd.io/releases/" target="_blank">https://containerd.io/releases/</a></p>
  <p id="7Yfq">На текущий момент конфигурационный файл containerd у нас выглядит так:</p>
  <pre id="28BP" data-lang="bash">oom_score = -999

[debug]
  level = &quot;info&quot;

[plugins.linux]
  shim = &quot;/home/kubernetes/bin/containerd-shim&quot;
  runtime = &quot;/home/kubernetes/bin/runc&quot;

[plugins.cri]
  stream_server_address = &quot;127.0.0.1&quot;
  enable_tls_streaming = false
  sandbox_image = &quot;cr.yandex/crpsjg1coh47p81vh2lc/pause:3.8&quot;
  [plugins.cri.containerd]
    snapshotter = &quot;overlayfs&quot;

[plugins.cri.cni]
  bin_dir = &quot;/home/kubernetes/cni/bin&quot;
  conf_dir = &quot;/etc/cni/net.d&quot;</pre>
  <p id="OWwm"><strong>Путь к конфигурационному файлу : </strong></p>
  <pre id="ImeJ" data-lang="bash">cat /etc/containerd/config.toml</pre>
  <section style="background-color:hsl(hsl(263, 48%, var(--autocolor-background-lightness, 95%)), 85%, 85%);">
    <p id="X5Vf">На сегодняшний день нас это не аффектит.</p>
  </section>

]]></content:encoded></item></channel></rss>