<?xml version="1.0" encoding="utf-8" ?><feed xmlns="http://www.w3.org/2005/Atom" xmlns:tt="http://teletype.in/" xmlns:opensearch="http://a9.com/-/spec/opensearch/1.1/"><title>Alexey Volkov</title><author><name>Alexey Volkov</name></author><id>https://teletype.in/atom/cameda</id><link rel="self" type="application/atom+xml" href="https://teletype.in/atom/cameda?offset=0"></link><link rel="alternate" type="text/html" href="https://teletype.in/@cameda?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><link rel="next" type="application/rss+xml" href="https://teletype.in/atom/cameda?offset=10"></link><link rel="search" type="application/opensearchdescription+xml" title="Teletype" href="https://teletype.in/opensearch.xml"></link><updated>2026-04-07T08:09:08.118Z</updated><entry><id>cameda:Yjv5FWpyA7d</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/Yjv5FWpyA7d?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>Debug mode for csi-s3</title><published>2024-02-20T17:12:00.141Z</published><updated>2024-02-21T13:42:25.151Z</updated><category term="kubernetes" label="Kubernetes"></category><summary type="html">Включить debug для csi-s3. Может пригодиться при проблемах с ним.</summary><content type="html">
  &lt;p id=&quot;K6Yl&quot;&gt;Включить debug для csi-s3. Может пригодиться при проблемах с ним.&lt;/p&gt;
  &lt;p id=&quot;QRmS&quot;&gt;Для этого создаём StorageClass с необходимыми параметрами дебага.&lt;/p&gt;
  &lt;pre id=&quot;r60C&quot; data-lang=&quot;yaml&quot;&gt;kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: csi-s3
provisioner: ru.yandex.s3.csi
parameters:
  mounter: geesefs
  options: &amp;quot;--memory-limit=1000 --dir-mode=0777 --file-mode=0666 --debug_s3 --debug_fuse --log-file /var/log/s3.txt --no-systemd&amp;quot;
  bucket: cam-xxxxxxx
  csi.storage.k8s.io/provisioner-secret-name: csi-s3-secret
  csi.storage.k8s.io/provisioner-secret-namespace: kube-system
  csi.storage.k8s.io/controller-publish-secret-name: csi-s3-secret
  csi.storage.k8s.io/controller-publish-secret-namespace: kube-system
  csi.storage.k8s.io/node-stage-secret-name: csi-s3-secret
  csi.storage.k8s.io/node-stage-secret-namespace: kube-system
  csi.storage.k8s.io/node-publish-secret-name: csi-s3-secret
  csi.storage.k8s.io/node-publish-secret-namespace: kube-system&lt;/pre&gt;

</content></entry><entry><id>cameda:iwQq7IFAQp-</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/iwQq7IFAQp-?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>Error. failed to create shim task: OCI runtime create failed: runc create failed</title><published>2024-02-20T17:08:52.896Z</published><updated>2024-02-20T17:08:52.896Z</updated><category term="kubernetes" label="Kubernetes"></category><summary type="html">Проблема происходит при использовании SECCOMP и появляется из-за утечки памяти при создании родительского процесса.</summary><content type="html">
  &lt;p id=&quot;2FRM&quot;&gt;Проблема происходит при использовании SECCOMP и появляется из-за утечки памяти при создании родительского процесса.&lt;/p&gt;
  &lt;p id=&quot;QwFe&quot;&gt;&lt;strong&gt;Ошибка.&lt;/strong&gt;&lt;/p&gt;
  &lt;p id=&quot;lYYV&quot;&gt;Failed to create pod sandbox: rpc error: code = Unknown desc = failed to create containerd task: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: unable to init seccomp: error loading seccomp filter into kernel: error loading seccomp filter: errno 524: unknown&lt;/p&gt;
  &lt;p id=&quot;q0XU&quot;&gt;&lt;strong&gt;Описание проблемы.&lt;/strong&gt;&lt;/p&gt;
  &lt;p id=&quot;dz5z&quot;&gt;Корневая проблема - следствием утечек памяти и срабатываний OOM Killer было увеличение числа Zombie-процессов, затем увеличению числа вызовов в BPF, что приводило к большому выделению страниц памяти путем вызова метода &lt;code&gt;vmalloc()&lt;/code&gt;, а также к отбрасыванию всех последующих вызовов к BPF после достижения лимита в опции &lt;code&gt;bpf_jit_enable&lt;/code&gt;. Это приводило к утечкам&lt;br /&gt;памяти в &lt;code&gt;seccomp&lt;/code&gt; и проблемам при создании подов в окружении Kubernetes.&lt;/p&gt;
  &lt;p id=&quot;AUZD&quot;&gt;&lt;strong&gt;Решение.&lt;/strong&gt;&lt;br /&gt;1. Можно развернуть DaemonSet с root привилегиями для подов, которые смогут менять значения &lt;code&gt;bpf_jit_limit&lt;/code&gt;.&lt;br /&gt;Однако, у этого решения есть минус. При достижении нового лимита, проблема повторится.&lt;/p&gt;
  &lt;p id=&quot;UYl9&quot;&gt;2. Обновить ядро на воркер-нодах до более новой версии, в которых есть патч.&lt;br /&gt;Как указывается в данном обсуждении:&lt;br /&gt;&lt;a href=&quot;https://github.com/moby/moby/issues/45498#issuecomment-1542155705&quot; target=&quot;_blank&quot;&gt;https://github.com/moby/moby/issues/45498#issuecomment-1542155705&lt;/a&gt;&lt;br /&gt;Бэкпорт, с удвоением лимита &lt;code&gt;bpf_jit_limit&lt;/code&gt;, для этой ветки был начиная с версии 5.4.240.&lt;/p&gt;

</content></entry><entry><id>cameda:Q09ZtpuU8dY</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/Q09ZtpuU8dY?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>Поскейлить автомасштабируемую группу узлов в 0 не выйдет</title><published>2023-12-11T10:40:09.420Z</published><updated>2023-12-11T10:40:09.420Z</updated><category term="kubernetes" label="Kubernetes"></category><summary type="html">В отличие от фиксированной группы.</summary><content type="html">
  &lt;p id=&quot;Resa&quot;&gt;В отличие от фиксированной группы.&lt;/p&gt;
  &lt;p id=&quot;vLQo&quot;&gt;С даунскейлом нод группы действительно могут возникать проблемы. Это происходит в случае когда на всех нодах автомасштабируемой группы находятся системные поды, которые не могут эвакуироваться с неё. Такое поведение может наблюдаться с подами CoreDNS, которые управляются PDB. Или некоторыми компонентами CNI, у которых есть хранилище emptydir.&lt;/p&gt;
  &lt;p id=&quot;GS9b&quot;&gt;Если в кластере есть одна автомасштабируемая нод группа, то такую группу поскейлить в 0 не получится. Так как этому будут препятствовать системные поды. Которые будут хотеть приземлиться на ноду. А контроллер будет заботливо эту ноду создавать. Поэтому всегда будет минимум одна нода.&lt;/p&gt;
  &lt;p id=&quot;qPs8&quot;&gt;В тоже время, если создать фиксированную группу, то такую группу можно поскейлить в 0. Так как вы сами управляете числом нод в группе, а не контроллер.&lt;/p&gt;
  &lt;p id=&quot;7Z8h&quot;&gt;Это можно сделать с помощью команды: &lt;/p&gt;
  &lt;pre id=&quot;7dLA&quot; data-lang=&quot;bash&quot;&gt;yc k8s node-group update &amp;lt;id_node_group&amp;gt; --fixed-size=0&lt;/pre&gt;
  &lt;p id=&quot;Em8m&quot;&gt;Также стоит учесть, что самостоятельно системные поды не уедут с ноды, если её не задрейнить. Для этого поможет команда:&lt;/p&gt;
  &lt;pre id=&quot;XJpr&quot; data-lang=&quot;bash&quot;&gt;kubectl drain &amp;lt;node-name&amp;gt; --ignore-daemonsets --delete-emptydir-data --force&lt;/pre&gt;
  &lt;p id=&quot;7Y9z&quot;&gt;Но если в кластере несколько нод групп из которых одна масштабируемая, то такую группу поскейлить в 0 можно. В этом случае системные поды можно эвакуировать на нод группу с фиксированным числом нод.&lt;/p&gt;
  &lt;p id=&quot;f28J&quot;&gt;Поэтому, если необходимо иметь возможность скейлить одну или несколько масштабируемых нод групп в ноль, то при их создании необходимо выбрать минимально количество ВМ в группе - ноль. Также иметь группу, можно с минимальной конфигурацией, куда системные поды будут эвакуироваться в случае дрейна нод из масштабируемой группы.&lt;/p&gt;

</content></entry><entry><id>cameda:1NVUAZZI3QY</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/1NVUAZZI3QY?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>Error. При создании реплики процесс зависает так как не подключается диск с базой.</title><published>2023-11-09T20:34:14.592Z</published><updated>2023-11-09T20:34:14.592Z</updated><category term="postgre-sql" label="PostgreSQL"></category><summary type="html">При добавлении нового хоста с репликой, процесс может намертво зависнуть.</summary><content type="html">
  &lt;p id=&quot;0n4d&quot;&gt;При добавлении нового хоста с репликой, процесс может намертво зависнуть.&lt;/p&gt;
  &lt;p id=&quot;STfs&quot;&gt;&lt;strong&gt;Причина.&lt;/strong&gt;&lt;/p&gt;
  &lt;p id=&quot;0Wz5&quot;&gt;Если зайти на хост, то с помощью df -h можно будет заметить, что не подключился диск с базой.&lt;/p&gt;
  &lt;p id=&quot;qMgL&quot;&gt;&lt;strong&gt;Что делать.&lt;/strong&gt;&lt;/p&gt;
  &lt;p id=&quot;5ZXf&quot;&gt;В этом случае поможет сделать стоп процесса postgres.&lt;/p&gt;
  &lt;pre id=&quot;3GgH&quot;&gt;systemctl stop postgresql&lt;/pre&gt;
  &lt;p id=&quot;00lt&quot;&gt; После чего диск должен подключиться и начаться процесс наливки реплики.&lt;/p&gt;

</content></entry><entry><id>cameda:sPRntqe5j9j</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/sPRntqe5j9j?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>Error. При накатывании реплики появляются ошибки, что потерян WAL.</title><published>2023-11-09T20:21:38.240Z</published><updated>2023-11-09T20:24:34.680Z</updated><category term="postgre-sql" label="PostgreSQL"></category><summary type="html">В этом случае восстановление реплики из бекапа не поможет. Лить надо только с мастера.</summary><content type="html">
  &lt;p id=&quot;cAiY&quot;&gt;В этом случае восстановление реплики из бекапа не поможет. Лить надо только с мастера.&lt;/p&gt;
  &lt;p id=&quot;imj4&quot;&gt;&lt;strong&gt;Ошибка будет вида.&lt;/strong&gt;&lt;/p&gt;
  &lt;pre id=&quot;3W7t&quot;&gt;2023-11-09 23:01:08.728 MSK,,,738013,,654d3a84.b42dd,2,,2023-11-09 23:01:08 MSK,,0,FATAL,08P01,&amp;quot;could not receive data from WAL stream: ERROR: requested WAL segment 0000001700000DA1000000C4 has already been removed&amp;quot;,,,,,,,,,&amp;quot;&amp;quot;,&amp;quot;walreceiver&amp;quot;,,0&lt;/pre&gt;

</content></entry><entry><id>cameda:LNo3hHuz3DR</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/LNo3hHuz3DR?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>Взаимосвязь параметров hostPort и hostNetwork</title><published>2023-10-23T17:15:04.747Z</published><updated>2023-10-23T17:15:04.747Z</updated><category term="kubernetes" label="Kubernetes"></category><summary type="html">hostPort может не работать без указания hostNetwork начиная с определённой версии.</summary><content type="html">
  &lt;p id=&quot;TLFh&quot;&gt;hostPort может не работать без указания hostNetwork начиная с определённой версии.&lt;/p&gt;
  &lt;section style=&quot;background-color:hsl(hsl(170, 33%, var(--autocolor-background-lightness, 95%)), 85%, 85%);&quot;&gt;
    &lt;p id=&quot;YHaQ&quot;&gt;Если указать в спецификации hostPort, то для корректной работы необходимо будет добавить параметр hostNetwork. Иначе hostPort не будет работать.&lt;/p&gt;
  &lt;/section&gt;
  &lt;pre id=&quot;kYOW&quot; data-lang=&quot;yaml&quot;&gt;ports:
- containerPort: 8080
  hostPort: 55080
  name: busybox
  protocol: TCP
hostNetwork: true&lt;/pre&gt;

</content></entry><entry><id>cameda:LUOh7anCi3j</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/LUOh7anCi3j?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>CornerCase. Error while dialing dial unix /run/containerd/containerd.sock </title><published>2023-10-23T15:44:28.371Z</published><updated>2023-10-23T15:44:28.371Z</updated><category term="kubernetes" label="Kubernetes"></category><summary type="html">В одном кейсе данная ошибка возникла по вине containerd.</summary><content type="html">
  &lt;p id=&quot;zz0j&quot;&gt;В одном кейсе данная ошибка возникла по вине containerd.&lt;/p&gt;
  &lt;p id=&quot;ul9P&quot;&gt;&lt;strong&gt;Причина.&lt;/strong&gt;&lt;/p&gt;
  &lt;p id=&quot;BtrV&quot;&gt;Containerd рестартовал демонсет. Поды которого выступали как прокси для приложения. Контейнеры сами по себе не рестартовались.&lt;/p&gt;

</content></entry><entry><id>cameda:Dw5KqGL-IpG</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/Dw5KqGL-IpG?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>cgroups: cgroup deleted: unknown</title><published>2023-10-20T11:24:32.333Z</published><updated>2023-10-20T11:24:32.333Z</updated><category term="kubernetes" label="Kubernetes"></category><summary type="html">Могут возникать из-за ошибок с контейнерами</summary><content type="html">
  &lt;p id=&quot;Nkpp&quot;&gt;Могут возникать из-за ошибок с контейнерами&lt;/p&gt;
  &lt;p id=&quot;wI5X&quot;&gt;Было древнее ишью, где реализовали игнор данной ошибки со стороны containerd: &lt;a href=&quot;https://github.com/containerd/containerd/pull/3419&quot; target=&quot;_blank&quot;&gt;https://github.com/containerd/containerd/pull/3419&lt;/a&gt;&lt;/p&gt;
  &lt;p id=&quot;bxM7&quot;&gt;Вот описание проблемы от чела: &lt;a href=&quot;https://github.com/containerd/containerd/issues/9140?ysclid=lnyheugjka538858773&quot; target=&quot;_blank&quot;&gt;https://github.com/containerd/containerd/issues/9140?ysclid=lnyheugjka538858773&lt;/a&gt;&lt;/p&gt;
  &lt;p id=&quot;neTv&quot;&gt;У него стартует контейнер, а потом падает с этой ошибкой. &lt;/p&gt;
  &lt;section style=&quot;background-color:hsl(hsl(263, 48%, var(--autocolor-background-lightness, 95%)), 85%, 85%);&quot;&gt;
    &lt;p id=&quot;PjmV&quot;&gt;Проблема в приложении, которое крутится в контейнере.&lt;/p&gt;
  &lt;/section&gt;

</content></entry><entry><id>cameda:btcAl1EbA4Q</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/btcAl1EbA4Q?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>Эксперимент. Что будет с операцией по обновлению нод группы, если запустить её удаление?</title><published>2023-10-20T10:11:49.284Z</published><updated>2023-10-20T10:11:49.284Z</updated><category term="kubernetes" label="Kubernetes"></category><summary type="html">Операция обновления отменится. И начнётся удаление группы.</summary><content type="html">
  &lt;p id=&quot;KadV&quot;&gt;Операция обновления отменится. И начнётся удаление группы.&lt;/p&gt;
  &lt;p id=&quot;MH7O&quot;&gt;&lt;strong&gt;Операция обновления отменится. Выпадет ошибка.&lt;/strong&gt;&lt;/p&gt;
  &lt;pre id=&quot;cMT0&quot; data-lang=&quot;bash&quot;&gt;Aborting due to multiple operations on the same target&lt;/pre&gt;
  &lt;p id=&quot;wnJN&quot;&gt;И начнёт выполняться операция удаления группы.&lt;/p&gt;

</content></entry><entry><id>cameda:3XO5ivd0Jcr</id><link rel="alternate" type="text/html" href="https://teletype.in/@cameda/3XO5ivd0Jcr?utm_source=teletype&amp;utm_medium=feed_atom&amp;utm_campaign=cameda"></link><title>Containerd config version `1` has been deprecated and will be removed in containerd v2.0</title><published>2023-10-20T09:16:29.486Z</published><updated>2023-10-20T09:16:29.486Z</updated><category term="kubernetes" label="Kubernetes"></category><summary type="html">Данное предупреждение появляется в логах. Нас это сообщение не очень волнует.</summary><content type="html">
  &lt;p id=&quot;OohG&quot;&gt;Данное предупреждение появляется в логах. Нас это сообщение не очень волнует.&lt;/p&gt;
  &lt;p id=&quot;dMAK&quot;&gt;&lt;strong&gt;Текущая версия CRI.&lt;/strong&gt;&lt;/p&gt;
  &lt;pre id=&quot;ZDwq&quot; data-lang=&quot;bash&quot;&gt;crictl version
Version:  0.1.0
RuntimeName:  containerd
RuntimeVersion:  1.6.22
RuntimeApiVersion:  v1&lt;/pre&gt;
  &lt;p id=&quot;iDyn&quot;&gt;Текущая версия является LTS версией. С поддержкой до February 15, 2022 max(February 15, 2025 or next LTS + 6 months)&lt;/p&gt;
  &lt;p id=&quot;Ld4A&quot;&gt;Версия 2.0 пока не готова.&lt;/p&gt;
  &lt;p id=&quot;d32V&quot;&gt;Подробнее об этом здесь: &lt;a href=&quot;https://containerd.io/releases/&quot; target=&quot;_blank&quot;&gt;https://containerd.io/releases/&lt;/a&gt;&lt;/p&gt;
  &lt;p id=&quot;7Yfq&quot;&gt;На текущий момент конфигурационный файл containerd у нас выглядит так:&lt;/p&gt;
  &lt;pre id=&quot;28BP&quot; data-lang=&quot;bash&quot;&gt;oom_score = -999

[debug]
  level = &amp;quot;info&amp;quot;

[plugins.linux]
  shim = &amp;quot;/home/kubernetes/bin/containerd-shim&amp;quot;
  runtime = &amp;quot;/home/kubernetes/bin/runc&amp;quot;

[plugins.cri]
  stream_server_address = &amp;quot;127.0.0.1&amp;quot;
  enable_tls_streaming = false
  sandbox_image = &amp;quot;cr.yandex/crpsjg1coh47p81vh2lc/pause:3.8&amp;quot;
  [plugins.cri.containerd]
    snapshotter = &amp;quot;overlayfs&amp;quot;

[plugins.cri.cni]
  bin_dir = &amp;quot;/home/kubernetes/cni/bin&amp;quot;
  conf_dir = &amp;quot;/etc/cni/net.d&amp;quot;&lt;/pre&gt;
  &lt;p id=&quot;OWwm&quot;&gt;&lt;strong&gt;Путь к конфигурационному файлу : &lt;/strong&gt;&lt;/p&gt;
  &lt;pre id=&quot;ImeJ&quot; data-lang=&quot;bash&quot;&gt;cat /etc/containerd/config.toml&lt;/pre&gt;
  &lt;section style=&quot;background-color:hsl(hsl(263, 48%, var(--autocolor-background-lightness, 95%)), 85%, 85%);&quot;&gt;
    &lt;p id=&quot;X5Vf&quot;&gt;На сегодняшний день нас это не аффектит.&lt;/p&gt;
  &lt;/section&gt;

</content></entry></feed>