Как освободить ранее выделенные ресурсы удаленного модуля?

У меня уже было 3 работающих узла/пода Cassandra. Я удалил их и попытался создать заново, используя тот же YAML-файл, что и следующий, на том жекластер, но он завис в ожидании статуса:

      apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: cassandra
  labels:
    app: cassandra
spec:
  serviceName: cassandra
  replicas: 3
  selector:
    matchLabels:
      app: cassandra
  template:
    metadata:
      labels:
        app: cassandra
    spec:
      terminationGracePeriodSeconds: 1800
      containers:
      - name: cassandra
        image: gcr.io/google-samples/cassandra:v13
        imagePullPolicy: Always
        ports:
        - containerPort: 7000
          name: intra-node
        - containerPort: 7001
          name: tls-intra-node
        - containerPort: 7199
          name: jmx
        - containerPort: 9042
          name: cql
        resources:
          limits:
            cpu: "500m"
            memory: 1Gi
          requests:
            cpu: "500m"
            memory: 1Gi
        securityContext:
          capabilities:
            add:
              - IPC_LOCK
        lifecycle:
          preStop:
            exec:
              command: 
              - /bin/sh
              - -c
              - nodetool drain
        env:
          - name: MAX_HEAP_SIZE
            value: 512M
          - name: HEAP_NEWSIZE
            value: 100M
          - name: CASSANDRA_SEEDS
            value: "cassandra-0.cassandra.default.svc.cluster.local"
          - name: CASSANDRA_CLUSTER_NAME
            value: "K8Demo"
          - name: CASSANDRA_DC
            value: "DC1-K8Demo"
          - name: CASSANDRA_RACK
            value: "Rack1-K8Demo"
          - name: POD_IP
            valueFrom:
              fieldRef:
                fieldPath: status.podIP
        readinessProbe:
          exec:
            command:
            - /bin/bash
            - -c
            - /ready-probe.sh
          initialDelaySeconds: 15
          timeoutSeconds: 5
        # These volume mounts are persistent. They are like inline claims,
        # but not exactly because the names need to match exactly one of
        # the stateful pod volumes.
        volumeMounts:
        - name: cassandra-data
          mountPath: /cassandra_data
  # These are converted to volume claims by the controller
  # and mounted at the paths mentioned above.
  # do not use these in production until ssd GCEPersistentDisk or other ssd pd
  volumeClaimTemplates:
  - metadata:
      name: cassandra-data
    spec:
      accessModes: [ "ReadWriteOnce" ]
      storageClassName: fast
      resources:
        requests:
          storage: 1Gi
---
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: fast
provisioner: k8s.io/minikube-hostpath
parameters:
  type: pd-ssd
---
apiVersion: v1
kind: Service
metadata:
  labels:
    app: cassandra
  name: cassandra
spec:
  clusterIP: None
  ports:
  - port: 9042
  selector:
    app: cassandra

Когда я искал в Интернете, я считаю, что проблема связана с нехваткой ресурсов, но я предполагаю, что это происходит потому, что ранее выделенные ресурсы для удаленных узлов/модулей все еще заняты. Но я не знаю, как мне их освободить?

Я пытался:

      NAME                 CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%   
kind-control-plane   205m         2%     1046Mi          6%        
kind-worker          171m         2%     2612Mi          16%   

Кажется, все в порядке?

Может быть, проблема в распределении жесткого диска, и я не знаю, как проверить?

1 ответ

Если модуль находится в состоянии ожидания, обычно это является результатом нехватки ресурсов . Сначала проверьте события модуля, чтобы узнать причину, по которой модуль находится в состоянии ожидания. Для этого используйте следующую команду

      Kubectl describe pod-name

Эти события дадут представление о том, почему модуль находится в состоянии ожидания. Распространенной причиной перехода модуля в состояние ожидания является нехватка памяти или хранилища . возможно, вы исчерпали ресурсы, доступные в узлах. Один из способов вернуть исчерпанные ресурсы — очистить узлы, удалив ненужные модули и развертывания.

Этот официальный документ содержит информацию по отладке модулей в Kubernetes.

Этот документ помогает отлаживать наборы состояний в k8s.

Если вам нужен пример развертывания cassandra в k8s, вам поможет этот официальный документ k8s .

Другие вопросы по тегам