[Object] Kubernetes 환경에서 Alloy 구성 및 테스트 - II - Alloy 설치 > SUSE Rancher자료실

본문 바로가기
사이트 내 전체검색

SUSE Rancher자료실

[Object] Kubernetes 환경에서 Alloy 구성 및 테스트 - II - Alloy 설치

페이지 정보

profile_image
작성자 꿈꾸는여행자
댓글 0건 조회 53회 작성일 26-03-26 16:15

본문

안녕하세요.

 

꿈꾸는여행자입니다.

 


Alloy 기반 Log 수집  관련 사항입니다. 

 

이번 항목에서는 

준비된 자료기준으로 Alloy를 배로 하는 사항입니다. 

 

상세 내역은 아래와 같습니다.



감사합니다. 


> 아래 

 

________________

 

 목차 

 

1.3. Helm values.yaml

1.4. 배포

1.4.1. helm upgrade

1.5. Verify

1.5.1. Pod

1.5.2. 로그

 

 

 

 


1.3. Helm values.yaml

아래 설정은 공식 Kubernetes 예제 + Loki Distributed 환경을 그대로 반영했습니다.

                              * values.yaml

                              * Loki

                              * http://loki-distributor.loki.svc.cluster.local:3100/loki/api/v1/push

                              * vi alloy-values.yaml



# -----------------------------

# Controller

# -----------------------------

controller:

  type: daemonset



# -----------------------------

# Image

# -----------------------------

image:

  registry: docker.io

  repository: grafana/alloy

  tag: v1.12.2

  pullPolicy: IfNotPresent



# -----------------------------

# Alloy core settings

# -----------------------------

alloy:

  stabilityLevel: generally-available



  enableHttpServerPort: true

  listenAddr: 0.0.0.0

  listenPort: 12345

  listenScheme: HTTP



  enableReporting: false   # Air-gap 권장



  storagePath: /tmp/alloy



  # Host log mounts (필수)

  mounts:

    varlog: true

    dockercontainers: true



  resources:

    requests:

      cpu: 100m

      memory: 128Mi

    limits:

      cpu: 300m

      memory: 256Mi



  # -----------------------------

  # Alloy Configuration (공식 문서 기준)

  # -----------------------------

  configMap:

    create: true

    content: |

      logging {

        level = "info"

      }



      discovery.kubernetes "pods" {

        role = "pod"

      }



      loki.source.kubernetes "pods" {

        targets    = discovery.kubernetes.pods.targets

        forward_to = [loki.process.kubernetes.receiver]

      }



      loki.process "kubernetes" {

        stage.cri {}



        stage.labels {

          values = {

            namespace = "__meta_kubernetes_namespace",

            pod       = "__meta_kubernetes_pod_name",

            container = "__meta_kubernetes_pod_container_name",

            node      = "__meta_kubernetes_node_name",

          }

        }



        forward_to = [loki.write.loki.receiver]

      }



      loki.write "loki" {

        endpoint {

          url = "http://loki-distributor.loki.svc.cluster.local:3100/loki/api/v1/push"

        }

      }



# -----------------------------

# RBAC / ServiceAccount

# -----------------------------

rbac:

  create: true



serviceAccount:

  create: true



# -----------------------------

# Config reloader (유지)

# -----------------------------

configReloader:

  enabled: true



# -----------------------------

# Service / Ingress (미사용)

# -----------------------------

service:

  enabled: false



ingress:

  enabled: false



# -----------------------------

# Autoscaling / Monitoring (미사용)

# -----------------------------

serviceMonitor:

  enabled: false



networkPolicy:

  enabled: false






loki.source.kubernetes "pods" {

  targets {

    cluster = "k8s"

  }

}



loki.process "default" {

  stage.labels {

    values = {

      namespace = "namespace",

      pod       = "pod",

      container = "container",

    }

  }

}



loki.write "loki" {

  endpoint {

    url = "http://loki-distributor.loki.svc.cluster.local:3100/loki/api/v1/push"

  }

}


1.4. 배포

1.4.1. helm upgrade



kubectl create namespace observability



helm delete alloy -n observability

kubectl delete namespace observability



helm upgrade --install alloy ./alloy-1.5.2.tgz \

  -n observability \

  -f alloy-values.yaml



kubectl -n observability rollout restart daemonset/alloy



kubectl get all -n observability



[root@k8s-mst-00 grafana]# kubectl create namespace observability

namespace/observability created

[root@k8s-mst-00 grafana]# helm upgrade --install alloy ./alloy-1.5.2.tgz \

  -n observability \

  -f alloy-values.yaml

Release "alloy" does not exist. Installing it now.

NAME: alloy

LAST DEPLOYED: Fri Jan 23 14:00:13 2026

NAMESPACE: observability

STATUS: deployed

REVISION: 1

TEST SUITE: None

NOTES:

Welcome to Grafana Alloy!

[root@k8s-mst-00 grafana]#


1.5. Verify

1.5.1. Pod



kubectl get pods -n observability



kubectl get all -n observability

[root@k8s-mst-00 grafana]# kubectl get pods -n observability

NAME          READY   STATUS    RESTARTS   AGE

alloy-nbqws   2/2     Running   0          14m

alloy-qf9kq   2/2     Running   0          14m

[root@k8s-mst-00 grafana]# kubectl get all -n observability

NAME              READY   STATUS    RESTARTS   AGE

pod/alloy-nbqws   2/2     Running   0          14m

pod/alloy-qf9kq   2/2     Running   0          14m



NAME                   DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR   AGE

daemonset.apps/alloy   2         2         2       2            2           <none>          14m

[root@k8s-mst-00 grafana]#


1.5.2. 로그



kubectl logs -n observability daemonset/alloy



 

댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

사이트 정보

회사명 : (주)리눅스데이타시스템
대표이사 : 정정모
본사 : 강남구 봉은사로 114길 40 홍선빌딩 2층
- tel : 02-6207-1160
대전지사 : 유성구 노은로174 도원프라자 5층
- tel : 042-331-1161

접속자집계

오늘
20
어제
173
최대
37,326
전체
2,561,881
Copyright © www.linuxdata.org All rights reserved.