반복영역 건너뛰기
주메뉴 바로가기
본문 바로가기
제품/서비스
EMS Solution
Features
클라우드 관리
서버관리
데이터베이스 관리
네트워크 관리
트래픽 관리
설비 IoT 관리
무선 AP 관리
교환기 관리
운영자동화
실시간 관리
백업 관리
스토리지 관리
예방 점검
APM Solution
애플리케이션 관리
URL 관리
브라우저 관리
ITSM Solution
서비스데스크
IT 서비스 관리
Big Data Solution
SIEM
AI 인공지능
Dashboard
대시보드
Consulting Service
컨설팅 서비스
고객
레퍼런스
고객FAQ
문의하기
가격
자료실
카탈로그
사용자매뉴얼
회사소개
비전·미션
연혁
2016~현재
2000~2015
인증서·수상
투자정보
재무정보
전자공고
IR자료
새소식
공고
보도자료
오시는 길
채용
피플
컬처
공고
FAQ
블로그
열기
메인 페이지로 이동
블로그
기술이야기
블로그
최신이야기
사람이야기
회사이야기
기술이야기
다양한이야기
쿠버네티스와 Helm 등 CNCF의 주요 프로젝트
[행사] 브레인즈컴퍼니 신년회, 2023년을 돌아보고 2024년을 내다보다
이화정
2024.01.05
페이스북 공유하기
트위터 공유하기
링크드인 공유하기
블로그 공유하기
테라폼(Terraform)의 모든 것, 그리고 AWS EC2 생성하기
브레인저들의 새해를 여는
2024년 신년회
가 지난 4일(목) 본사 8층 라운지에서 열렸습니다.
오랜만에 브레인저 모두가 모인 자리에서 2023년을 돌아보고, 2024년을 함께 내다보는 시간을 가졌습니다. 그리고 장기근속자, 우수팀, 승진을 발표하고 축하하는 시간과 고기파티까지 열렸는데요! 신년회의 생생한 현장을 지금부터 살펴보겠습니다.
。。。。。。。。。。。。
[16:00]
2023년을 돌아보고 2024년을 내다보다
브레인즈컴퍼니의 각 분야를 담당하고 있는 본부장님들의 발표로 본격적인 신년회가 시작되었습니다.
첫 번째 순서는 전략사업본부의 은숙님이 맡아주셨습니다. 은숙님은 9부터 시작해서 1까지 각 숫자와 연관되어 있는 내용으로 2023년 회고와 2024년 계획을 말씀해 주셨습니다. 브레인즈컴퍼니의 영업
·
마케팅
·
고객관리를 총괄하고 계신만큼, 많은 고민과 진심이 담긴 발표였습니다!
은숙님은 발표를 통해
“2023년 어려운 시장 환경 가운데서도 모두 노력해서 많은 고객을 만나고 소프트웨이브같은 큰 행사도 성공적으로 치렀던 것 처럼, 2024년에도 모든 브레인저가 힘을 합치면 목표보다 더 높은 곳에 오를 수 있을 것”
이라고 강조해 주셨습니다.
다음으로 브레인즈컴퍼니의 중심! 개발그룹을 대표해서 자환님이 발표를 진행해 주셨습니다. 자환님은
“2023년에 빠르게 변화하고 있는 IT 환경과 고객 니즈에 맞춘 서비스를 지속적으로 개발하고 배포했다. 2024년에도 기존 출시된 쿠버네티스(Kubernetes) 모니터링 제품의 기능 고도화를 포함하여, 완성도 높은 기능과 서비스들을 선보일 계획”
이라고 밝혀주셨습니다.
마지막으로 경영지원팀 현보님은
“지난해 만족도가 높았던 해외연수(만족도 4.43/5)와 패밀리데이(만족도 4.56/5)를 포함하여, 2024년에는 더 다양한 행사와 교육 등을 통해 건강한 사내 문화를 만들겠다. 또한 브레인저들의 능력을 높일 수 있도록 지속적으로 노력하겠다”
라고 포부를 밝혀주셨습니다.
이렇게 각 본부별 2023년 회고와 2024년 비전을 알아볼 수 있었는데요. 본부장님들이 발표 중간중간 감사하고 수고했던 브레인저분들께, 진심 어린 감사의 마음을 전하며 마음이 따뜻해 지기도 했습니다.
[16:45]
재걸님의 총평 “2024년 우리가 꼭 기억해야 할 것은”
다음 순서로 브레인즈컴퍼니의 운영을 총괄하시는 재걸님(부사장)께서 2023년 한 해를 되돌아보는 총평과, 2024년 계획에 대해 발표하는 시간을 가졌습니다.
우선 2023년에 어려운 경제환경 속에서도 제니우스(Zenius)의 고객이 꾸준히 증가한 것과 큰 행사를 잘 마무리한 것, 그리고 쉬지 않고 새로운 서비스 개발에 힘쓴 것에 대해 격려해 주셨습니다.
2024년에는 브레인즈컴퍼니가 더 높이 도약할 수 있도록 Zenius의 경쟁력을 높이고, 자회사인 에이프리카와의 협업을 강화할 것을 강조하셨습니다.
[17:20]
깜짝 ‘나락’퀴즈쇼!
잠시 분위기를 바꿔 브레인즈 나락 퀴즈쇼도 진행됐습니다. 퀴즈를 맞추거나, 틀려도 나락(?)에 갈 수 있는 위험하고 재밌는 시간이었는데요. 한 분을 제외하곤 모두 정답을 맞춰주셨습니다
(자세한 내용 해당 브레인저들의 더 이상의 추락을 막기 위해 비공개로..)
. 이 퀴즈쇼를 통해 모든 브레인저가 함께 웃을 수 있었던 시간이었습니다.
[17:40]
각종 포상 수상식
다음으로는 각종 포상 및 승진자를 발표하고 축하하는 시간이 이어졌습니다. 먼저 장기근속자(5/10/15)들에 대한 포상이 진행되었는데요. 여기서 깨알 복지!
*브레인즈컴퍼니는 5년 근속자는 현금 100만 원 지급, 10년 근속자는 현금 300만 원과 휴가 3일 지급, 15년 근속자는 500만 원과 휴가 5일을 지급합니다.
다음으로는 2023 최우수 부서(디자인팀), 협력지원 포상에 이어 승진자 발표가 이어졌습니다. 모두 진심으로 축하드립니다?
[18:00]
신년회의 ‘꽃’ 회식
신년회에는 맛있는 음식이 빠질 수 없죠! 팀원들 간의 행복한 저녁 시간을 보내기 위해 근처 고깃집으로 향했는데요. 큰 규모의 식당을 단독으로 대관해 편하게 즐길 수 있었습니다.
팀원분들끼리 그간 못 했던 말들도 하고, 포상과 승진을 한 브레인저에게 서로 축하 인사를 하며, 회포를 푸는 시간을 가졌습니다.
이번 신년회를 통해 2023년 한 해를 되돌아보고, 2024년을 희망차고 행복하게 시작할 수 있었습니다. 무엇보다 브레인저분들이 함께 있어 더 뜻깊었던 시간이었습니다!
이렇게 브레인즈컴퍼니의 2024년은 힘차게 시작되었습니다.
#신년회
#사내문화
#사내복지
#행사
이화정
프리세일즈팀
프리세일즈팀에서 마케팅, 내외부 홍보, 콘텐츠 제작을 담당하고 있어요.
필진 글 더보기
목록으로
추천 콘텐츠
이전 슬라이드 보기
eBPF로 구현하는 TCP 상태 추적 기반 네트워크 모니터링
eBPF로 구현하는 TCP 상태 추적 기반 네트워크 모니터링
예전에는 네트워크 성능을 모니터링할 때 tcpdump로 패킷을 캡처하거나, netstat으로 연결 상태를 확인하거나, NetFlow/sFlow 기반 분석을 많이 사용했습니다. 하지만 네트워크 환경이 복잡해지고 암호화 트래픽이 늘어나면서, 그리고 컨테이너·MSA 환경으로 서비스가 쪼개지면서 기존 방식의 패킷 기반 모니터링은 점점 한계를 드러냈습니다. 성능 부하는 커지고, 세부 가시성은 부족했습니다. 이 문제를 해결해 준 게 바로 eBPF(extended Berkeley Packet Filter)입니다. eBPF는 커널 내부 함수에 직접 훅(Hook)을 걸어서 데이터를 가져올 수 있기 때문에, 서비스에 큰 영향을 주지 않고도 운영 환경에서 실시간 성능 분석이 가능합니다. 쉽게 말해, 예전에는 netstat으로 “포트가 지금 어떤 상태인지”만 볼 수 있었다면, eBPF를 쓰면 “그 포트의 상태가 어떻게 변하고 있는지”까지 관찰할 수 있습니다. 그래서 최근 클라우드 네이티브 환경이나 초저지연 서비스 운영에서는 eBPF가 차세대 네트워크 모니터링 기술로 주목받고 있습니다. eBPF란? eBPF는 커널 안에서 안전하게 실행되는 작은 프로그램으로, 네트워크·시스템 동작을 실시간으로 추적하는 데 강점을 가집니다. 네트워크 모니터링 관점에서 자주 쓰이는 기능은 다음과 같습니다. • kprobe/kretprobe: 커널 함수 진입·종료 시점 후킹 • tracepoint: 커널 이벤트 발생 시점 후킹 • BPF Map: 커널과 사용자 공간 간 데이터 공유 • BPF Helper 함수: 커널 리소스 접근 API eBPF는 Verifier(검증기)가 프로그램의 안전성을 보장하지 못하면 로드를 거부합니다. 과거에는 Verifier가 루프의 종료를 판별하지 못해 루프 사용이 전혀 허용되지 않았지만, 최근에는 단순 반복문은 사용할 수 있게 되었습니다. 또한 BTF(BPF Type Format)와 CO-RE(Compile Once – Run Everywhere) 기술 덕분에, 커널 버전이 달라져도 동일한 eBPF 프로그램을 별도 빌드 과정 없이 그대로 운용할 수 있습니다. eBPF 사용 방법 제가 공부하면서 가장 흥미로웠던 예제는 BCC 툴셋에 포함된 **tcpstates**입니다. TCP 연결 상태 변화를 추적하는 예제인데, 구조를 간단히 정리하면 다음과 같습니다. • bpf.c: 커널에서 실행되는 함수 중 “어떤 걸 관찰할지”와 “관찰 시 어떤 데이터를 수집할지” 정의 • .h: 커널과 유저 공간이 공유하는 데이터 구조체 정의 • .c: 수집된 데이터를 가공해서 사용자에게 출력 예를 들어, tcpstates.bpf.c에서는 커널 tracepoint inet_sock_set_state를 후킹해서 TCP 상태 변화를 잡아냅니다. 아래 코드를 보면 이해가 쉬우실 겁니다. int handle_set_state(struct trace_event_raw_inet_sock_set_state *ctx) { struct sock *sk = (struct sock *)ctx->skaddr; __u16 family = ctx->family; __u16 sport = ctx->sport; __u16 dport = ctx->dport; __u64 *tsp, delta_us, ts; struct tcpstates_t tcpstates = {}; if (ctx->protocol != IPPROTO_TCP) return 0; ts = bpf_ktime_get_ns(); tcpstates.skaddr = (__u64)sk; tcpstates.ts_us = ts / 1000; tcpstates.pid = bpf_get_current_pid_tgid() >> 32; tcpstates.oldstate = ctx->oldstate; tcpstates.newstate = ctx->newstate; tcpstates.family = family; tcpstates.sport = sport; tcpstates.dport = dport; bpf_get_current_comm(&tcpstates.task, sizeof(tcpstates.task)); if (family == AF_INET) { bpf_probe_read_kernel(&tcpstates.saddr, sizeof(tcpstates.saddr), &sk->__sk_common.skc_rcv_saddr); bpf_probe_read_kernel(&tcpstates.daddr, sizeof(tcpstates.daddr), &sk->__sk_common.skc_daddr); } else { /* family == AF_INET6 */ bpf_probe_read_kernel(&tcpstates.saddr, sizeof(tcpstates.saddr), &sk->__sk_common.skc_v6_rcv_saddr.in6_u.u6_addr32); bpf_probe_read_kernel(&tcpstates.daddr, sizeof(tcpstates.daddr), &sk->__sk_common.skc_v6_daddr.in6_u.u6_addr32); } // 상태가 변경되면 유저 공간에 알리는 부분 bpf_perf_event_output(ctx, &events, BPF_F_CURRENT_CPU, &tcpstates, sizeof(tcpstates)); return 0; } 핵심 로직은 단순합니다. 커널에서 inet_sock_set_state가 호출되면 handle_set_state 함수가 실행되고, 이때 변경된 TCP 상태를 잡아내 사용자 공간으로 전달합니다. 언뜻 보면 복잡해 보일 수 있지만, 사실 bpf.c의 역할은 데이터를 가공하는 것이 아니라 수집하는 것입니다. 결국 중요한 것은 “내가 원하는 값이 구조체의 어디에 들어 있는지”를 정확히 찾아내는 일입니다. 그 값을 Map에 담아 사용자 공간으로 넘기면 됩니다. netstat으로 보이는 출력은 아래와 같죠. Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name tcp 0 0 192.168.0.10:22 192.168.0.55:54321 ESTABLISHED 2048/sshd: user@pts/0 netstat은 사용자가 명령어를 실행한 시점의 상태만 스냅샷 형태로 보여줍니다. 그래서 LISTEN, ESTABLISHED, CLOSE_WAIT처럼 비교적 오래 유지되는 상태만 주로 확인할 수 있습니다. 반면 tcpstates를 활용하면 커널 내부에서 발생하는 모든 TCP 상태 변화를 이벤트 단위로 추적할 수 있습니다. 덕분에 기존 툴로는 관찰하기 어려웠던 3-way handshake와 4-way handshake 과정까지 실제로 확인할 수 있다는 점이 흥미로웠습니다. 조금 더 실무적으로 활용하자면, CLOSE_WAIT이 비정상적으로 쌓이는 경우 커넥션 누수를 빠르게 탐지할 수 있고, TIME_WAIT이나 FIN_WAIT2 패턴을 분석하면 리소스 사용량 문제를 조기에 파악할 수 있습니다. 관측용 예제지만, 확장하면 운영 환경에서도 충분히 유용한 진단 도구가 될 수 있습니다 다음으로 유저 공간의 tcpstates.c는 커널 eBPF 프로그램이 보낸 이벤트를 받아서 보기 좋게 출력하는 역할을 합니다. 흐름은 단순합니다. ①eBPF 오브젝트 열기 (tcpstates_bpf__open()) ②프로그램 커널 로드 (tcpstates_bpf__load()) ③훅 부착 (tcpstates_bpf__attach()) ④필요 시 cgroup 필터 등록 (open(), bpf_map_update_elem()) ⑤주기적으로 Map을 읽거나 이벤트를 받아 상태 출력 현재는 TCP 상태 변경 이벤트가 발생할 때마다 화면에 출력하는 방식으로 동작하지만, 필요하다면 일정 주기마다 netstat을 호출하듯이 현재 상태를 스냅샷 형태로 출력하도록 구현할 수도 있습니다. 마무리하며 이처럼 간단한 코드만으로도 tcpdump나 netstat보다 훨씬 세밀하게 네트워크 흐름을 분석하는 프로그램을 만들 수 있습니다. tcpstates 같은 예제는 단순하지만, eBPF의 장점을 잘 보여줍니다. • 저부하 eBPF는 패킷 전체를 캡처하지 않고, 연결 상태나 세션 정보 같은 핵심 메타데이터만 선택적으로 수집합니다. 이로 인해 CPU와 메모리 사용 부담이 최소화되며, 운영 중인 서비스에 성능 저하를 거의 일으키지 않습니다. 즉, 실서비스 환경에서도 안정적으로 적용 가능한 경량 모니터링 방식입니다. • 높은 가시성 단순히 IP와 포트 수준의 정보만 보여주는 데 그치지 않고, 프로세스명·PID·서비스 단위까지 트래픽을 구분할 수 있습니다. 이를 통해 “어떤 서비스가 얼마만큼의 네트워크 자원을 소비하는지”를 즉시 파악할 수 있으며, 서비스별 자원 사용 현황을 보다 세밀하게 모니터링할 수 있습니다. • 확장성 기본적인 송·수신량 분석을 넘어, RTT(왕복 지연시간), 재전송률, 패킷 드롭률 등 다양한 지표를 손쉽게 확장할 수 있습니다. 필요한 메트릭을 커널 훅(Hook)에 연결해 Map에 저장하기만 하면, 곧바로 시각화와 분석에 활용할 수 있습니다. 이 덕분에 환경 변화나 분석 요구에도 유연하게 대응 가능한 구조를 제공합니다. 브레인즈컴퍼니 역시 이 기술을 Zenius NPM(Network Performance Monitoring)에 적용하면서 기존 방식으로는 확인하기 어려웠던 세밀한 성능 데이터를 확보할 수 있었습니다. 이를 통해 단순한 모니터링을 넘어 서비스 간 통신 병목을 실시간으로 파악하고, 장애 분석 시간을 크게 줄일 수 있는 솔루션을 완성할 수 있었던 점이 큰 성과였습니다. 앞으로도 이러한 경험을 바탕으로 eBPF 활용을 더 넓혀가고자 합니다.
2025.09.18
다음 슬라이드 보기