일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 프로그래머스
- pagp
- Red Hat
- pvst+
- 네트워크
- ospf
- centos
- rommon mode
- vlan
- port aggregation protocol
- 네이티브 vlan
- LACP
- Cisco
- 방화벽
- stream 9
- SQL
- Network Design
- gns3
- BPDU
- ansible playbook
- freeradius
- Ansible
- 하프오픈
- Packet Tracer
- 네트워크 설계
- eigrp
- 티스토리챌린지
- STP
- 오블완
- junos os
- Today
- Total
Doctor Pepper
[안정성을 위한 기술] 이중화 기술 본문
안정적인 서비스 제공을 위한 이중화(다중화) 기술은 시스템 장애나 예기치 못한 상황에서도 서비스가 지속적으로 제공될 수 있도록 보장하는 중요한 요소이다. 특히, 네트워크, 서버, 스토리지뿐만 아니라 애플리케이션도 이중화 기술을 적용해야 한다.
1. 단일 장애점(SPoF, Single Point of Failure)을 피하는 인프라 설계의 중요성
서비스 인프라를 설계할 때 가장 중요하게 고려해야 할 점 중 하나는 서비스의 안정성과 가용성을 높이는 것이다. 단일 장애점(Single Point of Failure, SPoF)이란 시스템 내에서 특정 구성 요소가 고장 났을 때, 전체 서비스에 심각한 영향을 미치는 요소를 말한다. 이러한 SPoF는 네트워크와 소프트웨어 애플리케이션, 상용 시스템 등 다양한 환경에서 발생할 수 있으며, 안정적인 인프라를 위해 반드시 제거되어야 한다.
- SPoF : 네트워크 시스템, 서버, 애플리케이션 등에서 하나의 장치나 기능이 고장 났을 때 전체 시스템이 멈추는 취약점을 의미한다. 예를 들어, 간단한 이더넷 네트워크 시스템에서 네트워크 허브(Hub)의 전원 공급이 중단된다면 연결된 모든 디바이스가 네트워크를 사용할 수 없게 된다. 이처럼 특정 장치나 시스템 요소의 고장으로 인해 전체 서비스가 중단되는 상황이 발생하는 것은 고가용성을 요구하는 시스템에 적합하지 않다.
- 인프라 설계에서 SPoF를 피하는 이유
서비스를 제공하기 위한 인프라의 주요 목표 중 하나는 민첩성과 안정성을 동시에 확보하는 것이다. 특히 서비스의 타임 투 마켓(Time-to-Market)을 맞추기 위해 빠르게 인프라를 준비하는 것이 중요하지만, 그보다도 중요한 것은 서비스의 연속성과 안정성을 보장할 수 있는 인프라이다. 이러한 이유로 인프라 설계 시 가용성, 연속성, 안정성 등을 주요 지표로 설정하며 SPoF를 제거하려는 노력이 필수적이다.
만약 인프라에 SPoF가 존재할 경우, 하나의 장애가 전체 시스템에 큰 영향을 미칠 수 있다. 이러한 문제는 특히 네트워크나 서버 운영, 데이터 센터 등에서 자주 발생하며, 지속적인 서비스 운영을 위협한다. 따라서 SPoF 요소를 최소화하는 것이 아니라, 가능하다면 아예 만들지 않도록 인프라를 설계해야 한다.
- SPoF를 최소화하는 방법
- 이중화 구성: 네트워크, 서버, 전원 등 주요 구성 요소를 이중화하여 한쪽에 장애가 발생하더라도 다른 쪽이 시스템을 지속적으로 운영할 수 있도록 설계한다.
- 로드 밸런싱: 여러 장치와 서버에 트래픽을 분산하여 특정 서버에 과부하가 걸리지 않도록 하고, 트래픽 분산 장치가 장애를 방지할 수 있도록 설정한다.
- 백업 시스템: 데이터와 시스템 구성 요소를 주기적으로 백업하여 장애 발생 시 빠르게 복구할 수 있도록 한다.
- 재해 복구(DR) 계획: 예상치 못한 장애를 대비해 별도의 재해 복구 계획을 마련하여 신속한 복구와 복원을 가능하게 한다.
2. 이중화의 목적과 중요성
안정적인 서비스 제공을 위해 인프라 설계에서 반드시 고려해야 할 요소 중 하나는 이중화이다. 이중화는 인프라를 구성하는 각 요소를 복수로 구성하여 특정 장비나 네트워크에 문제가 발생하더라도 서비스가 지속될 수 있도록 하는 방식이다. 이를 통해 서비스의 중단 가능성을 최소화하고, 예기치 못한 장애 발생 시에도 안정적인 서비스를 유지할 수 있다.
- End-to-End 이중화 구성의 필요성
서비스의 시작점부터 종료 지점까지(End-to-End) 모든 인프라 요소에 이중화 구성을 고려하는 것은 필수적이다. 예를 들어, 물리적 또는 가상 서버, 네트워크 장비와 연결된 인터페이스, 부하 분산을 위한 L4/L7 스위치, 방화벽, 인터넷 게이트웨이 및 회선까지 모두 이중화되어야 한다. 심지어 데이터 센터 자체도 이중화가 필요하며, 재해복구센터(DR 센터)나 액티브-액티브 데이터 센터를 통해 만약의 상황에 대비하는 구조를 갖추게 된다.
- 이중화 구성 방식: Active-Active vs. Active-Standby
이중화는 운영 방식을 기반으로 액티브-액티브 또는 액티브-스탠바이 형태로 구성할 수 있다.
- Active-Active : 두 시스템이 동시에 운영되어 각각의 요청을 처리하며, 전체 용량을 증가시켜 트래픽 처리량을 분산한다.
- Active-Standby : 하나의 시스템만 운영 상태로 두고 나머지는 대기 상태로 유지합니다. 운영 시스템에 장애가 발생하면 대기 상태의 시스템이 즉시 운영으로 전환되어 서비스가 지속될 수 있다.
스위치에서 흔히 사용하는 스패닝 트리 프로토콜(Spanning Tree Protocol)은 Active-Standby 형태의 이중화 방식이다. 트래픽 루프를 방지하고, 주요 경로가 차단될 경우 대기 경로를 활성화하여 장애에 대비할 수 있다.
- 이중화의 중요성 : 비용 대비 효과
이중화는 추가적인 비용이 발생하더라도 안정성을 위해 반드시 필요한 요소이다. 장애가 발생하지 않는다면 서비스 제공에는 문제가 없겠지만, 만약 특정 지점에서 장애가 발생할 경우 이중화된 인프라를 통해 서비스를 계속 제공할 수 있기 때문에 폴트 톨러런스(Fault Tolerance)가 보장된다. 즉, 장애 발생 시에도 서비스의 연속성을 유지할 수 있는 시스템을 구성하는 것이 중요하다.
- 이중화 구성 시 용량 산정의 중요성
Active-Active 이중화 구성의 경우, 모든 서비스 요청을 두 시스템이 동시 처리하면서 트래픽이 분산되므로 전체 용량이 증가하는 효과가 있다. 하지만 이때 인프라 용량을 두 장치의 총합으로 설계하게 되면, 특정 장치가 장애를 일으켰을 때 서비스가 원활하게 운영되지 않을 수 있다.
예를 들어, 서버에서 12G 트래픽을 처리해야 할 때, 두 개의 10G 네트워크 카드를 이용해 Active-Active로 구성했다고 가정한다. 이 경우 각 네트워크 카드가 약 6G씩 처리하게 되어 문제없지만, 만약 하나의 네트워크 카드에 장애가 발생하면 12G의 트래픽을 하나의 10G 카드로 처리할 수 없어 서비스에 문제가 발생한다. 따라서 이중화 인프라를 설계할 때는 일부 구성 요소에 장애가 발생하더라도 서비스의 용량 요구 사항을 충족할 수 있도록 용량을 산정해야 한다.
- 데이터 센터의 이중화 데이터 센터의 이중화는 자연재해나 기타 비상 상황으로 인해 데이터 센터가 전체적으로 기능을 상실할 경우를 대비한 전략이다. 이를 위해 재난복구(DR) 센터를 구축하여, 데이터 센터에 장애가 발생했을 때 DR 센터가 서비스를 대신 처리할 수 있도록 한다. 또한, 동시 서비스 제공이 가능한 상태로 운영되는 Active-Active 데이터 센터를 구축하는 경우도 있다. Active-Active 구성은 DR 센터와 유사하지만, 실시간 데이터 동기화와 복잡한 운영 환경 등을 고려해야 하므로, 설계 시 많은 신경을 써야 한다. 따라서 데이터 센터의 이중화 설계는 매우 중요하며, 각 운영 환경에 맞는 최적화된 전략이 필요하다. |
3. LACP(Link Aggregation Control Protocol)
LACP(Link Aggregation Control Protocol)는 여러 네트워크 링크를 하나의 논리적 링크로 묶어 대역폭을 확장하고 안정성을 높이는 프로토콜이다. 주로 스위치나 서버 간에 여러 물리적 링크를 통합해 대역폭을 증대하고, 링크 중 하나에 장애가 발생해도 나머지 링크가 트래픽을 이어받아 서비스 중단을 방지할 수 있도록 구성한다.
LACP는 IEEE 802.3ad 표준을 따르며, 동적 링크 결합을 지원하여 링크 상태를 감지하고 자동으로 활성화된 링크만 묶어 사용할 수 있게 한다. 이를 통해 네트워크 성능과 가용성을 동시에 확보할 수 있다.
LACP를 사용하면 두 개 이상의 물리 인터페이스를 묶어 논리 인터페이스로 구성하여 네트워크 대역폭을 확장하고, 하나의 물리 링크에 장애가 발생해도 서비스 연속성을 보장할 수 있다. 특히 LACP는 Active-Active 구조로 작동하므로, 모든 물리 인터페이스를 동시에 활성 상태로 유지해 절체로 인한 지연 없이 지속적인 서비스 제공이 가능하다.
- LACP 구성 시 유의 사항
- 대역폭 산정: Active-Active 구조의 LACP는 모든 물리 인터페이스를 동시에 사용하므로 서비스에 필요한 트래픽을 고려해 대역폭을 신중히 산정해야 한다. 예를 들어, 1.5G의 트래픽을 수용해야 하는 경우, Active-Active로 1G 인터페이스 두 개를 묶어 2G로 구성하더라도 한쪽에 장애가 발생하면 대역폭이 1G로 줄어들어 서비스에 지장을 줄 수 있다. 따라서, 장애 발생 시에도 서비스가 유지될 수 있도록 충분한 대역폭을 확보해야 한다.
- 인터페이스 속도 일치: LACP를 구성하는 물리 인터페이스들은 속도가 동일해야 한다. 즉, 1G 인터페이스는 1G 인터페이스끼리, 10G 인터페이스는 10G 인터페이스끼리만 묶어야 하며, 서로 다른 속도의 인터페이스를 LACP로 구성할 수 없다.
LACP는 이러한 주의사항을 지키면 네트워크 확장성과 가용성을 높이는 데 매우 유용한 기술이다.
- LACP 동작 방식
LACP의 동작 방식은 두 장비 간 LACPDU(LACP Data Unit)라는 프레임을 주고받는 것으로 시작된다. LACPDU에는 출발지 주소, 목적지 주소, 타입, 서브 타입, 버전 등의 정보가 포함되어 있으며, 주기적으로 LACP 구성 여부를 확인하기 위해 장비 간에 주고받는다.
- LACPDU 전송: LACP는 장비 간 논리 인터페이스를 구성할 때 멀티캐스트를 사용하여 LACPDU를 주고받는다. LACPDU의 목적지 주소는 "01:80:c2:00:00:02"에서 "01:80:c2:00:00:10"까지의 주소 범위를 사용한다.
- LACP 설정 모드: LACP는 Active와 Passive 모드로 구성될 수 있다.
- Active 모드: LACPDU를 먼저 송신하고, 상대방 장비가 LACP로 구성되어 있으면 자동으로 LACP를 구성한다.
- Passive 모드: LACPDU를 송신하지 않지만, 상대방이 보낸 LACPDU를 수신하면 응답하여 LACP를 구성한다.
- 주의점: 양쪽 장비 모두 Passive 모드로 설정되어 있으면 LACPDU가 주고받아지지 않아 LACP 구성이 이루어지지 않는다.
- LACP 구성 조건: LACP 구성은 동일한 두 장비 간에만 가능하다. 서로 다른 장비에 연결된 경우 LACP를 통한 링크 이중화 구성이 불가능하다.
- 구성 가능한 인터페이스 수: 장비마다 차이는 있지만 일반적으로 1~8개의 물리 인터페이스를 묶어 하나의 논리 인터페이스로 구성할 수 있다. 일부 장비는 16개 이상의 물리 인터페이스를 하나의 논리 인터페이스로 구성하는 것도 지원한다.
- 속도 일치: LACP로 묶이는 모든 인터페이스는 동일한 속도를 가져야 합니다. 예를 들어, 1G 인터페이스 두 개를 묶어 2G로, 10G 인터페이스 네 개를 묶어 40G로 구성할 수 있지만, 1G와 10G를 묶어 11G와 같은 논리 인터페이스로 구성할 수는 없다.
LACP는 이러한 설정을 통해 네트워크 대역폭을 확장하고, 하나의 링크에 문제가 발생해도 다른 링크가 서비스의 연속성을 보장할 수 있도록 한다.
- LACP와 PXE
LACP와 PXE를 활용한 서버의 네트워크 구성에는 몇 가지 중요한 제한사항과 설정 방법이 있다. PXE(Pre-boot eXecution Environment)는 서버 운영체제가 설치되기 전의 부팅 환경을 지원하는 기능이지만, 본딩(Bonding)이나 티밍(Teaming)과 같은 LACP 기반의 논리 인터페이스를 설정하기에는 한계가 있다.
동작 방식은 다음과 같다.
- LACP 초기 구성 한계:
- 서버의 운영체제 설치 이전에는 LACP 설정을 위한 논리 인터페이스 구성이 불가능합니다. 서버가 운영체제가 없는 상태에서는 LACPDU를 송신할 수 없어 네트워크 장비 측에서도 LACP 협상이 이루어지지 않기 때문이다.
- 결과적으로 PXE를 통해 OS를 설치할 때는 단일 인터페이스로만 연결이 가능하다.
- LACP 구성 및 PXE 설치 절차:
- 네트워크 장비(LACP 설정된 스위치 등)에서는 일정 시간 동안 LACPDU를 수신하지 않으면 단일 인터페이스만 활성화하는 옵션을 제공할 수 있다. 이 기능을 사용하면 PXE로 OS를 설치할 때 필요한 네트워크 연결이 이루진다.
- 이후 서버에 운영체제를 설치한 후, 본딩/티밍 설정을 통해 LACP를 활성화하고, 스위치 포트에서 다시 LACP 설정을 적용한다.
- LACP 설정 완료:
- OS가 설치되고 서버가 LACPDU를 전송하면, 네트워크 장비와 서버 간에 정상적인 LACP 협상이 이루어져 Active-Active 상태로 동작하게 된다.
- 벤더별 명칭 차이:
- 다양한 네트워크 장비 벤더들이 이와 유사한 기능을 제공하지만, 각기 다른 명칭을 사용합니다. 그러나 기본적으로 PXE와 LACP 설정 간 호환성 문제를 해결하는 기능이라는 점에서 동일한 목적을 가집니다.
이를 통해 서버는 PXE를 통해 운영체제를 설치하고, 이후 논리 포트 구성 및 LACP 설정이 가능한 환경으로 전환된다.
벤더마디 이 기술을 부르는 명칭은 조금씩 다르지만 유사한 역할을 수행할 수 있다.
벤더 | 기술명 |
Cisco | lacp suspend-individual |
Arista | lacp fallback |
Extreme | lacp fallback |
Extreme(구 Brocade) | force-up |
Juniper | force-up |
HP | lacp edge-port |
4. MC-LAG(Multi-Chassis Link Aggregation Group)
LACP는 여러 개의 물리적인 네트워크 인터페이스를 하나의 논리적인 인터페이스로 결합하여 대역폭을 확장하고 이중화를 제공하는 기술이다. 그러나 LACP를 구성할 때 중요한 제약 중 하나는 LACPDU가 교환되는 두 장비 간에 MAC 주소가 1:1로 매칭되어야 한다는 점이다. 즉, 하나의 논리적인 LACP 그룹을 구성하는 데 있어서 각 장비는 동일한 MAC 주소를 사용해야 하므로, 서버에서 다수의 물리적 인터페이스를 사용할 때는 두 개의 물리적 MAC 주소 중 하나를 Primary MAC 주소로 설정하여 이 규칙을 준수한다.
- SPoF 문제와 해결
서버에서 네트워크 인터페이스를 두 개 이상 구성하고 이를 하나의 상단 스위치에 연결하는 경우, 해당 상단 스위치에 장애가 발생하면 서버와 외부 네트워크 간의 통신이 불가능해지는 SPoF 문제가 발생할 수 있다. 이를 방지하기 위해 서버의 네트워크 인터페이스를 두 개의 서로 다른 스위치에 연결하여 이중화 구성을 하게 된다. 하지만 이 구성에서는 스위치 간에 MAC 주소가 달라서 LACP를 사용할 수 없다. 따라서 서버는 일반적으로 Active-Standby 방식으로 본딩(bonding)이나 티밍(teaming)을 설정하여 장애 발생 시 하나의 링크만 사용하도록 한다.
- MC-LAG를 이용한 이중화 및 LACP 구성
MC-LAG(Multi-Chassis Link Aggregation Group) 기술을 사용하면 서로 다른 스위치 간에도 하나의 가상 MAC 주소를 이용해 LACP를 구성할 수 있다. 즉, MC-LAG을 통해 서로 다른 스위치에서 논리적 인터페이스를 만들어 LACP를 설정하면, 스위치 간의 실제 MAC 주소 대신 가상 MAC 주소를 사용하여 Active-Active 형태의 이중화 구성을 할 수 있다. 이를 통해 두 스위치 간에 MAC 주소 충돌 없이 LACP를 이용한 이중화가 가능하다.
- MC-LAG의 벤더별 구현
MC-LAG은 벤더마다 기술명이 다를 수 있습니다.
벤더 | 기술 명칭 |
Arista | MLAG |
Aruba(Formerly HP ProCurve) | Distributed Trunking under Intelligent Resilient Framework Switch Clustering Technology |
Avaya | Distributed Split Multi-Link Trunking |
Brocade | Multi-Chassis Trunking |
Ciena | MC-LAG |
Cisco Catalyst 6500 - VSS | Multichassis Ether Channel(MEC) |
Cisco Catalyst 3750(and similar) | Cross-Stack Ether Channel |
Cisco Nexus | Virtual Port Channel(vPC), where a Port Channel is a regular LAG |
Cisco IOS-XR | mLACP |
Cumulus Networks | MLAG(Formerly CLAG) |
Dell Networking(Formerly Force 10 Networks, Formerly nCore) | DNOS6.x Virtual Port Channel(vPC) or Virtual Link Trunking |
Extreme Networks | MLAG |
Ericsson | MC-LAG(Multi Chassis Link Aggregation Group) |
Fortinet | MC-LAG(Multi Chassis Link Aggregation Group) |
HPR/Aruba | Distributed Trunking |
Lenovo Networking(formerly IBM) | vLAG |
Mellanox | MLAG |
NEC | MC-LAG(Openflow to Traditional Network) |
Nokia(Formerly Alcatel-Lucent) | MC-LAG |
Nortel | Split Multi-Link Trunking |
Nuage NEtworks/Nokia | MC-LAG; including MCS(Multi-Chassis Sync) |
Juniper | MC-LAG |
Plexxi | MLAG |
H3C | M-LAG |
ZTE | MC-LAG |
Huawei | M-LAG |
NETGEAR | MLAG |
- MC-LAG 구성의 장점
가용성 증가 | 여러 스위치를 사용하여 장애 발생 시 빠르게 트래픽을 우회시킬 수 있어 네트워크 가용성을 높일 수 있음. |
대역폭 확장 | LACP를 사용하여 여러 물리적인 링크를 하나의 논리적인 링크로 묶어 대역폭을 확장할 수 있음. |
Active-Active 구성 | 여러 스위치 간에 가상 MAC 주소를 사용함으로써 Active-Active 형태로 트래픽을 분산시키며, 장애가 발생해도 다른 경로로 자동 전환이 가능함. |
- MC-LAG의 구성 요소
- 피어(Peer) 장비 : MC-LAG을 구성하는 장비를 피어(Peer) 장비라고 한다.
- MC-LAG 도메인(Domain) : 두 Peer 장비를 하나의 논리 장비로 구성하기 위한 영역 ID이다. Peer 장비는 이 영역 ID를 통해 상대방 장비가 Peer를 맺으려는 장비인지 판단한다
- 피어 링크(Peer-Link) : MC-LAG을 구성하는 두 Peer 장비 간의 데이터 트래픽을 전송하는 인터링크이다.
- MC-LAG 동작 방식
- 도메인 구성 : MC-LAG을 구성하기 위해 두 피어 장비에 동일한 도메인 ID를 설정하여 같은 도메인으로 인식한다. 피어 간에는 데이터 트래픽을 전송할 피어 링크가 설정되며, 일반적으로 트렁크로 설정하여 데이터 전송을 원활하게 한다.
- 제어 패킷 통신 방식 : MC-LAG 피어 장비는 MC-LAG 구성을 위한 제어 패킷을 주고받아야 하며, 이를 위해 피어 링크를 통해 제어 패킷을 전송할 수도 있고, 별도의 제어 패킷용 인터페이스를 통해 전송할 수도 있다. 제어 패킷을 피어 링크로 전송할 경우, 각 피어 장비의 VLAN 인터페이스 IP로 통신이 가능하다. 별도의 제어 경로를 구성할 때는 별도의 L3 인터페이스에 IP를 설정하여 제어 패킷을 주고받는다.
- MC-LAG 협상 및 도메인 구성 완료 : 제어 패킷을 통해 MC-LAG을 설정하는 두 피어 간 협상이 완료되면, 두 장비는 하나의 MC-LAG 도메인으로 연결된다. 두 피어는 동일한 가상 MAC 주소를 생성하여 각 피어 장비가 동일한 MAC 주소를 가진 것처럼 보이게 한다.
- LACP 연동 : MC-LAG 구성 후 피어 장비는 다른 네트워크 장비(서버 또는 스위치)와 LACP를 통해 이중화 구성을 할 수 있다. MC-LAG 피어 장비가 LACPDU를 전송할 때, 개별 MAC 주소 대신 가상 MAC 주소를 사용한다. 이를 통해 MC-LAG 도메인 내부의 각 피어 장비가 동일한 MAC 주소를 가진 것처럼 인식되어 연결된 장비는 이를 단일 장비처럼 취급하고 이중화 구성을 수행할 수 있다.
- MC-LAG을 이용한 네트워크 설계
MC-LAG을 이용하면 여러 스위치 간에 Active-Active 구성을 할 수 있다. 예를 들어, 서버에서 두 개의 네트워크 인터페이스를 두 개의 스위치에 연결하고 LACP(Link Aggregation Control Protocol)를 통해 하나의 논리적인 인터페이스처럼 인식되도록 설정하면, 두 스위치가 독립적으로 LACP를 구성하면서도 하나의 논리적 링크처럼 동작한다. 이렇게 구성하면 루프나 STP 차단 없이 트래픽이 양방향으로 흐를 수 있다.
장점 | 한 스위치에 장애가 발생해도 다른 스위치가 계속해서 서비스를 제공할 수 있어 고가용성이 보장됨. 이중화된 경로로 대역폭을 확장하고 네트워크 효율성을 높일 수 있음. |
- Active-Active 구성 가능 : MC-LAG을 이용하면 여러 스위치 간에 Active-Active 구성을 할 수 있다. 예를 들어, 서버에서 두 개의 네트워크 인터페이스를 두 개의 스위치에 연결하고 LACP(Link Aggregation Control Protocol)를 통해 하나의 논리적인 인터페이스처럼 인식되도록 설정하면, 두 스위치가 독립적으로 LACP를 구성하면서도 하나의 논리적 링크처럼 동작한다. 이렇게 구성하면 루프나 STP 차단 없이 트래픽이 양방향으로 흐를 수 있다.
- 장점: 한 스위치에 장애가 발생해도 다른 스위치가 계속해서 서비스를 제공할 수 있어 고가용성이 보장된다. 이중화된 경로로 대역폭을 확장하고 네트워크 효율성을 높일 수 있다.
- 루프 구조 제거 및 STP 차단 방지 : MC-LAG을 적용하면, 서로 다른 스위치 간의 연결이 가상 MAC 주소로 구성되어, 루프가 발생하지 않도록 한다. 이로 인해 STP에서 포트를 차단하거나, 네트워크에서 불필요한 트래픽이 발생하는 것을 방지할 수 있다.
- 루프 제거 : MC-LAG은 네트워크에서 루프가 발생하는 것을 방지하여, STP가 포트를 차단하는 과정을 없애고 모든 포트를 활성화된 상태로 유지한다.
- STP 차단 포트 없이 사용 가능 : STP를 사용할 필요 없이 모든 포트를 활용할 수 있어 네트워크 용량을 최대로 사용할 수 있다.
- 스위치 4대를 1:1 구조로 구성 : MC-LAG을 양쪽에 모두 적용하면 스위치 4대를 1:1로 구성할 수 있다. 예를 들어, 상단 스위치 두 대와 하단 스위치 두 대를 MC-LAG을 통해 각각 연결하여, 상단과 하단 스위치 간에 물리적인 이중화 및 논리적인 결합을 수행한다. 이를 통해 트래픽을 분산시키고, 스위치 간 장애가 발생해도 빠르게 다른 경로로 대체할 수 있다.
- 결합된 성능: 각 스위치가 하나의 논리적 장비처럼 동작하여, 물리적인 장비 수는 많아지지만, 논리적으로는 하나의 LACP 그룹처럼 동작하여 네트워크 성능을 극대화할 수 있다.
- 중복성 확보: 하나의 스위치가 장애를 겪더라도 다른 스위치에서 트래픽을 지속적으로 처리할 수 있어 중복성과 안정성이 높아진다.
이중화 기술은 시스템의 안정성과 가용성을 보장하는 중요한 요소로, 서비스 연속성을 유지하기 위한 필수적인 전략이다. 특히, 단일 장애점(SPoF)을 제거하고, End-to-End 이중화 구성을 통해 예상치 못한 장애에 대비하는 것은 서비스의 신뢰성을 높이는 데 큰 도움이 된다. 또한, LACP와 같은 기술을 활용하여 네트워크 대역폭을 확장하고, 장애 발생 시에도 서비스를 지속적으로 제공할 수 있는 환경을 마련하는 것이 중요하다. 이중화 구성을 통해 시스템의 가용성을 높이고, 장애 발생 시 빠르게 복구할 수 있는 기반을 마련하여, 서비스의 품질을 한층 더 향상시킬 수 있다.
'네트워크 > 기술' 카테고리의 다른 글
[안정성을 위한 기술] 로드 밸런서(2) (0) | 2024.11.17 |
---|---|
[안정성을 위한 기술] 로드 밸런서(1) (0) | 2024.11.16 |
[안정성을 위한 기술] 게이트웨이 이중화 (0) | 2024.11.15 |
[안전성을 위한 기술] 암호와 인증서 (3) | 2024.11.10 |
[안정성을 위한 기술] 가용성 (0) | 2024.11.10 |