"파이버 채널"의 두 판 사이의 차이
잔글 |
(입니다 --> 이다) |
||
4번째 줄: | 4번째 줄: | ||
슈퍼컴퓨터 분야에 주로 사용되기 시작하였으나 지금은 기업용 자료 보관을 위한 SAN의 표준 연결 형태가 되어가고 있다. 파이버 채널의 파이버는 "섬유"를 뜻하지만 실제로 파이버 채널의 신호 표현은 연선 구리 케이블과 광학 섬유 케이블 두 곳에서 이용할 수 있다.<ref name="위백"></ref> | 슈퍼컴퓨터 분야에 주로 사용되기 시작하였으나 지금은 기업용 자료 보관을 위한 SAN의 표준 연결 형태가 되어가고 있다. 파이버 채널의 파이버는 "섬유"를 뜻하지만 실제로 파이버 채널의 신호 표현은 연선 구리 케이블과 광학 섬유 케이블 두 곳에서 이용할 수 있다.<ref name="위백"></ref> | ||
− | 파이버 채널(Fibre Channel, FC)은 기가비트 급의 전송 속도를 가진 네트워크 | + | 파이버 채널(Fibre Channel, FC)은 기가비트 급의 전송 속도를 가진 네트워크 기술이다. 처음 나왔을 당시에는 높은 트래픽을 처리하는데 TCP/IP보다 빠르고, 스토리지 전용 네트워크로 대역폭을 확보할 수 있어 주목을 받았던 기술이다. 무엇보다 TCP/IP보다 구조가 단순해 높은 안정성을 가지고 있다. 기존의 SCSI(Small Computer System Interface) 프로토콜 기술이 응용되었으며, SAN 환경에서 iSCSI와 함께 블록 데이터를 전송할 때 가장 일반적으로 쓰인다. 파이버 채널의 전송 속도는 8Gbps, 16Gbps, 32Gbps 정도이며, 32Gbps 선을 4개 묶어서 128Gbps 속도까지 올릴 수 있다.<ref name="태그"> 박주형, 〈[https://tech.gluesys.com/blog/2019/12/17/storage_2_intro.html 스토리지 기초 지식 2편: 스토리지 프로토콜]〉, 《태그지》, 2019-12-17</ref> |
파이버 채널은 데이터 센터, 컴퓨터 서버, 스위치 및 스토리지 간에 데이터를 최대 128Gbps의 데이터 전송 속도로 전송하는 데 주로 사용되는 고속 네트워킹 기술이다. 신뢰할 수 있고 확장성이 뛰어난 고처리 및 저지연성 프로토콜과 인터페이스에 대한 필요성을 채워 소형 컴퓨터 시스템 인터페이스(SCSI)와 고성능 병렬 인터페이스(HIPI)의 단점을 극복하기 위해 개발되었다. 파이버 채널은 특히 서버를 공유 스토리지 장치에 연결하고 스토리지 컨트롤러와 드라이브를 상호 연결하는 데 적합하다. SAN(Storage Area Network)을 위해 Fibre Channel 인터페이스가 생성됨 | 파이버 채널은 데이터 센터, 컴퓨터 서버, 스위치 및 스토리지 간에 데이터를 최대 128Gbps의 데이터 전송 속도로 전송하는 데 주로 사용되는 고속 네트워킹 기술이다. 신뢰할 수 있고 확장성이 뛰어난 고처리 및 저지연성 프로토콜과 인터페이스에 대한 필요성을 채워 소형 컴퓨터 시스템 인터페이스(SCSI)와 고성능 병렬 인터페이스(HIPI)의 단점을 극복하기 위해 개발되었다. 파이버 채널은 특히 서버를 공유 스토리지 장치에 연결하고 스토리지 컨트롤러와 드라이브를 상호 연결하는 데 적합하다. SAN(Storage Area Network)을 위해 Fibre Channel 인터페이스가 생성됨 | ||
59번째 줄: | 59번째 줄: | ||
===FCoE=== | ===FCoE=== | ||
− | 파이버 채널 오버 이더넷(Fibre Channel over Ethernet, 이하 FCoE)은 기존의 파이버 채널 프레임을 캡슐화해 이더넷 네트워크상에서 데이터를 주고받는 기술을 | + | 파이버 채널 오버 이더넷(Fibre Channel over Ethernet, 이하 FCoE)은 기존의 파이버 채널 프레임을 캡슐화해 이더넷 네트워크상에서 데이터를 주고받는 기술을 말한다. 하나의 케이블과 인터페이스 카드로 이더넷과 파이버 채널 환경을 함께 구현할 수 있어 기존의 TCP/IP 네트워크 인프라를 유지한 상태에서 하드웨어 복잡성을 줄일 수 있다는 장점이 있다. FCoE의 도입은 2000년대 중반부터 Cisco 사의 주도로 추진되어 왔다. 하지만 대체하고자 했던 이더넷의 속도가 비약적으로 발전함과 동시에 새로운 프로토콜의 도입을 꺼리는 스토리지 회사들로 인해 현재로서는 기존 인프라를 대체하지 못하고 있는 상황이다. 또한, 이 신기술을 도입하는 고객 입장에서도 통합 네트워크 어댑터(Converged Network Adapter, CNA)라는 인터페이스 카드와 FCoE 프로토콜을 지원하는 하드웨어가 필요해 비용 및 유지보수 측면에서도 불편함이 있다.<ref name="태그"></ref> |
===구조=== | ===구조=== | ||
84번째 줄: | 84번째 줄: | ||
파이버 채널 프레임의 5개 레이어에는 다음이 포함된다. | 파이버 채널 프레임의 5개 레이어에는 다음이 포함된다. | ||
− | •FC-0 : 물리 미디어 및 전송 속도를 정의하는 계층으로 커넥터, 드라이버, 송수신 장치 등을 포함하는 | + | •FC-0 : 물리 미디어 및 전송 속도를 정의하는 계층으로 커넥터, 드라이버, 송수신 장치 등을 포함하는 계층이다. |
− | •FC-1 : 데이터 전송에 있어 인코딩과 디코딩 방식을 정의하여 데이터 동기화를 담당하는 | + | •FC-1 : 데이터 전송에 있어 인코딩과 디코딩 방식을 정의하여 데이터 동기화를 담당하는 계층이다. |
− | •FC-2 : 프레이밍 및 흐름을 제어하여 토폴로지 방식을 자동으로 구성하는 | + | •FC-2 : 프레이밍 및 흐름을 제어하여 토폴로지 방식을 자동으로 구성하는 계층이다. 파이버 채널에서는 장비 |
와 장비를 직접 연결하는 Point-to-Point, 여러 장비들을 원형으로 순환하는 가상 루프 방식, 그리고 파이버 채 | 와 장비를 직접 연결하는 Point-to-Point, 여러 장비들을 원형으로 순환하는 가상 루프 방식, 그리고 파이버 채 | ||
− | 널 스위칭 장비를 활용하는 스위치 방식이 | + | 널 스위칭 장비를 활용하는 스위치 방식이 있다. |
− | •FC-3 : 노드들을 위한 일반적인 서비스를 | + | •FC-3 : 노드들을 위한 일반적인 서비스를 담당한다. 멀티캐스트나 로그인 서버, 네임 서버, 암호화 등을 위해 |
− | 해당 계층이 사용되나, 때에 따라서 사용되지 않기도 | + | 해당 계층이 사용되나, 때에 따라서 사용되지 않기도 한다. |
− | •FC-4 : 상위 프로토콜과 어떤 식으로 매핑 될지를 담당하는 | + | •FC-4 : 상위 프로토콜과 어떤 식으로 매핑 될지를 담당하는 계층이다. 지원하는 상위 계층으로는 SCSI, FICON, IP 방식 등이 있다. |
− | FICON, IP 방식 등이 | ||
파이버 채널 토폴로지 내에서 다섯 개의 프레임 레이어는 각각 그 아래 및 그 위에 있는 프레임 레이어와 함께 작동하여 서로 다른 기능을 제공한다.<ref> 최영락, 〈[http://tech.kobeta.com/wp-content/uploads/2016/10/23614.pdf 가상화와 컴퓨터 네트워크의 활용 - 5 : 네트워크 스토리지 기술 – (1)]〉, 《PDF》</ref> | 파이버 채널 토폴로지 내에서 다섯 개의 프레임 레이어는 각각 그 아래 및 그 위에 있는 프레임 레이어와 함께 작동하여 서로 다른 기능을 제공한다.<ref> 최영락, 〈[http://tech.kobeta.com/wp-content/uploads/2016/10/23614.pdf 가상화와 컴퓨터 네트워크의 활용 - 5 : 네트워크 스토리지 기술 – (1)]〉, 《PDF》</ref> | ||
===구성=== | ===구성=== | ||
− | 파이버 채널 케이블에는 말 그대로 광학 섬유가 사용되지만, 구리를 사용하는 경우도 | + | 파이버 채널 케이블에는 말 그대로 광학 섬유가 사용되지만, 구리를 사용하는 경우도 있다. 파이버 채널 케이블을 통해 장비 사이에 데이터를 주고받기 위해서는 HBA(Host Bus Adapter)라는 인터페이스 카드가 필요하다. HBA 카드가 장착된 스토리지를 파이버 채널 케이블로 파이버 채널 스위치와 연결하면 SAN 환경을 구성할 수가 있다. 추가로 NVMe(Non-Volatile Memory Express over PCI Express) 프로토콜 또한 같은 하드웨어를 사용하기 때문에 기존에 FC SAN을 구축한 기업들이 NVMe 기반 시스템을 도입하고자 할 경우 간단한 소프트웨어 업그레이드만 하면 된다. 파이버 채널의 가장 큰 특징은 파이버 채널의 데이터 전송 단위인 프레임을 여러 개 엮어 시퀀스로 전송하고, 프레임 처리가 하드웨어 레벨에서 이루어져 CPU의 오버헤드를 줄일 수 있다는 점이다. 또한 이더넷과는 달리 하드웨어 단에서 전송한 프레임의 무결성을 감지해 문제가 있으면 시퀀스를 재전송할 수 있다.<ref name="태그"></ref> |
파이버 채널 프로토콜은 세 가지 주요 토폴로지를 지원하여 스위치와 HBA와 같은 장치가 서버를 네트워크와 스토리지에 연결할 수 있도록 파이버 채널 포트를 함께 연결할 수 있도록 한다. | 파이버 채널 프로토콜은 세 가지 주요 토폴로지를 지원하여 스위치와 HBA와 같은 장치가 서버를 네트워크와 스토리지에 연결할 수 있도록 파이버 채널 포트를 함께 연결할 수 있도록 한다. |
2020년 8월 7일 (금) 08:50 판
파이버 채널(Fibre Channel)은 주로 스토리지 네트워킹에 쓰이는 기가비트 속도의 네트워크 기술이다. 파이버 채널은 미국 표준 협회인 INCITS의 T11 Technical Committe에 표준화되어 있다.
목차
개요
슈퍼컴퓨터 분야에 주로 사용되기 시작하였으나 지금은 기업용 자료 보관을 위한 SAN의 표준 연결 형태가 되어가고 있다. 파이버 채널의 파이버는 "섬유"를 뜻하지만 실제로 파이버 채널의 신호 표현은 연선 구리 케이블과 광학 섬유 케이블 두 곳에서 이용할 수 있다.[1]
파이버 채널(Fibre Channel, FC)은 기가비트 급의 전송 속도를 가진 네트워크 기술이다. 처음 나왔을 당시에는 높은 트래픽을 처리하는데 TCP/IP보다 빠르고, 스토리지 전용 네트워크로 대역폭을 확보할 수 있어 주목을 받았던 기술이다. 무엇보다 TCP/IP보다 구조가 단순해 높은 안정성을 가지고 있다. 기존의 SCSI(Small Computer System Interface) 프로토콜 기술이 응용되었으며, SAN 환경에서 iSCSI와 함께 블록 데이터를 전송할 때 가장 일반적으로 쓰인다. 파이버 채널의 전송 속도는 8Gbps, 16Gbps, 32Gbps 정도이며, 32Gbps 선을 4개 묶어서 128Gbps 속도까지 올릴 수 있다.[2]
파이버 채널은 데이터 센터, 컴퓨터 서버, 스위치 및 스토리지 간에 데이터를 최대 128Gbps의 데이터 전송 속도로 전송하는 데 주로 사용되는 고속 네트워킹 기술이다. 신뢰할 수 있고 확장성이 뛰어난 고처리 및 저지연성 프로토콜과 인터페이스에 대한 필요성을 채워 소형 컴퓨터 시스템 인터페이스(SCSI)와 고성능 병렬 인터페이스(HIPI)의 단점을 극복하기 위해 개발되었다. 파이버 채널은 특히 서버를 공유 스토리지 장치에 연결하고 스토리지 컨트롤러와 드라이브를 상호 연결하는 데 적합하다. SAN(Storage Area Network)을 위해 Fibre Channel 인터페이스가 생성됨
다중모드 광섬유를 물리적 매체로 사용할 경우 파이버 채널 장치는 최대 10km(약 6마일)의 거리를 둘 수 있다. 더 짧은 거리에는 광섬유가 필요하지 않다. 파이버 채널은 또한 동축 케이블과 일반 전화기 트위스트 페어를 사용하여 작동한다. 그러나 구리 케이블을 사용할 때는 권장 거리가 100피트를 넘지 않도록 한다.
파이버 채널은 무손실, 주문형 원시 블록 데이터를 제공하기 위해 포인트 투 포인트, 스위치 및 루프 인터페이스를 제공한다. 오늘날 파이버 채널은 SCSI보다 몇 배 더 빠르기 때문에 서버와 클러스터링된 스토리지 장치 사이의 전송 인터페이스로서 그 기술을 대체했다. 그러나 파이버 채널 네트워크는 FCP(Fibre Channel Protocol)를 사용하여 SCSI 명령과 정보 단위를 전송할 수 있다. SCSI뿐 아니라 인터넷 프로토콜(IP) 및 기타 프로토콜과 상호운용하도록 설계되었다.
파이버 채널은 이더넷 및 InfiniBand를 통한 RDMA(원격 직접 메모리 액세스)와 함께 네트워크 상에서 플래시 스토리지 성능을 향상시키기 위해 NVMe-oF(Nonvolative Memory Express over Fabrics) 사양에 따라 데이터를 전송하는 고성능 컴퓨팅 환경에서 주로 사용되는 옵션이기도 하다. 100개 이상의 회원 비영리 기술 단체인 NVM Express Inc.는 NVMe-oF를 개발하여 2016년 6월 5일 규격 1.0 버전을 발표하였다. 국제정보기술표준위원회(INCITS)의 T11 위원회는 Fibre Channel에 NVMe-oF를 적용하기 위한 프레임 형식과 매핑 프로토콜을 책정했다. 그것은 2017년 8월에 FC-NVMe 표준 배너에 따라 매핑 프로토콜의 첫 번째 버전을 확정하여 INCITS에 제출하였다.
파이버 채널의 표준은 파이버 채널 물리 및 신호 표준과 미국 국립 표준 연구소(ANSI) X3.230-1994로 지정되며, 또한 ISO(국제 표준화 기구) 14165-1이다.
파이버 채널은 하드웨어에 구현할 수 있는 전송 프로토콜의 요구를 만족하게 되고, 포괄적인 전송 시스템으로 사용할 수 있도록 수 많은 지능적인 인터페이스의 명령어 집합을 파이버 채널 상에 정밀화하는 과정에 있다.
그 결과물인 파이버 채널 아키텍처는 채널과 네트워크가 진정한 통합을 이룰 수 있게 했다. 파이버 채널은 채널 작업을 위한 단순성, 예측이 가능한 성능 및 확실한 전달 기능을 제공하고 네트워크 작업을 위한 높은 접속성, 장거리 지원 및 프로토콜의 다중 송신 기능을 제공한다.[3]
역사
파이버 채널은 1988년에 시작되었다. 1992년에 썬 마이크로시스템즈, IBM, 휴렛 패커드사가 파이버 채널 시스템즈 이니셔티브(Fibre Channel Systems Initiative)를 구축하였다. 1994년에는 ANSI 표준으로 "비슷한 역할을 수행하는 HIPPI 시스템을 단순화하기 위한 한 방법으로" 표준화가 승인되었다. HIPPI는 50페어 케이블을 사용하여 육중하였기 때문에 케이블 길이에 제한이 있었다. 파이버 채널이 대용량 스토리지 시장에서 경쟁하기 시작했을 때 주 경쟁자는 IBM사의 시리얼 스토리지 아키텍처 (SSA) 인터페이스였다. 마침내 SSA를 통해 시장이 파이버 채널을 선택하게 되었다. 파이버 채널은 속도를 빠르게 하는 것과는 반대로 주로 접속을 단순케 하고 거리를 늘리게 하는 데 주 목적이 있다. 나중에 디자이너들은 SCSI 디스크 스토리지를 연결하는 목표를 추가하면서 더 빠른 속도와 훨씬 더 많은 수의 연결 장치를 제공하게 되었다.[1]
파이버 채널 프로토콜의 개발은 1988년 지능형 주변 인터페이스(IPI) 강화 물리적 프로젝트의 일환으로 시작되었으며, 1989년에 표준 초안이 완료되었다. ANSI는 1994년에 파이버 채널을 승인했다. 기가비트 속도에 도달한 최초의 직렬 스토리지 전송인 파이버 채널의 성능은 지난 20년 동안 매 몇 년마다 꾸준히 두 배가 되었다.
역사적으로 파이버 채널 네트워킹 속도는 Gbps - 1Gbps, 2Gbps, 4Gbps, 8Gbps, 16Gbps, 32Gbps, 64Gbps, 128Gbps로 처리량 성능을 나타내었다. 명명 규칙은 FCIA(Fibre Channel Industry Association)에 의해 1GFC, 2GFC, 4GFC, 8GFC 등 기가비트 파이버 채널(Gigabit Fibre Channel)으로 변경되었다. 각 파이버 채널은 적어도 두 이전 세대와 역호환된다. 예를 들어, 8GFC는 4GFC와 2GFC와의 역호환성을 유지한다.
16GFC라고 불리는 5세대 파이버 채널과 함께 인코딩 메커니즘이 바뀌었다. 5세대(5세대)는 FCIA 로드맵에 따라 단차 처리량이 1600MBps, 양방향 처리량이 3,200MBps인 15.025Gbaud 회선 속도로 성능을 발휘한다.
6세대 파이버 채널은 Fibre Channel 링크의 안정성을 개선하고 데이터 스트림 오류를 방지하여 애플리케이션 성능 저하 또는 중단을 방지하기 위해 N_Port ID 가상화(NPIV), 에너지 효율성 향상 및 FEC(Forward Error Correction) 등의 기능을 추가했다. 32GFC와 128GFC 맛으로 나온다. 전자는 28.05 Gbaud의 회선 속도에 6,400 MBps의 처리량을 가진 단일 차선이며, 병렬 기능을 가진 후자는 112.2 Gbaud 회선 속도에 대한 4차선(28.5 Gbaud x 4)과 25,660 MBps 처리량을 가지고 있다.
FCIA 로드맵은 향후 1테라비트 파이버 채널(1TFC)까지 확장되며, 20만4800MBps에서 성능을 발휘하고 2029년에 T11 사양을 완성할 예정이다. 그 사이 6세대에는 2019년 이후 시장 가용성이 있는 싱글레인 64GFC(57.8Gbaud, 1만2800MBps)와 4레인 256GFC(4 x 57.8Gbaud, 5만1200MBps)가 포함된 세대다. 로드맵에는 또 2023년과 2026년으로 추정되는 T11 사양 완성일을 가진 128GFC와 256GFC의 발전된 버전과 512GFC(T11, 102,400MBps의 경우 2026년)의 버전도 수록돼 있다. 로드맵에는 이들 또는 1TFC 중 어느 하나에 대한 라인 요금이나 시장 가용성이 아직 명시되어 있지 않다.
특징
채널은 폐쇄되고 구조화된 환경에서 운영된다. 호스트는 자신과 채널로 통신하는 모든 장비를 인식한다. 채널에서 임의의 변경 내용이 있으면 호스트 소프트웨어를 재구성해야만 한다(예, SCSI-2, IPI-3 및 ESCON 등).
일반적으로 채널에는 오직 하나의 정보 전달 방식이 있다. 그 전송 규칙을 프로토콜이라 한다. 많은 경우에 있어 프로토콜과 물리적인 I/O는 한 쌍으로 명시된다. 즉, SCSI-3는 I/O를 전송하기 위한 오직 하나의 프로토콜을 갖는 병렬 버스를 의미한다. IPI-3 또한 하나의 프로토콜을 갖는 병렬 버스를 말하지만, 지금은 원래의 버스에 국한하지 않고 다른 I/O 인터페이스 즉, HIPPI나 파이버 채널에 사상(map) 되기도 한다.
파이버 채널의 채널 특징은 다음과 같다. · 일반적으로 호스트와 주변기기 간의 인터페이스이다. · 주종관계(Master/Slave)에 있다. · 데이터 처리부담이 적다. · 하드웨어 집약적이다. · 구성을 미리 알 수 있다. · 무장애 전달(Error Free Delivery)을 필요로 한다. · 전송지연(Transfer Delay)은 부차적이다.[3]
장점
- Fibre Channel은 스토리지와 네트워크에서 네트워크 인터페이스들의 고비용 문제에 대한 해결책을 제공한다.
- Fibre Channel은 다양한 프로토콜에 대한 인터페이스로 사용이 가능하다.
- Fibre Channel은 보증이 필요한 정보를 전달하는데 있어서 신뢰성을 보장한다.
- 현재에 기가비트급의 대역폭을 제공하며, 초당 2기가 비트의 데이터를 전달이 가능하다.
- 전용의 point-to-point, 공유된 루프, 스위치 구성 등 다양한 구성으로 사용이 가능하다.
- Fibre Channel은 SCSI, TCP/IP, 비디오 또는 가공되지 않은 데이터 모두에 대해서 높은 퍼포먼스의 데이터 전송을 보장한다.
- 단일의 point-to-point 기가비트 링크에서부터 수백개의 서버가 연결된 통합 엔터프라이즈 환경으로까지 연결이 가능하다.
- Fibre Channel의 흐름 제어는 데이터 전송에 있어서, 정체 현상이 거의 없다.
- 가격 효율성은 실제로 기술의 효율성과 상호관계가 있다. 그리고, Fibre Channel은 매우 적은 트래픽 오버헤드를 갖는다. 또한, Fibre Channel 프로토콜은 하드웨어를 매우 효율적으로 사용하도록 설계되어 있다.[4]
FCoE
파이버 채널 오버 이더넷(Fibre Channel over Ethernet, 이하 FCoE)은 기존의 파이버 채널 프레임을 캡슐화해 이더넷 네트워크상에서 데이터를 주고받는 기술을 말한다. 하나의 케이블과 인터페이스 카드로 이더넷과 파이버 채널 환경을 함께 구현할 수 있어 기존의 TCP/IP 네트워크 인프라를 유지한 상태에서 하드웨어 복잡성을 줄일 수 있다는 장점이 있다. FCoE의 도입은 2000년대 중반부터 Cisco 사의 주도로 추진되어 왔다. 하지만 대체하고자 했던 이더넷의 속도가 비약적으로 발전함과 동시에 새로운 프로토콜의 도입을 꺼리는 스토리지 회사들로 인해 현재로서는 기존 인프라를 대체하지 못하고 있는 상황이다. 또한, 이 신기술을 도입하는 고객 입장에서도 통합 네트워크 어댑터(Converged Network Adapter, CNA)라는 인터페이스 카드와 FCoE 프로토콜을 지원하는 하드웨어가 필요해 비용 및 유지보수 측면에서도 불편함이 있다.[2]
구조
점대점 (FC-P2P): 두 개의 장치가 맞대어 연결되어 있다. 제한된 연결을 가지는 가장 단순한 토폴로지이다. 중재 루프 (Arbitrated loop, FC-AL): 모든 장치는 루프나 링으로 되어 있으며 이는 토큰 링과 비슷하다. 스위치 패브릭 (Switched fabric, FC-SW): 모든 장치나 장치의 루프들이 파이버 채널 스위치에 연결되어 있고 이는 현대의 이더넷과 개념이 비슷하다.
파이버 채널은 계층화된 프로토콜이다. 모두 5가지가 있으며 다음과 같다:
FC0 : 물리 계층 FC1 : 데이터 링크 계층 FC2 : 네트워크 계층 FC3 : 공통 서비스 계층 FC4 : 프로토콜 매핑 계층 FC0, FC1, FC2는 파이버 채널의 물리 계층인 FC-PH로도 알려져 있다.
파이버 채널 라우터는 최대 FC4 수준까지 운영하며 최대 FC2까지 스위치 처리하고 FC0만 허브 처리한다. 파이버 채널 제품은 초당 1 기가비트, 2 기가비트, 4 기가비트, 8 기가비트, 10 기가비트, 20 기가비트의 속도를 지원한다.[1] 파이버 채널이 정의한 포트의 종류는 다음과 같다. 노드 포트 : N_port, NL_port, F_port, FL_port, E_port, EX_port, TE_port 일반 포트 : 자동/자동 감지 포트, Fx_port, G_port/generic port, L_port, U_port
파이버 채널은 OSI(Open Systems Interconnect) 모델과 유사하지만 다른 통신 층을 정의한다. OSI와 마찬가지로 파이버 채널은 네트워크 통신 프로세스를 관련 기능의 계층 또는 그룹으로 분할한다. OSI는 7개의 그러한 레이어를 포함하고, 파이버 채널은 5개의 레이어를 가지고 있다. IP 네트워크는 패킷을 사용하고 파이버 채널은 프레임에 의존하여 노드 간 통신을 촉진한다.
파이버 채널 프레임의 5개 레이어에는 다음이 포함된다.
•FC-0 : 물리 미디어 및 전송 속도를 정의하는 계층으로 커넥터, 드라이버, 송수신 장치 등을 포함하는 계층이다. •FC-1 : 데이터 전송에 있어 인코딩과 디코딩 방식을 정의하여 데이터 동기화를 담당하는 계층이다. •FC-2 : 프레이밍 및 흐름을 제어하여 토폴로지 방식을 자동으로 구성하는 계층이다. 파이버 채널에서는 장비 와 장비를 직접 연결하는 Point-to-Point, 여러 장비들을 원형으로 순환하는 가상 루프 방식, 그리고 파이버 채 널 스위칭 장비를 활용하는 스위치 방식이 있다. •FC-3 : 노드들을 위한 일반적인 서비스를 담당한다. 멀티캐스트나 로그인 서버, 네임 서버, 암호화 등을 위해 해당 계층이 사용되나, 때에 따라서 사용되지 않기도 한다. •FC-4 : 상위 프로토콜과 어떤 식으로 매핑 될지를 담당하는 계층이다. 지원하는 상위 계층으로는 SCSI, FICON, IP 방식 등이 있다. 파이버 채널 토폴로지 내에서 다섯 개의 프레임 레이어는 각각 그 아래 및 그 위에 있는 프레임 레이어와 함께 작동하여 서로 다른 기능을 제공한다.[5]
구성
파이버 채널 케이블에는 말 그대로 광학 섬유가 사용되지만, 구리를 사용하는 경우도 있다. 파이버 채널 케이블을 통해 장비 사이에 데이터를 주고받기 위해서는 HBA(Host Bus Adapter)라는 인터페이스 카드가 필요하다. HBA 카드가 장착된 스토리지를 파이버 채널 케이블로 파이버 채널 스위치와 연결하면 SAN 환경을 구성할 수가 있다. 추가로 NVMe(Non-Volatile Memory Express over PCI Express) 프로토콜 또한 같은 하드웨어를 사용하기 때문에 기존에 FC SAN을 구축한 기업들이 NVMe 기반 시스템을 도입하고자 할 경우 간단한 소프트웨어 업그레이드만 하면 된다. 파이버 채널의 가장 큰 특징은 파이버 채널의 데이터 전송 단위인 프레임을 여러 개 엮어 시퀀스로 전송하고, 프레임 처리가 하드웨어 레벨에서 이루어져 CPU의 오버헤드를 줄일 수 있다는 점이다. 또한 이더넷과는 달리 하드웨어 단에서 전송한 프레임의 무결성을 감지해 문제가 있으면 시퀀스를 재전송할 수 있다.[2]
파이버 채널 프로토콜은 세 가지 주요 토폴로지를 지원하여 스위치와 HBA와 같은 장치가 서버를 네트워크와 스토리지에 연결할 수 있도록 파이버 채널 포트를 함께 연결할 수 있도록 한다.
- 포인트 투 포인트 : 가장 단순하고 가장 제한된 파이버 채널 토폴로지는 호스트 서버를 DAS(Direct Attached Storage)에 연결하는 것과 같이 두 장치(포트)를 직접 연결한다.
- 중재 루프 : 기기는 원형으로 고리처럼 연결되어 있다. 링의 각 노드 또는 장치는 다음 노드 등으로 데이터를 전송한다. 대역폭은 모든 장치에서 공유되며, 하나의 장치 또는 포트에 장애가 발생하면 여러 장치를 연결하고 장애가 발생할 때 포트를 바이패스하기 위해 파이버 채널 허브를 사용하지 않는 한 모든 장치가 중단될 수 있다. 중재 루프에 있을 수 있는 장치의 최대 수는 127개지만, 실제적인 이유 때문에 그 수는 훨씬 더 적게 제한된다.
- 교환 원단 : 이 토폴로지의 모든 장치는 스위치를 통해 연결하고 통신하는데, 이 스위치는 Fabric 최단 경로 우선(FSPF) 라우팅 프로토콜을 사용하여 데이터 경로를 최적화하고 여러 쌍의 포트가 동시에 상호 연결되도록 한다. 포트는 직접 연결되지 않고 스위치를 통해 흐른다. 즉, 한 포트가 고장 났을 때 다른 포트의 운영은 영향을 받지 않아야 한다는 것을 의미한다. 패브릭의 모든 노드는 동시에 작동할 수 있어 효율성이 향상되는 반면 기기 간 경로 중복은 가용성을 높인다. 네트워크를 다운시키지 않고 패브릭에 스위치를 추가할 수 있다.
간단하게 요약하자면
- 직접 연결(Point-to-Point) : 호스트와 호스트가 1대1로 연결되는 구성이다.
- 중지루프 연결(FC-AL) : 원형 루프에 각 호스트가 연결되어 통신하는 형태이다.
- 패브릭 연결(Fibre Channel Fabric/Switch) : 패브릭/스위치에 각 호스트가 연결되어 있는 형태이다.
관련 장비
스위치. Fibre Channel 스위치는 Fibre Channel 패브릭에서 고가용성, 짧은 지연 시간, 고성능 및 무손실 데이터 전송을 가능하게 한다. 그것은 의도된 목적지에 보낼 데이터 패킷의 출발지와 목적지를 결정한다. SAN에서 사용되는 주요 구성 요소로서 파이버 채널 스위치는 수천 개의 스토리지 포트와 서버를 상호 연결할 수 있다. 파이버 채널 디렉터급 스위치의 기능에는 원하지 않는 트래픽과 암호화를 차단하는 조닝이 포함된다.
호스트 버스 어댑터(HBA) 파이버 채널 HBA는 서버를 스토리지 또는 네트워크 장치에 연결하는 카드다. HBA는 데이터 스토리지 작업의 서버 처리를 오프로드하고 서버 성능을 향상시킨다. 파이버 채널과 이더넷 네트워크가 융합되기 시작하자, HBA 벤더는 파이버 채널 HBA의 기능을 이더넷 네트워크 인터페이스 카드(NIC)와 결합한 CNA(Converged Network Adapter)를 개발했다.
포트. 파이버 채널 스위치와 HBA는 포트를 통해 서로 및 서버에 연결되며, 이는 물리적 또는 가상일 수 있다. Fibre Channel 패브릭 노드의 데이터는 다양한 논리적 구성으로 제공되는 포트를 통해 전송 및 수신된다. 파이버 채널 스위치는 한 섀시에 10개 미만의 포트에서 수백 개의 포트까지 포함할 수 있다.
파이버 채널과 iSCSI SAN 비교
레이어 2 스위칭 기술로서 하드웨어는 파이버 채널 패브릭에서 전체 프로토콜을 처리한다. 반면 인터넷 SCSI(iSCSI)는 이더넷을 통해 실행되는 레이어 3 스위칭 기술이다. 여기서 소프트웨어, 하드웨어 또는 소프트웨어와 하드웨어 모두 프로토콜을 제어할 수 있다. 이더넷 기반 iSCSI는 TCP/IP 네트워크를 통해 SCSI 패킷을 전송한다. iSCSI는 평범한 이더넷을 사용하기 때문에 비용이 많이 들고 종종 복잡한 어댑터와 네트워크 카드를 구입하지 않아도 된다. 이것은 iSCSI를 더 저렴하고 배치하기 쉽게 만든다.
미션 크리티컬 워크로드를 위한 대용량 SAN을 갖춘 데이터 센터의 대다수는 iSCSI보다 파이버 채널 네트워킹을 선호한다. 이는 대부분 파이버 채널이 데이터 패킷을 삭제하지 않고 가장 까다로운 워크로드도 안정적으로 처리할 수 있는 검증된 기업이기 때문이다.
Fibre Channel SAN을 올바르게 시작하고 실행하려면 전문 설치 및 구성 기술이 필요하다. IT 직원은 공통 스위치와 이더넷 NIC를 사용하여 기존 네트워크에서 iSCSI SAN을 구현할 수 있다. 즉, iSCSI를 사용하면 구축 및 관리할 네트워크는 하나뿐이고 파이버 채널은 스토리지를 위한 파이버 채널 SAN과 기타 모든 것을 위한 이더넷 네트워크라는 두 개의 네트워크를 필요로 한다.
오늘날의 모든 주요 스토리지 벤더는 파이버 채널 메인스테이와 더불어 iSCSI SAN 어레이를 제공하고 있으며, 일부는 iSCSI와 파이버 채널이 모두 포함된 유니파이드 멀티프로토콜 스토리지 플랫폼을 판매한다.[6]
iSCSI 표준은 IP 네트워크를 통해 SCSI 데이터 스트림을 전송하는 기능을 제시하고 있다. 이 표준의 설계 목표는 기존의 IP 네트워크 아키텍처를 이용하여 FC 기반 SAN에 대한 대안을 제시하는 것이며, 이 표준에 따르면 iSCSI는 IP 네트워크를 통해 SCSI를 실행시킨다.
보다 정확하게 말하면 FC 네트워크 위에 SCSI를 프로토콜 형태로 실행하는 것과 기존 이더넷 네트워크 위에 SCSI 프로토콜을 실행하는 것의 차이라고 할 수 있다. 이것이 현재의 IT 조직들을 위해 보다 유익한 비교가 될 것이며, iSCSI 표준에 따르면 FC 네트워크 아키텍처 위에 IP 를 두고 그 위에 다시 SCSI를 실행한다고 보는 것이 타당하다. 이더넷과 FC를 직접 비교하고자 할 경우에는 FC로 인해 얻을 수 있는 네트워크 진보와 이더넷 아키텍처가 이를 따라잡기 위해 어떠한 노력을 기울이고 있는지를 이해할 필요가 있다. 이 두 네트워크 아키텍처 사이의 주된 차이점은 다음과 같다.
1. 데이터 전송: FC에서 극소의 데이터 전송 유닛이 프레임인데, 그 크기는 2,112 바이트 정도이다. 하지만 표준에서는 하드웨어 설정을 통해 최대 65,536개의 프레임을 단일 시퀀스로 결합시킬 수 있다. 한 개 시퀀스 당 한 개의 CPU 인터럽트가 생성된다는 사실로 인해 이 시퀀스는 네트워크 내에서 하나의 패킷에 해당하게 된다. 즉, 효율적인 FC 패킷 크기는 128Mbyte이며, 최대 1,518바이트 크기의 패킷을 가지고 있는 이더넷은 각각 하나의 CPU 인터럽트를 생성한다. 따라서 대용량 데이터 이동 시 수 많은 패킷을 전송할 때 이에 따라 프로세서의 오버헤드도 높아진다. 이더넷 프레임 크기를 8K로 높인다 해도 FC의 효율성에는 미치지 못한다.
2. 에러 감지와 복구: FC에서 에러 감지와 복구 절차는 펌웨어나 하드웨어에서 하위 레벨 프로토콜의 기능이다. 이를 통해 에러 감지에 대한 응답과 재전송 절차를 빠르게 하여 전송 오버헤드를 최소한으로 유지할 수 있다. 링크레벨 에러 감지와 복구를 통해 수신된 송신 신호의 품질을 보장할 수 있으며, 시퀀스 레벨 에러 감지와 복구를 통해 송수신된 각각의 데이터 블록의 무결성을 확보할 수 있다. 하나의 시퀀스 내에 있는 각각의 프레임을 통해 하드웨어 지원 하에 추적 및 확인이 가능하며, 시퀀스 재전송 지원을 통해 프레임 에러를 신속하게 복구할 수 있다. 이더넷에서는 에러 감지와 복구가 TCP 같은 소프트웨어 기반의 상위 프로토콜에 의존하기 때문에 오버헤드 증가와 응답 지연을 통해 효율을 크게 저하시킨다.
3. 플로우 제어: FC는 링크 레벨과 엔드-투-엔드 레벨 등 2개 레벨의 신용 기반 플로우 제어 메커니즘을 가지고 있다. 이 두 레벨은 모두 소스 포트 신용 관리를 기준으로 한 신용 시스템을 사용하고, 정보 흐름은 로그인 과정에서 송신자가 신용 한계를 감지할 것을 요청한다. 이 자체 조절 절차를 통해 수신자 버퍼 초과를 예방하고 더 나아가 폭주로 인해 패브릭 내에서 프레임이 유실되는 것을 방지할 수 있다. 이더넷에서는 정지 기반의 플로우 제어 메커니즘을 사용하는데, 이는 X-ON/X-OFF 형태의 플로우 제어와 유사하다. 이와 같은 형태의 플로우 제어는 저속 네트워크에 적합하지만, 에러가 발생한 뒤에 감지가 가능하기 때문에 스토리지와 SAN 애플리케이션에는 적합하지 않다. 이더넷 플로우 제어는 재전송을 요구하는 폭주와 데이터 손실이 발생한 뒤에 비로소 시작된다.
4. 요청·응답 결합: 양방향 교환 개념에 입각하여 FC에서는 I/O 트랜잭션의 요청과 응답들을 긴밀하게 결합하고 하드웨어 내에서 이들을 추적할 수 있게 한다. 이 결합 기능은 SCSI 기반의 스토리지 애플리케이션에서 오버헤드를 낮게 유지함은 물론 요청을 순서대로 전송하며 다수의 요청들을 체인으로 연결하여 데이터 효율을 높이기 위해 매우 중요하다. 이더넷에서는 교환개념이나 전송 순서가 없기 때문에 요청-응답 결합, 추적 등은 TCP같은 상위 레벨 프로토콜에서 소프트웨어적으로 수행해야만 한다. 이로 인해 데이터 전송 효율이 저하되고 호스트 프로세서 사이클이 추가로 필요하게 되는 것이다.
5. 분할과 재조립(SAR): FC는 대형 데이터 블록을 하드웨어 지원 하에 분할, 재조립하는 기능을 제공한다. 이를 통해 수신된 데이터를 가능한 한 빠르게 착신지 사용자 버퍼에 직접 저장할 수 있다. 시퀀스 내에 있는 프레임들은 애플리케이션별로 다양한 길이를 가질 수 있고, 스토리지와 SAN 애플리케이션 내에서 이러한 기능을 통해 다수의 내부 복사를 방지할 수 있어 오버헤드를 줄이고 효율성을 크게 높일 수 있다. 이더넷은 분할과 재조립 프로세스를 위해 상위 레이어 프로토콜을 사용하는데, 이 과정에서 여러 개의 내부 데이터 복사와 이로 인한 프로세서 오버헤드 증가를 초래한다.
여기서 기억해 두어야 할 중요한 사항은 FC는 대규모 블록, 고속, 저지연 스토리지 트래픽을 엔드 투 엔드로 전송하기 위한 새로운 개념의 네트워크 통신을 지원할 목적으로 개발되었다는 것이다. FC 네트워크 내 각각의 구성요소는 이를 달성하기 위해서 책임과 부하를 분배하고, FC 네트워크는 스토리지 형태의 통신 지원을 위해 적절한 균형을 유지하고 있다. iSCSI/이더넷의 경우를 살펴보면, 새로운 네트워크 서버 및 스토리지와 새로운 네트워크 스위칭 인프라를 필요로 하지 않는 아키텍처를 구축할 경우 새로 구축되는 iSCSI 네트워크에서는 FC와 유사한 수준의 균형 잡힌 아키텍처를 확보하지 못할 경우가 발생한다.[7]
파이버 채널, 이더넷, ATM 비교
파이버 채널, 이더넷, ATM 비교 파이버 채널 기가비트 이더넷 ATM 기술 애플리케이션 스토리지, 네트워크, 비디오, 클러스터 네트워크 네트워크, 비디오, SWAN 토폴로지 포인트-투-포인트, 루프, 허브, 스위치 포인트-투-포인트, 허브, 스위치 스위치 Baud rate 1Gbps, 2Gbps 1Gbps 622bps 최대 데이터 전송률의 확장성 4Gbps 10Gbps 2.43Gbps 전송 보증 O X X 혼잡 데이터 손실 X O O 프레임 크기 변경 가능 (0~2kb) 변경 가능 (0~1.5kb) 고정 크기 (53b) 물리 매체 구리 - 제한 거리가 짧지만, 제한 거리 이내에서는 손실율이 거의 없음.* 파이버 - 긴 거리 (175Km) 지원 가능 지원 프로토콜 네트워크, SCSI, 비디오 네트워크, SCSI 네트워크, 보이스, 비디오
각주
- ↑ 1.0 1.1 1.2 파이버 채널 위키백과 - https://ko.wikipedia.org/wiki/%ED%8C%8C%EC%9D%B4%EB%B2%84_%EC%B1%84%EB%84%90
- ↑ 2.0 2.1 2.2 박주형, 〈스토리지 기초 지식 2편: 스토리지 프로토콜〉, 《태그지》, 2019-12-17
- ↑ 3.0 3.1 김주철, 〈(SAN에서의 네트워킹①) SAN과 파이버 채널 네트워킹〉, 《데이트넷》, 2002-04-11
- ↑ shan1020, 〈5회: Fibre Channel〉, 《네이버 블로그》, 2004-02-18
- ↑ 최영락, 〈가상화와 컴퓨터 네트워크의 활용 - 5 : 네트워크 스토리지 기술 – (1)〉, 《PDF》
- ↑ Margaret Rouse, 〈Fibre Channel〉, 《테크타깃》, 2018-08
- ↑ 배종완, 〈파이버 채널과 iSCSI SAN의 기술 비교〉, 《한국데이터산업진흥원》
- ↑ Chanhyun Park (해리팍), 〈(스토리지) SAN, NAS 스터디 2. 파이버 채널 구조〉, 《티스토리》, 2017-06-19
참고자료
- Chanhyun Park (해리팍), 〈(스토리지) SAN, NAS 스터디 2. 파이버 채널 구조〉, 《티스토리》, 2017-06-19
같이 보기