Hình thu nhỏ Napatech

IPU giảm chi phí điện toán trong khối lượng công việc lưu trữ

Napatech tích hợp IPU F2070X dựa trên Intel® IPU với phần mềm Link-Storage* để giảm tải NVMe qua khối lượng công việc TCP, giảm chi phí điện toán.

Tóm tắt

  • Các trung tâm dữ liệu doanh nghiệp và đám mây đang ngày càng áp dụng công nghệ lưu trữ NVMe/TCP vì các lợi thế về hiệu năng, độ trễ, khả năng mở rộng, quản lý và sử dụng tài nguyên của nó. Tuy nhiên, việc triển khai khối lượng công việc khởi tạo lưu trữ cần thiết trên CPU chủ của máy chủ sẽ làm phát sinh chi phí điện toán đáng kể và hạn chế số lượng lõi CPU khả dụng để chạy các dịch vụ và ứng dụng.

  • Giải pháp phần cứng cộng với phần mềm tích hợp của Napatech, bao gồm ngăn xếp phần mềm Link-Storage chạy trên IPU F2070X, giải quyết vấn đề này bằng cách giảm tải khối lượng công việc lưu trữ từ CPU chủ sang IPU trong khi vẫn duy trì khả năng tương thích phần mềm đầy đủ ở cấp ứng dụng.

  • Giải pháp giảm tải lưu trữ của Napatech giải phóng lõi CPU máy chủ mà các chức năng lưu trữ sẽ tiêu thụ. Nó hoạt động tốt hơn đáng kể so với triển khai dựa trên phần mềm, giảm CAPEX, OPEX và mức tiêu thụ năng lượng của trung tâm dữ liệu. Nó cũng đưa tính năng cách ly an ninh vào hệ thống, tăng cường khả năng bảo vệ trước các cuộc tấn công mạng.

author-image

Bởi

logo nvm expressBản tóm tắt giải pháp này giải thích cách giải pháp phần cứng và phần mềm tích hợp của Napatech giảm tải khối lượng công việc lưu trữ NVMe/TCP từ CPU chủ sang IPU, giảm đáng kể CAPEX, OPEX và mức tiêu thụ năng lượng. Nó cũng đưa tính năng cách ly an ninh vào hệ thống, tăng cường khả năng bảo vệ trước các cuộc tấn công mạng.

NVMe qua TCP là gì?

NVMe/TCP là công nghệ lưu trữ cho phép truy cập các thiết bị lưu trữ Non-Volatile Memory Express (NVMe) qua mạng bằng cách sử dụng kết cấu trung tâm dữ liệu tiêu chuẩn. Xem Hình 1.

Các trung tâm dữ liệu doanh nghiệp và đám mây hiện đại đang ngày càng áp dụng NVME/TCP do những lợi thế hấp dẫn mà nó mang lại so với các giao thức lưu trữ cũ hơn như Kênh sợi quang Giao diện hệ thống máy tính nhỏ trên Internet (iSCSI):

Hình 1. Cấu trúc lưu trữ phân tán

 

  • Hiệu suất cao hơn: NVMe được thiết kế để tận dụng tối đa các ổ đĩa thể rắn (SSD) dựa trên NAND tốc độ cao hiện đại và cung cấp tốc độ truyền dữ liệu nhanh hơn đáng kể so với các giao thức lưu trữ truyền thống. NVMe/TCP mở rộng những lợi ích này sang môi trường lưu trữ được nối mạng, cho phép các trung tâm dữ liệu đạt được quyền truy cập lưu trữ hiệu năng cao trên kết cấu.

  • Giảm độ trễ: Bản chất độ trễ thấp của NVMe/TCP rất quan trọng đối với các ứng dụng sử dụng nhiều dữ liệu và khối lượng công việc theo thời gian thực. NVMe/TCP có thể giúp giảm độ trễ truy cập bộ lưu trữ và cải thiện hiệu năng ứng dụng tổng thể bằng cách giảm thiểu chi phí liên lạc và loại bỏ nhu cầu chuyển đổi giao thức.

  • Khả năng mở rộng: Các trung tâm dữ liệu thường xử lý việc triển khai lưu trữ trên quy mô lớn và NVMe/TCP cho phép mở rộng liền mạch bằng cách cung cấp giải pháp truy cập lưu trữ linh hoạt và hiệu quả qua mạng. Khi số lượng thiết bị NVMe tăng lên, các trung tâm dữ liệu có thể duy trì mức hiệu năng cao mà không gặp trở ngại đáng kể.

  • Nhóm lưu trữ dùng chung: NVMe/TCP cho phép tạo các nhóm lưu trữ dùng chung có thể truy cập đồng thời trên nhiều máy chủ và ứng dụng. Cấu trúc lưu trữ chia sẻ này cải thiện việc sử dụng tài nguyên và đơn giản hóa việc quản lý lưu trữ, tiết kiệm đáng kể chi phí.

  • Khả năng tương thích cơ sở hạ tầng kế thừa: Các trung tâm dữ liệu thường có cơ sở hạ tầng hiện có được xây dựng trên mạng Ethernet, InfiniBand hoặc Kênh sợi quang. NVMe/TCP cho phép họ tận dụng khoản đầu tư cơ sở hiện tại của mình đồng thời tích hợp công nghệ lưu trữ dựa trên NVMe mới hơn mà không cần đại tu toàn bộ cơ sở hạ tầng mạng.

  • Sử dụng tài nguyên hiệu quả: NVMe/TCP cho phép sử dụng tài nguyên tốt hơn bằng cách giảm nhu cầu về tài nguyên lưu trữ chuyên dụng trên mỗi máy chủ. Nhiều máy chủ có thể truy cập các thiết bị lưu trữ NVMe được chia sẻ qua mạng, tối ưu hóa việc sử dụng tài nguyên lưu trữ NVMe đắt tiền.

  • Kiểm chứng tương lai: Khi các trung tâm dữ liệu phát triển và áp dụng các công nghệ lưu trữ nhanh hơn, NVMe/TCP cung cấp một cách tiếp cận hướng tới tương lai để truy cập vào bộ lưu trữ, đảm bảo rằng mạng lưu trữ có thể đáp ứng nhu cầu ngày càng tăng của các ứng dụng và khối lượng công việc hiện đại.

Nhìn chung, NVMe/TCP cung cấp giải pháp lưu trữ mạnh mẽ và linh hoạt cho các trung tâm dữ liệu, mang lại hiệu năng cao, độ trễ thấp và sử dụng tài nguyên hiệu quả trong môi trường lưu trữ dùng chung và có thể mở rộng.

Hạn chế của Cấu trúc lưu trữ chỉ dành cho phần mềm

Bất chấp những lợi ích hấp dẫn của NVMe/TCP đối với việc lưu trữ, các nhà khai thác trung tâm dữ liệu phải nhận thức được những hạn chế đáng kể liên quan đến việc triển khai trong đó tất cả các dịch vụ khởi tạo lưu trữ bắt buộc đều chạy trong phần mềm trên CPU máy chủ lưu trữ. Xem Hình 2.

lưu trữ mạng
Hình 2. Lưu trữ mạng dựa trên phần mềm

 

Đầu tiên, rủi ro bảo mật cấp hệ thống sẽ xuất hiện nếu phần mềm ảo hóa lưu trữ, phần mềm giám sát máy ảo hoặc bộ chuyển mạch ảo (vSwitch) bị xâm phạm trong cuộc tấn công mạng.

Thứ hai, không có cách nào để đảm bảo sự tách biệt hoàn toàn giữa khối lượng công việc của người thuê. Cấu trúc duy nhất lưu trữ nhiều ứng dụng và dữ liệu của khách hàng trong môi trường nhiều người thuê. Hiệu ứng “hàng xóm ồn ào” xảy ra khi một ứng dụng hoặc máy ảo (VM) sử dụng hầu hết các tài nguyên sẵn có và làm giảm hiệu năng hệ thống của những người thuê khác trên cơ sở hạ tầng dùng chung.

Cuối cùng, cần có một phần đáng kể lõi CPU chủ để chạy các dịch vụ cơ sở hạ tầng như phần mềm ảo hóa lưu trữ, phần mềm giám sát máy ảo và vSwitch. Điều này làm giảm số lượng lõi CPU có thể kiếm tiền từ máy ảo, bộ chứa và ứng dụng. Các báo cáo chỉ ra rằng từ 30% đến 50% tài nguyên CPU của trung tâm dữ liệu thường được sử dụng cho các dịch vụ cơ sở hạ tầng.

Trong hệ thống con lưu trữ hiệu năng cao, CPU chủ có thể được yêu cầu chạy một số giao thức như Giao thức điều khiển truyền (TCP), Truy cập bộ nhớ trực tiếp từ xa qua Ethernet hội tụ (RoCEv2), InfiniBand và Kênh sợi quang. Khi CPU chủ được sử dụng nhiều để chạy các giao thức lưu trữ này và các dịch vụ cơ sở hạ tầng khác, số lượng lõi CPU có sẵn cho các ứng dụng của người thuê sẽ giảm đáng kể. Ví dụ: CPU 16 lõi chỉ có thể mang lại hiệu năng của CPU 10 lõi.

Vì những lý do này và nhiều lý do khác nữa, cấu trúc chỉ dành cho phần mềm đặt ra những thách thức đáng kể về kinh doanh và kỹ thuật cho việc lưu trữ trung tâm dữ liệu.

Giải pháp giảm tải lưu trữ dựa trên IPU

Việc giảm tải khối lượng công việc NVMe/TCP sang IPU, bên cạnh các dịch vụ cơ sở hạ tầng khác như phần mềm giám sát máy ảo và vSwitch (xem Hình 3), giải quyết các hạn chế của việc triển khai chỉ bằng phần mềm và mang lại lợi ích đáng kể cho người vận hành trung tâm dữ liệu:

 

  • Sử dụng CPU: Giao tiếp NVMe/TCP liên quan đến việc đóng gói các lệnh và dữ liệu NVMe trong giao thức truyền tải TCP. CPU chủ xử lý các tác vụ đóng gói và giải đóng gói này mà không cần giảm tải. Việc giảm tải các hoạt động này sang phần cứng chuyên dụng cho phép CPU tập trung vào các tác vụ quan trọng khác, cải thiện hiệu năng hệ thống tổng thể và mức sử dụng CPU.

  • Độ trễ thấp hơn: Việc tải các tác vụ giao tiếp NVMe/TCP sang phần cứng chuyên dụng có thể giảm đáng kể độ trễ khi xử lý các lệnh lưu trữ. Nhờ đó, các ứng dụng có thể có thời gian phản hồi nhanh hơn và hiệu năng tốt hơn khi truy cập các thiết bị lưu trữ NVMe từ xa.

  • Di chuyển dữ liệu hiệu quả: Việc giảm tải các tác vụ ứng dụng không dùng CPU sang các bộ gia tốc phần cứng riêng biệt cho phép các hoạt động di chuyển dữ liệu được thực hiện hiệu quả hơn so với việc sử dụng CPU có mục đích chung. Nó có thể xử lý việc truyền dữ liệu lớn và quản lý bộ đệm một cách hiệu quả, giảm độ trễ và cải thiện thông lượng tổng thể.

  • Cải thiện khả năng mở rộng: Việc giảm tải các tác vụ NVMe/TCP giúp cải thiện khả năng mở rộng khi triển khai bộ lưu trữ trên quy mô lớn. Bằng cách giúp CPU không phải xử lý giao tiếp mạng, hệ thống có thể hỗ trợ nhiều kết nối và thiết bị lưu trữ đồng thời hơn mà không bị ràng buộc bởi CPU.

  • Hiệu quả sử dụng năng lượng: Bằng cách chuyển tải một số tác vụ nhất định sang phần cứng chuyên dụng, mức tiêu thụ năng lượng trên CPU chủ có thể giảm xuống. Hiệu quả sử dụng năng lượng này có thể đặc biệt quan trọng trong môi trường trung tâm dữ liệu lớn, nơi mức tiêu thụ năng lượng là vấn đề đáng được cân nhắc.

lưu trữ phân tách ipu
Hình 3. Lưu trữ phân tách hỗ trợ IPU

 

Ngoài các lợi ích nêu trên áp dụng cho khối lượng công việc lưu trữ NVMe/TCP, cấu trúc hệ thống dựa trên IPU còn cung cấp các tùy chọn cách ly bảo mật gia tăng, nhờ đó các dịch vụ cơ sở hạ tầng được cách ly khỏi các ứng dụng của người thuê. Điều này đảm bảo rằng các dịch vụ lưu trữ, bộ ảo hóa và vSwitch không thể bị xâm phạm bởi cuộc tấn công mạng do ứng dụng của người thuê phát động. Bản thân các dịch vụ cơ sở hạ tầng được bảo mật do quá trình khởi động của IPU được bảo mật, trong khi IPU sau đó đóng vai trò là gốc tin cậy cho máy chủ lưu trữ.

Giải pháp phần cứng cộng với phần mềm tích hợp của Napatech

Napatech cung cấp giải pháp tích hợp cấp hệ thống để giảm tải lưu trữ ở trung tâm dữ liệu, bao gồm ngăn xếp phần mềm Link-Storage hiệu năng cao chạy trên IPU F2070X. Xem Hình 4.

Hình 4. Giảm tải lưu trữ của Napatech chạy trên IPU F2070X

 

Phần mềm Link-Storage kết hợp một bộ chức năng phong phú, bao gồm:

 

  • Giảm tải toàn bộ khối lượng công việc NVMe/TCP từ máy chủ sang IPU;

  • Giảm tải toàn bộ khối lượng công việc TCP từ máy chủ sang IPU;

  • Trình khởi tạo NVMe sang TCP;

  • Cấu hình lưu trữ qua giao diện Cuộc gọi thủ tục từ xa của Bộ phát triển hiệu năng lưu trữ (SPDK RPC);

  • Hỗ trợ NVMe đa đường;

  • Trình bày 16 thiết bị khối cho máy chủ thông qua giao diện virtio-blk;

  • Khả năng tương thích với trình điều khiển virtio-blk tiêu chuẩn trong các bản phân phối Linux* phổ biến;

  • Cách ly bảo mật giữa CPU chủ và IPU, không có giao diện mạng nào tiếp xúc với máy chủ.

Ngoài Link-Storage, F2070X còn hỗ trợ phần mềm Link-Virtualization, cung cấp mặt phẳng dữ liệu ảo hóa được giảm tải và tăng tốc, bao gồm các chức năng như Open vSwitch (OVS), di chuyển trực tiếp, phản chiếu VM-to-VM, VLAN/VxLAN đóng gói/giải đóng gói, Q-in-Q, cân bằng tải chia tỷ lệ bên nhận (RSS), tổng hợp liên kết và Chất lượng dịch vụ (QoS).

Vì F2070X dựa trên FPGA và CPU chứ không phải ASIC nên chức năng hoàn chỉnh của nền tảng có thể được cập nhật sau khi triển khai. Cho dù sửa đổi dịch vụ hiện có, thêm chức năng mới hay tinh chỉnh các tham số hiệu năng cụ thể, việc lập trình lại này có thể được thực hiện hoàn toàn dưới dạng nâng cấp phần mềm trong môi trường máy chủ hiện tại mà không cần ngắt kết nối, xóa hoặc thay thế bất kỳ phần cứng nào.

IPU Napatech F2070X

IPU Napatech F2070X, dựa trên Nền tảng Intel® IPU F2000X-PL, là thẻ PCIe 2x100G với FPGA Intel Agilex® 7 dòng F và bộ xử lý Intel® Xeon® D ở chiều cao đầy đủ, một nửa chiều dài (FHHL), hệ số hình dạng khe kép.

Cấu hình tiêu chuẩn của IPU F2070X bao gồm FPGA Intel Agilex® 7 AGF023 với bốn dãy bộ nhớ DDR4 4 GB và Bộ xử lý Intel® Xeon® D-1736 2,3 GHz với hai dãy bộ nhớ DDR4 8 GB. Các tùy chọn cấu hình khác có thể được cung cấp để hỗ trợ khối lượng công việc cụ thể.

IPU F2070X kết nối với máy chủ thông qua giao diện PCIe 4.0 x16 (16 GTps), với giao diện PCIe 4.0 x16 (16 GTps) bổ sung giữa FPGA và bộ xử lý.

Hai giao diện mạng QSFP28/56 ở mặt trước hỗ trợ cấu hình mạng của:

 

  • 2x 100G;
  • 8x 10 G hoặc 8x 25G (sử dụng cáp đột phá).

Cổng PTP RJ45 chuyên dụng cung cấp khả năng đồng bộ hóa thời gian tùy chọn với đầu nối SMA-F bên ngoài và MCX-F bên trong. Hỗ trợ ghi thời gian IEEE 1588v2.

Đầu nối Ethernet RJ45 chuyên dụng cung cấp khả năng quản lý bo mạch. Cập nhật hình ảnh FPGA an toàn cho phép bổ sung các chức năng mới hoặc cập nhật các tính năng hiện có sau khi IPU được triển khai.

Bộ xử lý chạy Fedora Linux, với UEFI BIOS, hỗ trợ khởi động PXE, truy cập shell đầy đủ thông qua SSH và UART.

Bộ điều hợp Intel IPU F2000X
Bộ điều hợp Intel® IPU Platform F2000X-PL