THIẾT KẾ CẤU HÌNH VÀ CUNG CẤP SERVER

WOA THIẾT KẾ, CUNG CẤP VÀ CÀI ĐẶT SERVER, HỆ THỐNG SERVERS THEO YÊU CẦU

Senior Systems Consultant
IT Server Operations
Server Solutions Architect

MÁY CHỦ RIÊNG NGÀY CÀNG LÀ LỰA CHỌN CỦA NHIỀU DOANH NGHIỆP,CÁ NHÂN

Lưu trữ web được chia sẻ đang mất dần đi nhanh chóng vì nhiều công ty lưu trữ bán quá mức máy chủ của họ và xếp hàng nghìn khách hàng vào cùng một máy chủ web. Kết quả là làm giảm độ hiệu quả, tin cậy của máy chủ và chất lượng các dịch vụ.

Để thay thế cho lưu trữ web được chia sẻ (shared web hosting), Máy chủ riêng ảo (Virtual Private ServersVPS) hiện là lựa chọn lưu trữ web phổ biến cho nhiều doanh nghiệp và cá nhân. Hiệu suất và chức năng của VPS tăng lên nhanh chóng bổ sung nhiều giá trị cho dự án doanh nghiệp, cá nhân.

Nhưng bạn chưa biết nên deal/ lựa chọn hay xây dựng cấu hình VPS, SERVER nào phù hợp, hiệu quả cả về chi phí cho doanh nghiệp mình?

Dịch vụ lưu trữ và máy chủ

  • Lắng nghe, khảo sát, xem xét, đánh giá và Tham vấn
  • Lập kế hoạch và Thiết lập
  • Cấu hình & Tùy chỉnh
  • Cài đặt phần mềm ứng dụng
  • Di chuyển dữ liệu
  • Thiết lập Email
  • Quản lý tên miền
  • Quản trị Server

SERVER

STOGARE

THIẾT BỊ MẠNG

LINH KIỆN

THIẾT BỊ LÀM PHIM

Server – Máy chủ: Là một hệ thống máy tính được thiết kế để đáp ứng được thời gian hoạt động lâu dài và có khả năng chịu tải cao trước các yêu cầu truy xuất, cập nhật dữ liệu liên tục từ các máy tính khác nhau trên mạng. Các thành phần / component bên trong máy chủ thường là các phần cứng có độ tin cậy và hiệu suất cao hơn so với linh kiện của các máy tính PC phổ thông.

ác thành phần chính của máy chủ như bo mạch chủ – mainboard, CPU, RAM, storage (HDD, SSD) đều được thiết kế với các giao tiếp có tốc độ cao, có khả năng chống lỗi, chịu tải cao. Tất nhiên, bạn vẫn có thể dùng một máy tính PC thông thường và nâng cấp phần cứng để biến nó thành một máy chủ với chi phí rẻ hơn, nhưng khả năng đáp ứng truy cập và hiệu năng làm việc của nó không thể đạt được như một máy chủ chuyên dùng đã được thử nghiệm thực tế trong dây chuyền sản xuất của các hãng sản xuất máy chủ.

Bo mạch chính – Mainboard

Nếu như các mainboard của máy PC thông dụng chạy trên các dòng chipset cho PC hoặc mobile thì các mainboard máy chủ sử dụng các chipset chuyên dùng như C200 Series, C600 Series,… với khả năng hỗ trợ các giao tiếp tốc độ cao như RAM ECC, HDD SCSI – SAS, PCI Express, RAID, hay hỗ trợ gắn nhiều CPU, multi-core CPU,…

Bộ nhớ RAM

Là bộ nhớ truy xuất ngẫu nhiên, phục vụ trực tiếp cho các CPU trong quá trình xử lý. RAM máy chủ hiện nay có các loại DDR3, DDR4 có tốc độ bus từ 1333Mhz đến 2133Mhz thường kèm theo các tính năng như ECC (Error Corection Code) giúp máy không bị treo khi có bất kỳ 1 bit nào bị lỗi trong khi xử lý. Ngoài ra, RAM cho các mainboard thế hệ mới có thể hỗ trợ dạng Registered Memory (R-DIMM) giúp giảm tải cho các memory controller, thường được đòi hỏi trong các hệ thống phục vụ ảo hóa.

Thành phần lưu trữ: ổ cứng HDD, ổ cứng SSD

Ổ lưu trữ cho máy chủ hiện nay hoạt động trên hai loại giao tiếp chính là SATA (max 6Gb/s) và SAS (max 12Gb/s). Và được chia làm hai loại, HDD và SSD.

Ổ cứng HDD dành cho máy chủ có tốc độ vòng quay lớn (10.000RPM) hay một số ổ SAS mới còn vòng quay lên tới 15.000 RPM giúp tăng tốc tối đa tốc độ đọc/ghi dữ liệu.

Ổ cứng solid-state – SSD – là dạng lưu trữ trên bộ nhớ flash có chỉ số IOPS (chỉ số đo tốc độ đọc/ghi) rất cao nếu so với ổ cứng HDD cơ học, đặc biệt đối với các hoạt động đọc/ghi ngẫu nhiên. Ngoài ra, ổ SSD cũng cho tuổi thọ cao hơn nhiều do không có các thành phần cơ học.

Mạch điều khiển RAID (RAID Controller, RAID Card)

Đây là thành phần quan trọng trong một máy chủ hiện đại, mạch điều khiển này sẽ kết hợp các ổ cứng thành một thể thống nhất với những cơ chế sao lưu, chống lỗi giúp dữ liệu của bạn luôn được an toàn khi có các trục trặc vật lý xảy ra. Tùy theo loại card mà có khả năng hỗ trợ các mức RAID khác nhau. Thông thường RAID 1 và RAID 5 là 2 mức phổ biến trong hầu hết các máy chủ. Một số mainboard máy chủ có thể tích hợp chip điều khiển này nên bạn có thể không cần trang bị thêm.

Bộ cấp nguồn máy chủ (Power Supply Unit – PSU)

Bộ cấp nguồn đảm bảo nguồn điện đủ công suất cho các thành phần bên trong máy chủ hoạt động. Chính vì thế các dòng máy chủ chuyên dụng thường kèm theo những bộ nguồn công suất thực rất cao, có khả năng thay thế hay dự phòng khi bộ nguồn chính bị lỗi.

Những ứng dụng, dịch vụ thường được chạy trên máy chủ

Theo chức năng của máy chủ người ta phân ra các loại máy chủ: Web server, Database server, FTP server, SMTP server (email sever), DNS sever, DHCP server,… hoặc các nền tảng phục vụ ảo hóa (hypervisor) được cài lên máy chủ để quản lý các cụm ảo hóa (public cloud, private cloud), máy chủ ảo (VM), hay máy chủ chuyên dụng cho lưu trữ (software-defined storage),…

Theo phương pháp tạo ra máy chủ người ta phân thành hai loại:

  • Máy chủ vật lý – bare-metal server, là máy chủ chạy trực tiếp trên nền phần cứng và các thành phần hỗ trợ riêng biệt gồm: HDD, CPU, RAM, card mạng,…
  • Máy chủ ảo là dạng máy chủ được tạo ra bên trong các nền tảng ảo hóa (hypervisor). Chẳng hạn như VMWare vSphere, Microsoft Hyper-V, KVM,…

Các hãng sản xuất máy chủ nổi bật hiện nay có: Supermicro, Dell EMC, HP Enterprise – HPE, IBM Lenovo, Fujitsu,…

Bare-metal Server – Máy chủ bare-metal: Là một máy chủ vật lý chỉ bao gồm phần cứng và dành riêng cho một khách hàng. Thuật ngữ này ngày nay thường được đề cập đến để phân biệt nó với các dạng máy chủ ảo hóa trên nền tảng đám mây hiện đại.

Bare-metal server đơn giản chỉ là một máy chủ dedicated truyền thống, được đặt thêm tên mới do sự xuất hiện của xu hướng điện toán đám mây với các máy chủ ảo hóa…

Mỗi máy chủ logic được cấp cho một người dùng, khách hàng và họ toàn quyền khai thác phần cứng vật lý riêng biệt dành riêng cho họ. Nó không phải là các máy ảo chạy trên phần cứng được chia sẻ chung. Người dùng có thể truy cập trực tiếp và không hạn chế vào máy chủ của họ và có thể truy cập phần cứng chi tiết ở cấp component so với các máy ảo, nơi mà việc truy cập vào máy chủ vật lý chỉ được thực hiện thông qua hypervisor.

Ceph: Là “hệ thống lưu trữ hợp nhất, phân tán, được thiết kế nhắm đến hiệu năng, độ tin cậy và khả năng mở rộng tuyệt vời” (nguồn: ceph.com). Nó là một dự án phần mềm mã nguồn mở để xây dựng hệ thống lưu trữ mở rộng đáp ứng tất cả các yêu cầu trên cho cả nhu cầu lưu trữ block và object storage, chuyên dụng cho OpenStack cloud platform. Ceph được tích hợp khả năng tự phục hồi và có thể chịu được các lỗi phần cứng bên dưới; Dung lượng lưu trữ có thể được bổ sung bất cứ khi nào cần đến.

Cloud bursting là một mô hình triển khai ứng dụng trong đó một ứng dụng chạy trong private cloud hoặc trung tâm dữ liệu và “bùng lên” một public cloud khi nhu cầu về năng lực tính toán gia tăng đột biến. Ưu điểm của việc triển khai hệ thống cloud kết hợp như vậy là một tổ chức chỉ phải trả tiền cho các tài nguyên tính toán thêm khi cần thiết.

Các chuyên gia khuyến nghị sử dụng cloud bursting cho các ứng dụng cần hiệu năng cao, các ứng dụng không trọng yếu xử lý thông tin ít nhạy cảm. Một ứng dụng có thể được triển khai cục bộ và sau đó đẩy lên đám mây để đáp ứng tại thời điểm nhu cầu cao nhất hoặc ứng dụng có thể được chuyển sang public cloud để giải phóng tài nguyên cục bộ cho các ứng dụng quan trọng trong kinh doanh. Cloud bursting hoạt động tốt nhất cho các ứng dụng không phải phụ thuộc vào cơ sở hạ tầng phân phối ứng dụng phức tạp hoặc tích hợp với các ứng dụng, thành phần và hệ thống khác bên trong trung tâm dữ liệu.

Khi xem xét giải pháp cloud bursting, một tổ chức phải tính đến các yêu cầu tuân thủ quy định và bảo mật. Ví dụ, cloud bursting thường được nhắc đến là một lựa chọn khả thi cho các nhà bán lẻ khi họ thường phải trải qua các giai đoạn đỉnh điểm về nhu cầu trong mùa mua sắm trong năm. Tuy nhiên, các nhà cung cấp dịch vụ điện toán đám mây không nhất thiết phải cung cấp môi trường tuân thủ PCI DSS và các nhà bán lẻ có thể gây nguy hiểm cho dữ liệu nhạy cảm bằng cách đưa dữ liệu đó lên public cloud.

Các vấn đề khác liên quan đến cloud bursting phát sinh như việc không tương thích giữa các môi trường khác nhau và hạn chế về tính sẵn sàng của các công cụ quản lý. Các nhà cung cấp dịch vụ điện toán đám mây và nhà cung cấp ảo hóa đã phát triển các công cụ để gửi các workload lên đám mây và quản lý các môi trường hybrid/kết hợp, nhưng họ thường yêu cầu tất cả các môi trường phải dựa trên cùng một nền tảng.

cuBLAS – CUDA Basic Linear Algebra Subroutines: Là thư viện được GPU tăng tốc của các phép toán phương trình đại số tuyến tính cơ bản. Sử dụng cuBLAS API, bạn có thể tăng tốc ứng dụng của bạn bằng cách triển khai các hoạt động tính toán cường độ cao vào một GPU hoặc scale-up và phân tải ra môi trường multi-GPU một cách hiệu quả.

CUDA là một nền tảng điện toán song song (parallel computing) và giao diện lập trình ứng dụng (API) được tạo bởi NVidia. Nó cho phép các nhà phát triển phần mềm và kỹ sư phần mềm khai thác các bộ xử lý đồ họa (GPU) hỗ trợ CUDA để thực hiện các xử lý mang tính tổng quát – một cách tiếp cận được gọi là GPGPU (General Purpose GPU). Nền tảng CUDA là một lớp phần mềm cho phép truy cập trực tiếp vào tập lệnh ảo của GPU và các thành phần xử lý song song, để thực thi các nhân xử lý (compute kernel).

cuDF: Là một thư viện thao tác DataFrame dựa trên Apache Arrow giúp tăng tốc độ tải, lọc và thao tác dữ liệu để chuẩn bị dữ liệu đào tạo mô hình. Các thư viện liên kết Python thao tác CUDA DataFrame được tăng tốc từ lõi ánh xạ qua Pandas interface giúp cho việc đưa thêm người dùng Pandas vào hệ thống một cách trơn tru.

cuDNN – NVidia CUDA® Deep Neural Network: Là một thư viện nền tảng cho các deep neural network được tăng tốc bởi GPU. cuDNN cung cấp các thiết lập được tinh chỉnh cho các thủ tục được chuẩn hóa như forward and backward convolutionpoolingnormalization và các lớp kích hoạt. cuDNN là một phần của Deep Learning SDK do NVidia cung cấp.

cuFFT – NVIDIA CUDA Fast Fourier Transform: Là một thư viện cơ sở dựa trên các thuật toán Cooley-Tukey và Bluestein nổi tiếng. Nó được sử dụng để xây dựng các ứng dụng thương mại và học thuật trên các lĩnh vực như vật lý tính toán, động lực phân tử, hóa lượng tử, hình ảnh địa chấn và y tế. Với sự hỗ trợ cho các phép biến đổi theo lô và số học chính xác được tối ưu hóa, nó được sử dụng rộng rãi để xây dựng các ứng dụng hình ảnh dựa trên học tập sâu.

cuGRAPH: Là một tập hợp các thư viện phân tích đồ họa được tích hợp hoàn chỉnh vào nền tảng khoa học dữ liệu RAPIDS (RAPIDS data science platform).

cuML: Là một tập hợp các thư viện học máy được tăng tốc bởi GPU cung cấp các phiên bản GPU cho tất cả các thuật toán học máy có sẵn trong scikit-learn, bộ công cụ chuyên về machine learning trên Python.

CUTLASS – CUDA Templates for Linear Algebra Subroutines: Là một tập hợp các template và lớp abstract của CUDA trên C++ để thực hiện các phép tính GEMM hiệu năng cao ở tất cả các cấp và quy mô bên trong CUDA kernel. Không giống như các thư viện GPU dạng template cho đại số tuyến tính mật độ cao khác (ví dụ, thư viện MAGMA), mục đích của CUTLASS là phân tích “các phần chuyển động” của GEMM thành các thành phần cơ bản được trừu tượng hóa bởi các template class trong C++, cho phép các lập trình viên dễ dàng tùy chỉnh và chuyên dụng hóa chúng trong CUDA kernel. CUTLASS là thư viện mã nguồn mở và được NVidia phát hành trên GitHub như một bản giới thiệu ban đầu về các kỹ thuật GEMM CUDA, được dự định sẽ phát triển thành một thư viện API mẫu.

Deep Learning – Học tập sâu: Là một tập hợp các thuật toán được sử dụng để mô hình hóa dữ liệu với tính trừu tượng hóa ở mức cao, thông qua việc sử dụng các kiến trúc mô hình hóa, bao gồm nhiều phép biến đổi phi tuyến tính. Nó là một phần trong một loạt các phương pháp được sử dụng trong lĩnh vực machine learning trong đó dựa trên các phương thức học tập dữ liệu.

Direct-attached Storage (DAS) – Thiết bị lưu trữ trực tiếp: Là thiết bị lưu trữ được gắn liền với máy tính truy cập nó mà không thông qua hệ thống mạng nào. Ví dụ về DAS bao gồm ổ đĩa cứng, ổ đĩa thể rắn – SSD, ổ đĩa quang và các thiết bị lưu trữ gắn ngoài. Thuật ngữ “DAS” được viết tắt để phân biệt một cách đối lập với các hệ thống Storage Area Network (SAN) và Network-attached Storage (NAS), là các hệ thống lưu trữ được truy cập thông qua mạng.

Field-programmable Gate Array (FPGA) – Mảng phần tử logic có thể tái lập trình: Là một vi mạch tích hợp được thiết kế để có thể tái cấu hình bởi một khách hàng hoặc một đơn vị thiết kế sau khi nó đã được sản xuất – chính vì vậy nó được gọi là “programmable – có thể lập trình được”. Các FPGA chứa một mảng các khối logic có thể lập trình được và một hệ thống phân cấp kết nối có thể cấu hình lại cho phép các khối được “nối với nhau”, các cổng logic có thể liên kết với nhau theo các thiết lập tùy ý của nhà thiết kế ứng dụng.


Việc tái cấu hình FPGA được thực hiện thông qua ngôn ngữ mô tả phần cứng (hardware description language – HDL). Một FPGA có thể được lập trình lại để thực hiện các chức năng logic khác nhau, cho phép tạo ra các khối xử lý linh hoạt theo yêu cầu như được thực hiện trong phần mềm máy tính.

FPGA được ứng dụng trong rất nhiều lĩnh vực đòi hỏi xử lý hiệu suất cao, bao gồm phân tích xử lý hình ảnh, data mining, sản xuất thiết bị chuyên dụng trong các lĩnh vực nghiên cứu khoa học, y tế, tài chính, không gian, các thiết bị truyền dẫn và data center,… Các nhà sản xuất FPGA nổi bật có Altera (được Intel mua lại vào năm 2015), Xilinx, Microsemi, Lattice Semi,…

FreeNAS: Là một phần mềm mã nguồn mở (open source) giúp tạo ra hệ thống lưu trữ NAS (network-attached storage) hoàn toàn miễn phí dựa trên FreeBSD và OpenZFS file system. Nó được cho phép sử dụng dưới các điều khoản của BSD License và chạy trên phần cứng x86-64 thương mại. FreeNAS hỗ trợ các Windows client, OS X và Unix và nhiều máy chủ ảo hóa khác như XenServer và VMware sử dụng CIFS, AFP, NFS, iSCSI, SSH, rsync và các giao thức TFTP/FTP. Tính năng nâng cao của FreeNAS bao gồm mã hóa toàn bộ ổ ​​đĩa và một kiến trúc plug-in cho các nhà cung cấp third-party.

Graphic Processing Unit (GPU) – Bộ xử lý đồ họa: Là bộ xử lý chuyên dụng nhận nhiệm vụ tăng tốc, xử lý các phép toán đồ họa thay cho bộ xử lý trung tâm CPU. GPU được thiết kế với số lượng nhân xử nhiều hơn hẳn CPU, cho phép xử lý song song cùng lúc nhiều phép toán đồ họa hơn. Qua đó, tăng tốc độ xử lý đáng kể trên mỗi xung nhịp hệ thống.

High Performance Computing (HPC) – Điện toán hiệu năng cao: Là việc sử dụng kiến trúc xử lý song song để chạy các chương trình ứng dụng nâng cao một cách hiệu quả, đáng tin cậy và nhanh chóng. Thuật ngữ này đặc biệt áp dụng cho các hệ thống hoạt động trên teraflop hoặc 1012 phép toán dấu phẩy động mỗi giây. Thuật ngữ HPC đôi khi được sử dụng như một từ đồng nghĩa cho siêu máy tính, mặc dù về mặt kỹ thuật, siêu máy tính là một hệ thống hoạt động ở mức hoặc gần tốc độ hoạt động cao nhất hiện nay cho máy tính. Một số siêu máy tính hoạt động ở tốc độ nhiều hơn petaflop hoặc 1015 điểm hoạt động mỗi giây.

Người dùng phổ biến nhất của các hệ thống HPC là các nhà nghiên cứu khoa học, kỹ sư và tổ chức học thuật. Một số cơ quan chính phủ, đặc biệt là quân đội, cũng dựa vào HPC cho các ứng dụng phức tạp. Các hệ thống hiệu suất cao thường sử dụng các component được sản xuất đặc thù, bên cạnh các component phổ thông khác . Khi nhu cầu về sức mạnh xử lý và tốc độ tăng lên, HPC có thể sẽ nhận được sự quan tâm từ các doanh nghiệp thuộc mọi quy mô, đặc biệt là trong lĩnh vực xử lý giao dịch và datawarehouse. Một người yêu thích công nghệ nào đó cũng có thể sử dụng hệ thống HPC để đáp ứng các mong muốn đặc biệt với công nghệ tiên tiến nhất.

Hyper-converged Infrastructure (HCI) – Cơ sở hạ tầng siêu hội tụ: Là một cơ sở hạ tầng CNTT được định nghĩa bằng phần mềm, ảo hóa tất cả các thành phần “được định nghĩa bằng phần cứng” của các hệ thống thông thường. HCI bao gồm, ở mức tối thiểu, máy tính ảo hóa (hypervisor), một hệ thống SAN ảo hóa (software-defined storage) và network ảo hóa (software-defined network). HCI thường được chạy trên các máy chủ thương mại.

Hypervisor – Phần mềm giám sát máy ảo: Là một chương trình phần mềm quản lý một hoặc nhiều máy ảo (VM). Nó được sử dụng để tạo, startup, dừng và reset lại các máy ảo. Các hypervisor cho phép mỗi VM hoặc “guest” truy cập vào lớp tài nguyên phần cứng vật lý bên dưới, chẳng hạn như CPU, RAM và lưu trữ. Nó cũng có thể giới hạn số lượng tài nguyên hệ thống mà mỗi máy ảo có thể sử dụng để đảm bảo cho nhiều máy ảo cùng sử dụng đồng thời trên một hệ thống.

Có hai loại hypervisor chính: Native và Hosted.

Loại-1: Native

Một hypervisor ở dạng native (hay còn gọi “bare-metal”) chạy trực tiếp trên phần cứng. Nó nằm giữa phần cứng và một hoặc nhiều hệ điều hành khách (guest operating system). Nó được khởi động trước cả hệ điều hành và tương tác trực tiếp với kernel. Điều này mang lại hiệu suất cao nhất có thể vì không có hệ điều hành chính nào cạnh tranh tài nguyên máy tính với nó. Tuy nhiên, nó cũng đồng nghĩa với việc hệ thống chỉ có thể được sử dụng để chạy các máy ảo vì hypervisor luôn phải chạy ngầm bên dưới. Các hypervisor dạng native này có thể kể đến như VMware ESXi, Microsoft Hyper-V và Apple Boot Camp.

Loại-2: Hosted

Một hypervisor dạng hosted được cài đặt trên một máy tính chủ (host computer), mà trong đó có một hệ điều hành đã được cài đặt. Nó chạy như một ứng dụng cũng như các phần mềm khác trên máy tính. Hầu hết các hypervisor dạng hosted có thể quản lý và chạy nhiều máy ảo cùng một lúc. Lợi thế của một hypervisor dạng hosted là nó có thể được bật lên hoặc thoát ra khi cần thiết, giải phóng tài nguyên cho máy chủ. Tuy nhiên, vì chạy bên trên một hệ điều hành, nó có thể đem lại hiệu suất tương tự như một hypervisor ở dạng native. Ví dụ về các hypervisor dạng hosted bao gồm VMware Workstation, Oracle VirtualBox và Parallels Desktop for Mac.

Nói chung, các hypervisor dạng hosted phổ biến cho việc sử dụng cá nhân và doanh nghiệp nhỏ, trong khi các hypervisor dạng native được sử dụng cho các ứng dụng doanh nghiệp và điện toán đám mây – cloud computing.

ImageNet là một cơ sở dữ liệu hình ảnh quy mô lớn được thiết kế để sử dụng trong nghiên cứu phần mềm nhận dạng đối tượng trực quan. Trên 14 triệu URL của hình ảnh đã được gán nhãn bằng tay bởi ImageNet để chỉ ra đối tượng nào có trong những bức hình. ImageNet chứa hơn 20 nghìn danh mục, một danh mục điển hình, chẳng hạn như “quả bóng” hoặc “dâu tây”, chứa hàng trăm hình ảnh. Cơ sở dữ liệu nhãn hình ảnh của URL từ bên thứ ba cũng có sẵn miễn phí từ ImageNet; tuy nhiên, các hình ảnh thực tế không thuộc sở hữu của ImageNet. Từ năm 2010, dự án ImageNet thực hiện một cuộc thi phần mềm hàng năm, Thử thách nhận diện trực quan quy mô lớn của ImageNet (ImageNet Large Scale Visual Recognition Challenge – ILSVRC), nơi các phần mềm cạnh tranh để phân loại và phát hiện các đối tượng và cảnh vật một cách chính xác. ILSVRC sử dụng danh sách đã được “cắt xén” của một nghìn phân lớp không chồng chéo lên nhau.

Internet Small Computer Systems Interface (iSCSI) – Chuẩn giao tiếp máy tính qua Internet: Là chuẩn giao tiếp hoạt động trên giao thức TCP và cho phép các lệnh SCSI được gửi end-to-end qua mạng cục bộ (LAN), mạng diện rộng (WAN) ) hoặc Internet. IBM đã phát triển và đưa ra iSCSI như một bản mẫu vào năm 1998, và trình bày bản dự thảo đầu tiên của chuẩn iSCSI cho IETF ( Internet Engineering Task Force) vào năm 2000. Giao thức đã được phê chuẩn vào năm 2003.

iSCSI hoạt động như thế nào?

iSCSI hoạt động bằng cách vận chuyển dữ liệu ở mức block-level giữa nơi gửi (iSCSI initiator) trên một máy chủ và một đích đến (iSCSI target) trên một thiết bị lưu trữ. Giao thức iSCSI đóng gói các lệnh SCSI và lắp ráp dữ liệu trong các gói cho lớp TCP/IP. Các gói được gửi qua mạng bằng kết nối point-to-point. Khi đến nơi, giao thức iSCSI ngắt kết nối các gói, tách các lệnh SCSI sao cho hệ điều hành (OS) sẽ thấy ổ lưu trữ như một thiết bị SCSI tại chỗ có thể được format như bình thường.

Ngày nay, iSCSI phổ biến trong các hệ thống Storage Area Network (SAN), nó cung cấp một kênh truyền dẫn tốc độ cao các giữa các thiết bị lưu trữ trong mạng. iSCSI có khả năng tương tự như kênh Fibre Channel, với ưu điểm là ít tốn chi phí hơn so với các thiết bị truyền dẫn quang và có thể hoạt động trên mạng IP có sẵn.

Input/Output per Second (IOPS) – Hiệu năng đọc ghi ổ cứng: Là đơn vị đo lường được sử dụng cho các thiết bị lưu trữ như HDD, SSD hoặc SAN – cho biết số lượng tác vụ Write hoặc Read được hoàn thành trong 1 giây. Thông số IOPS được công bố bởi các nhà sản xuất thiết bị, và không liên quan đến các ứng dụng đo lường hiệu năng.

Thông số IOPS càng cao thì tốc độ xử lý sẽ càng nhanh, số tác vụ được xử lý đồng thời cũng sẽ nhiều hơn. Và tất nhiên dẫn đến hiệu năng xử lý của các ứng dụng càng cao. Nhưng cũng có trường hợp khi IOPS quá cao, đến giới hạn vật lý sẽ gây ra tình trạng thắt cổ chai (IOPS quá cao –> latency cao –> làm giảm throughput).

Đối với IOPS, thứ quan trọng nhất ta cần chú ý đến là tỉ lệ Read và Write (thông thường tỉ lệ này 70% (Read) và 30%(Write) – có thể tuỳ chỉnh được). Ví dụ dưới đây sẽ cho bạn thấy tỉ lệ này khác nhau như thế nào.

Cách tính IOPS và số lượng ổ cứng

* Giả sử hệ thống lưu trữ của bạn sử dụng ổ SAS 15k

Dung lượng mỗi ổ là 900Gb.
Tỉ lệ Read/Write tương ứng: 7:3
Cấu hình RAID 10
IOPS per Disk là 176

* Yêu cầu đặt ra là IOPS thực phải trên 1000

Lúc này, hệ thống của bạn chỉ cần 8 cứng là đủ, số IOPS của hệ thống lúc này là 1200.

RAID LevelCapacityIOPS
RAID 103,215 GB1200
RAID 64,822 GB624
RAID 55,626 GB821

Còn nếu chúng ta muốn tỉ lệ Read/Write là 3:7 thì sao? Cùng các điều kiện như trên, với 8 ổ HDD thì số IOPS chỉ là 918, nếu 9 ổ thì IOPS sẽ là 1032, còn 11 ổ thì sẽ là 1262.

Chúng ta cũng có thể thấy là khi cấu hình các RAID level khác nhau, IOPS và capacity thay đổi đáng kể: IOPS cao thì capacity sẽ bị giảm xuống, và ngược lại. Lý do là vì từng RAID level có sự khác biệt về số lượng ổ cứng tối thiểu (Raid Penalty). Vì thế, để setup 1 hệ thống sát với nhu cầu, Sys Admin cần phải xác định rõ ưu tiên hệ thống của mình là gì: Ứng dụng chạy nhanh? Mức độ bảo mật? dung lượng lưu trữ?

Các công thức tính trong bài

Tổng IOPS = IOPS per Disk * Số ổ cứng
IOPS thực = (Tổng IOPS * Write%)/(Raid Penalty) + (Tổng IOPS * Read %)
Số ổ cứng = ((Read IOPS) + (Write IOPS*Raid Penalty))/ IOPS per Disk

ernel-Based Virtual Machine (KVM) – Máy ảo dựa trên kernel: Là một nền tảng ảo hóa được tạo riêng cho hệ điều hành Linux và được thiết kế để chạy trên các kiến trúc vi xử lý x86. KVM được phát triển bởi Red Hat Corporation để cung cấp một giải pháp và tạo ra các dịch vụ ảo hóa chạy trên nền tảng hệ điều hành Linux.

KVM chính là một loại hypervisor cho phép mô phỏng và tạo ra các máy ảo chạy trên hệ điều hành. Những máy ảo này được xây dựng bên trên Linux kernel, sử dụng các hệ điều hành như Linux, Ubuntu và Fedora. KVM có thể được cài đặt trên tất cả các bộ vi xử lý x86 và cung cấp các phần mở rộng tập lệnh riêng biệt cho các bộ xử lý Intel và AMD.

KVM hỗ trợ image của nhiều hệ điều hành khách khác nhau, bao gồm Linux Kernel, Windows, BSD và Solaris. Nó cũng phân bổ các tài nguyên máy tính ảo hóa riêng biệt cho mỗi máy ảo như bộ vi xử lý, bộ nhớ, lưu trữ, v.v…

Machine Learning – Học máy: Là một lĩnh vực của trí tuệ nhân tạo sử dụng các kỹ thuật thống kê để cung cấp cho hệ thống máy tính khả năng “học tập” (cải thiện dần hiệu suất trên một tác vụ cụ thể) từ dữ liệu mà không được lập trình trước. Học máy cho phép máy tính xử lý các tình huống mới thông qua phân tích, tự rèn luyện, quan sát và trải nghiệm.

Học máy tạo điều kiện cho sự cải tiến liên tục của máy tính thông qua việc tiếp xúc với các tình huống mới, thử nghiệm và thích nghi, trong khi sử dụng các mẫu hình và nhận diện xu hướng cho các quyết định mà sau đó được cải thiện trong các tình huống tiếp theo (mặc dù chúng không giống nhau).

Multi-tenant – Hệ thống đa khách hàng: Trong lĩnh vực phần mềm, multi-tenant là một kiến trúc phần mềm mà ở đó một hệ thống phần mềm cung cấp dịch vụ chia sẻ cho nhiều khách hàng hoặc nhóm khách hàng khác nhau. Mỗi khách hàng là một người dùng, có thể được phép customize lại một số thành phần như giao diện người dùng (UI), quy tắc vận hành, nhưng không thể customize lại source code của phần mềm.

NCCL – NVIDIA Collective Communications Library: Thư viện NVIDIA Collective Communication (NCCL) triển khai các giao tiếp multi-GPU và multi-cloud được tối ưu hóa cho GPU NVIDIA. NCCL cung cấp các routines như all-gather, all-reduce, scatter, reduce, broadcast, được tối ưu hóa để đạt băng thông cao qua kết nối tốc độ cao PCIe và NVLink.

Network-attached Storage (NAS) – Thiết bị lưu trữ kết nối mạng: Là một máy chủ hay thiết bị lưu trữ dữ liệu ở mức file-level, được kết nối với một mạng máy tính cung cấp khả năng truy cập dữ liệu cho một hoặc nhiều nhóm khách hàng khác nhau. Thiết bị lưu trữ NAS phục vụ các file thông qua phần cứng, phần mềm hoặc cấu hình của nó. Thông thường nó được sản xuất ở dạng một thiết bị máy tính (appliance) – một loại máy tính chuyên dụng. Các hệ thống NAS này là thiết bị được kết nối mạng, có chứa một hoặc nhiều ổ lưu trữ, và thường được sắp xếp thành các container lưu trữ logic, redundant hoặc RAID. Thiết bị NAS giúp giảm bớt gánh nặng phục vụ file trên mạng từ một máy chủ dành riêng. Nó thường cấp quyền truy cập vào các file bằng cách sử dụng các giao thức chia sẻ file trên mạng như NFS, SMB hoặc AFP.

NVLink là một giao tiếp cự ly gần, đa làn với băng thông cao được phát triển bởi Nvidia. Không giống như PCI Express, một thiết bị có thể chứa nhiều kết nối NVLink và chúng sử dụng kết nối mạng dạng lưới (mesh network) để liên lạc thay vì cơ chế hub trung tâm. Giao thức được công bố lần đầu tiên vào tháng 3 năm 2014 và sử dụng kết nối High-Speed Signaling (NVHS) độc quyền.

NVLink là một giao thức truyền dẫn được sử dụng để truyền dữ liệu và mã điều khiển trong các hệ thống xử lý giữa CPU và GPU, và/hoặc chỉ giữa các GPU với nhau. NVLink chỉ định kết nối point-to-point với tốc độ dữ liệu là 20Gbps và 25Gbps (v1.0 / v2.0) trên mỗi cặp riêng biệt. Tám cặp riêng biệt tạo thành một “sub-link” và hai “sub-link” khác, một liên kết cho mỗi hướng, tạo thành một “link” chính. Tổng tốc độ dữ liệu cho một sub-link là 25GB/s và tổng tốc độ dữ liệu cho một link là 50 GB/s. Mỗi GPU V100 hỗ trợ tối đa sáu liên kết. Do đó, mỗi GPU có khả năng hỗ trợ lên tới 300GB/s trong tổng băng thông hai chiều. Các sản phẩm NVLink được giới thiệu cho đến nay tập trung chủ yếu vào các ứng dụng hệ thống hiệu năng cao.

Ngoài cầu nối NVLink (NVLink Bridge), hiện tại nhiều hãng máy chủ đã cho ra mắt máy chủ với thiết kế SXM2 socket, cho phép cắm trực tiếp các module GPU dạng SXM2 giúp đạt hiệu quả trao đổi dữ liệu cao nhất của chuẩn NVLink, đồng thời tiết kiệm năng lượng và không gian cho hệ thống.

Non-Volatile Memory Express (NVMe) – Bộ nhớ không biến đổi tốc độ cao: Là một giao diện mạch chủ điều khiển (host controller) chuẩn hiệu năng cao dành cho các ổ cứng SSD có giao tiếp PCIe, cho phép cắm-và-chạy các ổ cứng SSD PCIe trên tất cả các nền tảng.

Các ưu điểm của ổ cứng NVMe

Độ trễ thấp: Khi một bộ điều khiển AHCI thực thi một lệnh, một tác vụ đọc không lưu tạm thời (uncacheable) trên thanh ghi bộ nhớ (register) sẽ dùng mất 2.000 chu kỳ xử lý (cycle) của CPU và có 4 tác vụ đọc không thể lưu vào bộ nhớ đệm trên mỗi lệnh. Điều này đồng nghĩa với 8.000 chu kỳ xử lý của CPU, hoặc khoảng 2,5 millisecond độ trễ mỗi lệnh. NVMe sẽ không bị chậm như vậy vì nó trực tiếp liên lạc với CPU, do đó, bỏ qua tất cả các liên lạc không cần thiết vốn gây chậm trễ.

Chỉ số IOPS cao: Độ trễ thấp không phải là lợi thế duy nhất NVMe mang lại, vì giao tiếp này còn cung cấp chỉ số xuất nhập trên giây IOPS (Input/Output Operations Per Second) cao. NVMe có khả năng hỗ trợ lên đến 64K hàng đợi I/O queue xử lý các lệnh xuất nhập, với mỗi hàng đợi I/O hỗ trợ lên đến 64K lệnh, tận dụng đầy đủ khả năng đọc và ghi dữ liệu song song của công nghệ chip nhớ Flash NAND. Trong khi đó AHCI chỉ hỗ trợ duy nhất một hàng đợi I/O với tối đa 32 lệnh một hàng đợi, dẫn đến mức hiệu suất thấp hơn nhiều so với NVMe.

OpenACC: Là một mô hình lập trình song song hiệu năng cao, user-driven, directive-based, được thiết kế cho các nhà khoa học và kỹ sư quan tâm đến việc chuyển mã của họ sang nhiều nền tảng phần cứng HPC không đồng nhất và kiến trúc với nỗ lực lập trình ít hơn đáng kể so với yêu cầu, với mô hình cấp thấp.

Operational Technology – Công nghệ vận hành (OT): Là một danh mục phần cứng và phần mềm dùng để theo dõi và kiểm soát cách thức các thiết bị vật lý hoạt động.

Trước đây, OT được sử dụng chủ yếu trong các hệ thống điều khiển công nghiệp cho sản xuất, vận chuyển và tiện ích – và không giống như công nghệ thông tin (IT), công nghệ kiểm soát hoạt động trong các lĩnh vực đó không được kết nối mạng. Nhiều công cụ để theo dõi hoặc điều chỉnh các thiết bị vật lý là dạng cơ học và những công cụ có điều khiển kỹ thuật số được sử dụng các giao thức độc quyền, khép kín.

Tuy nhiên, ngày nay, khi các thiết bị vật lý đang ngày càng trở nên “thông minh” hơn, xu hướng hội tụ IT / OT ngày càng tăng. Các kết nối không dây đã cung cấp cho các quản trị viên phụ trách công nghệ vận hành với các hệ thống giám sát tốt hơn và khả năng điều khiển các thiết bị vật lý từ xa. Những tiến bộ trong giao tiếp giữa máy với máy (M2M) và học máy (machine learning) đã tạo ra một sự thay đổi rộng lớn, cho phép dữ liệu mà các thiết bị vật lý tạo ra được phân tích theo thời gian thực để tạo điều kiện cho khả năng tự vận hành, cho phép chức năng phòng ngừa trước và cải thiện tính sẵn sàng của dịch vụ (up-time).

Các công nghệ có khả năng kết nối Internet đã chuyển sang các hệ thống điều khiển công nghiệp và các mạng điều khiển giám sát và thu thập dữ liệu (Supervisory Control And Data Acquisitions – SCADA). Tuy nhiên, OT phải đối mặt với cùng một loạt các vấn đề như với IT, đó là phần mềm độc hại, quản lý nhận dạng và kiểm soát bảo mật cho việc truy cập. Sự khác biệt là các lỗ hổng trong hệ thống OT có thể khiến cơ sở hạ tầng quan trọng có nguy cơ bị phá hoại, có thể dẫn đến các tình huống sống còn nếu không được giải quyết.

Optane Memory: Là một loại bộ nhớ mới, một vùng lưu trữ hiệu suất cao cho dữ liệu và meta data mà thường hay truy xuất nhất. Nó nằm giữa bộ nhớ hệ thống (RAM) và các ổ cứng lưu trữ chính, có các đặc điểm gần giống với bộ nhớ DRAM về mặc hiệu năng truy xuất ngẫu nhiên nhưng dữ liệu không bị mất sau khi hệ thống được reboot.

Có thể xem Optane Memory là một loại cache, giúp tăng tốc độ đọc/ghi một cách đáng kể. Trong các ứng dụng trên data center, những đặc điểm này thực sự có thể tăng tốc website, các ứng dụng hoặc database cần khả năng đáp ứng truy xuất cùng lúc số lượng lớn.

PC over IP (PCoIP) – PC qua IP: Là một giao thức hiển thị từ xa mà Teradici đã phát triển để cung cấp các ứng dụng và máy tính để bàn từ xa cho các thiết bị đầu cuối. PCoIP hoạt động bằng cách render (xuất hình) các máy tính để bàn của khách hàng trên mạng hoặc máy chủ đám mây. Các dữ liệu pixel của máy tính để bàn sau đó được nén, mã hóa và sau đó được truyền đến thiết bị cuối. Sau đó, máy khách sẽ giải mã và hiển thị màn hình desktop cho người dùng.

Power Supply Unit (PSU) – Bộ cấp nguồn: Là một thiết bị cung cấp điện năng cho bo mạch chủ, ổ cứng và tất cả các thiết bị khác bên trong máy tính, đảm bảo đáp ứng đủ năng lượng cho tất cả các thiết bị phần cứng để máy chủ hoạt động.

Quy ước màu dây và cấp điện áp trong nguồn máy tính

Quy ước chung về các mức điện áp theo màu dây trong nguồn máy tính như sau:

  • Màu đen: Dây chung, Có mức điện áp quy định là 0V; Hay còn gọi là GND, hoặc COM. Tất cả các mức điện áp khác đều so với dây này.
  • Màu cam: Dây có mức điện áp: +3,3 V
  • Màu đỏ: Dây có mức điện áp +5V.
  • Màu vàng: Dây có mức điện áp +12V (thường quy ước đường +12V thứ nhất đối với các nguồn chỉ có một đường +12V)
  • Màu xanh dương: Dây có mức điện áp -12V.
  • Màu xanh lá: Dây kích hoạt sự hoạt động của nguồn. Nếu nguồn ở trạng thái không hoạt động, hoặc không được nối với máy tính, ta có thể kích hoạt nguồn làm việc bằng cách nối dây kích hoạt (xanh lá) với dây 0V (Hay COM, GND – màu đen). Đây là thủ thuật để kiểm tra sự hoạt động của nguồn trước khi nguồn được lắp vào máy tính.
  • Dây màu tím: Điện áp 5Vsb (5V standby): Dây này luôn luôn có điện ngay từ khi đầu vào của nguồn được nối với nguồn điện dân dụng cho dù nguồn có được kích hoạt hay không (Đây cũng là một cách thử nguồn hoạt động: Đo điện áp giữa dây này với dây đen sẽ cho ra điện áp 5V trước khi kích hoạt nguồn hoạt động). Dòng điện này được cung cấp cho việc khởi động máy tính ban đầu, cung cấp cho con chuột, bàn phím hoặc các cổng USB. Việc dùng đường 5Vsb cho bàn phím và con chuột tuỳ theo thiết kế của bo mạch chủ – Có hãng hoặc model dùng điện 5Vsb, có hãng dùng 5V thường. Nếu hãng hoặc model nào thiết kế dùng đường 5Vsb cho bàn phím, chuột và các cổng USB thì có thể thực hiện khởi động máy tính từ bàn phím hoặc con chuột máy tính.
  • Một số dây khác: Khi mở rộng các đường cấp điện áp khác nhau, các nguồn có thể sử dụng một số dây dẫn có màu hỗn hợp: Ví dụ các đường +12V2 (đường 12V độc lập thứ 2); +12V3 (đường 12V độc lập thứ 3)có thể sử dụng viền màu khác nhau(tuỳ theo hãng sản xuất) như vàng viền trắng, vàng viền đen.

Thế nào là một bộ nguồn máy chủ tốt

Bộ nguồn máy chủ được cho là tốt nếu như đáp ứng được các yếu tố sau:

  • Sự ổn định của điện áp đầu ra: không sai lệch quá -5 đến + 5% so với điện áp danh định khi mà nguồn hoạt động đến công suất thiết kế.
  • Điện áp đầu ra là bằng phẳng, không nhiễu.
  • Hiệu suất làm việc cao, đạt trên 80% (Công suất đầu ra/đầu vào đạt >80%)
    Nguồn không gây ra từ trường, điện trường, nhiễu sang các bộ phận khác xung quanh nó và phải chịu đựng được từ trường, điện trường, nhiễu từ các vật khác xung quanh tác động đến nó.
  • Khi hoạt động toả ít nhiệt, gây rung, ồn nhỏ.
  • Các dây nối đầu ra đa dạng, nhiều chuẩn chân cắm, được bọc dây gọn gàng và chống nhiễu.
  • Đảm bảo hoạt động ổn định với công suất thiết kế trong một thời gian hoạt động dài.
  • Dải điện áp đầu vào càng rộng càng tốt, đa số các nguồn chất lượng cao có dải điện áp đầu vào từ 90 đến 260Vac, tần số 50/60 Hz.

Private cloud – Đám mây riêng: Đề cập đến một mô hình điện toán đám mây, trong đó các dịch vụ CNTT được cung cấp trên cơ sở hạ tầng CNTT dành riêng cho một doanh nghiệp, đơn vị duy nhất. Một đám mây riêng thường được quản lý thông qua các tài nguyên nội bộ.

Thuật ngữ đám mây riêng và đám mây riêng ảo (Virtual Private Cloud – VPC) thường được sử dụng thay thế cho nhau. Về mặt kỹ thuật, VPC là một đám mây riêng sử dụng cơ sở hạ tầng của nhà cung cấp đám mây của bên thứ ba, trong khi một đám mây riêng được triển khai trên cơ sở hạ tầng do doanh nghiệp tự đầu tư và được đặt tại chỗ (on-premise private cloud) hoặc trên data center của nhà cung cấp.

RAPIDS: Là một bộ thư viện phần mềm trên Python giúp việc tương tác trong các quy trình phân tích dữ liệu lớn, big data, khai thác sức mạnh của GPU. Nó dựa trên kiến trúc CUDA của NVidia để tối ưu hóa các tập lệnh cấp thấp và cung cấp năng lực xử  lý song song của GPU và bộ nhớ bandwidth lớn qua giao diện lập trình Python thân thiện.

Redundant Array of Inexpensive Disks (RAID) – Hệ thống đĩa dự phòng: Là hệ thống hoạt động bằng cách kết nối một dãy các ổ cứng có chi phí thấp lại với nhau để hình thành một thiết bị nhớ đơn có dung lượng lớn hỗ trợ hiệu quả cao và đáng tin cậy hơn so với các giải pháp trước đây. RAID được sử dụng và triển khai thành phương pháp lưu trữ trong doanh nghiệp và các máy chủ, nhưng trong 5 năm sau đó RAID đã trở nên phổ biến đối với mọi người dùng.

Lợi thế của RAID

Có 3 lý do chính để áp dụng RAID:

Dự phòng
Hiệu quả cao
Giá thành thấp

Sự dự phòng là nhân tố quan trọng nhất trong quá trình phát triển RAID cho môi trường máy chủ. Dự phòng cho phép sao lưu dữ liệu bộ nhớ khi gặp sự cố. Nếu một ổ cứng trong dãy bị trục trặc thì nó có thể hoán đổi sang ổ cứng khác mà không cần tắt cả hệ thống hoặc có thể sử dụng ổ cứng dự phòng. Phương pháp dự phòng phụ thuộc vào phiên bản RAID được sử dụng.

Khi áp dụng các phiên bản RAID mạnh bạn có thể thấy rõ hiệu quả tăng cao của nó. Hiệu quả cũng tùy thuộc vào số lượng ổ cứng được liên kết với nhau và các mạch điều khiển.

Tất cả các nhà quản lý những tập đoàn CNTT đều muốn giảm giá thành. Khi chuẩn RAID ra đời, giá thành là một vấn đề chủ chốt. Mục tiêu của các dãy RAID là cung cấp bộ nhớ tốt hơn cho hệ thống so với việc sử dụng riêng biệt các ổ đĩa có dung lượng lớn.

Có 3 cấp độ RAID sử dụng cho hệ thống máy tính để bàn là RAID 0, RAID 1 và RAID 5. Trong nhiều trường hợp thì chỉ hai trong ba cấp trên là có hiệu lực và một trong hai kỹ thuật được sử dụng không phải là một cấp độ của RAID.

RAID 0

RAID 0 thực ra không phải là cấp độ RAID hợp lệ. Cấp độ 0 được đưa ra không thể cung cấp cấp độ dự phòng nào cho các dữ liệu được lưu trữ. Do vậy nếu một ổ cứng bị lỗi thì sẽ gây nguy hiểm cho dữ liệu.

RAID 0 sử dụng một kĩ thuật gọi là “striping”. “Striping” phân chia khối dữ liệu đơn như trong hình vẽ và trải chúng qua các ổ cứng. Tác dụng của striping là làm tăng hiệu quả thực thi. Có thể ghi được hai khối dữ liệu cùng lúc tới hai ổ cứng, hơn hẳn so với một ổ cứng như trước đây.

Dưới đây là ví dụ cho thấy dữ liệu đã được ghi vào RAID 0 như thế nào. Mỗi dòng trong biểu đồ biểu diễn một khối dữ liệu và mỗi cột biểu diễn một ổ cứng khác nhau. Những số trong bảng đại diện cho các khối dữ liệu. Các số giống nhau biểu thị một khối dữ liệu được lặp lại.

 

Ổ cứng 1

Ổ cứng 2

Khối 1

1

2

Khối 2

3

4

Khối 3

5

6

Do vậy, nếu cả 6 khối dữ liệu trong bảng kết hợp thành một file dữ liệu duy nhất thì có thể đọc và ghi tới các ổn cứng nhanh hơn nhiều so với đọc trên một ổ. Mỗi ổ khi hoạt động song song với nhau chỉ có thể đọc được 3 khối dữ liệu trong khi nó cần sử dụng thêm một ổ đơn để đọc hết 6 khối dữ liệu. Hạn chế của kĩ thuật này là nếu một ổ gặp sự cố thì dữ liệu sẽ không hoạt động. Cần phải truy cập tất cả 6 khối dữ liệu mới có thể đọc được dữ liệu nhưng chỉ có thể truy cập vào 3 khối.

Thuận lợi:

Tăng hiệu quả lưu trữ.
Không làm mất dung lượng dữ liệu.

Bất lợi:

Không có ổ dự phòng.

RAID 1

RAID 1 mới là phiên bản thực sự đầu tiên. RAID cung cấp phương pháp dự phòng dữ liệu đơn giản bằng kĩ thuật “mirroring” (nhân bản dữ liệu). Kĩ thuật này cần 2 ổ cứng riêng biệt có cùng dung lượng. Một ổ sẽ là ổ hoạt động, ổ còn lại là ổ dự phòng. Khi dữ liệu được ghi vào ổ hoạt động thì đồng thời nó cũng được ghi vào ổ dự phòng.

Đây là ví dụ cho thấy dữ liệu được ghi vào RAID 1 như thế nào. Mỗi dòng trong biểu đồ biểu diễn một khối dữ liệu và mỗi cột biểu diễn một ổ cứng khác nhau. Những số trong bảng đại diện cho các khối dữ liệu. Các số giống nhau biểu thị một khối dữ liệu được lặp lại.

 

Ổ cứng 1

Ổ cứng 2

Khối 1

1

1

Khối 2

2

2

Khối 3

3

3

RAID 1 cung cấp một phiên bản dự phòng dữ liệu đầy đủ cho hệ thống. Nếu một ổ gặp sự cố, ổ còn lại vẫn còn hoạt động. Hạn chế của kĩ thuật này là dung lượng RAID chỉ bằng dung lượng nhỏ nhất của hai ổ cứng nếu như dung lượng lưu trữ trên hai ổ được sử dụng độc lập.

Thuận lợi:

Cung cấp dự phòng dữ liệu toàn diện.

Bất lợi:

Dung lượng lưu trữ chỉ lớn bằng dung lượng ổ nhỏ nhất.
Không tăng hiệu suất thực thi.
Nhiều thời gian chết để thay đổi ổ hoạt động khi có sự cố.

RAID 0+1

Đây là sự kết hợp RAID mà một số hãng sản xuất đã thực hiện để gộp các lợi ích của hai phiên bản lại với nhau. Sự kết hợp này chỉ áp dụng với các hệ thống có ít nhất 4 ổ cứng. Các kĩ thuật “mirroring” và “striping” kết hợp với nhau tạo ra hiệu quả dự phòng. Thiết lập đầu tiên của các ổ được kích hoạt và các dữ liệu sẽ được phân chia qua đó, thiết lập thứ hai sẽ phản chiếu những dữ liệu này sang ổ thứ hai.

Ví dụ sau cho thấy dữ liệu được ghi vào RAID 0+1 như thế nào. Mỗi dòng trong biểu đồ biểu diễn một khối dữ liệu và mỗi cột biểu diễn một ổ cứng khác nhau. Những số trong bảng đại diện cho các khối dữ liệu. Các số giống nhau biểu thị một khối dữ liệu được lặp lại.

 

Ổ cứng 1

Ổ cứng 2

Ổ cứng 3

Ổ cứng 4

Khối 1

1

2

1

2

Khối 2

3

4

3

4

Khối 3

5

6

5

6

Trong trường hợp này, các khối dữ liệu sẽ được phân chia qua các ổ và được phản chiếu giữa hai thiết lập. Hiệu quả thực thi của RAID 0 được tăng lên vì ổ cứng chỉ phải mất một nửa thời gian thực hiện so với một ổ riêng lẻ mà vẫn đảm bảo sự dự phòng. Hạn chế chính của phương pháp này là giá thành bởi nó cần phải có ít nhất 4 ổ cứng.

Thuận lợi:

Tăng hiệu quả thực thi.
Dữ liệu được dự phòng toàn bộ.
Bất lợi:

Yêu cầu số lượng ổ cứng lớn.
Khả năng truy xuất dữ liệu giảm một nửa.

RAID 10 hay 1+0

RAID 10 gần giống như RAID 0+1. Thay vì phân chia dữ liệu giữa các thiết lập ổ đĩa rồi phản chiếu chúng thì hai ổ cứng đầu tiên sẽ được phản chiếu với nhau. Đây là thiết lập RAID lồng. Hai cặp ổ 1 và 2, 3 và 4 sẽ phản chiếu lẫn nhau. Sau đó chúng sẽ được thiết lập thành các dãy phân chia dữ liệu.

Dưới đây là một ví dụ cho thấy dữ liệu được ghi vào RAID 10 như thế nào. Mỗi dòng trong biểu đồ biểu diễn một khối dữ liệu và mỗi cột biểu diễn một ổ cứng khác nhau. Những số trong bảng đại diện cho các khối dữ liệu. Các số giống nhau biểu thị một khối dữ liệu được lặp lại.

 

Ổ cứng 1

Ổ cứng 2

Ổ cứng 3

Ổ cứng 4

Khối 1

1

1

2

2

Khối 2

3

3

4

4

Khối 3

5

5

6

6

Cũng thiết lập giống như RAID 0+1, RAID 10 cần tối thiểu là 4 ổ cứng để thực hiện chức năng của mình. Tuy nhiên dữ liệu được bảo vệ bằng RAID 10 an toàn hơn RAID 0+1 rất nhiều.

Thuận lợi:

Tăng hiệu quả thực thi.
Dữ liệu được dự phòng toàn bộ.

Bất lợi:

Yêu cầu số lượng ổ cứng lớn.
Khả năng truy xuất dữ liệu giảm một nửa.

RAID 5

RAID 5 mạnh nhất cho hệ thống các máy để bàn. Đặc trưng của chúng là cần phải có một bộ điều khiển phần cứng quản lý các dãy ổ cứng nhưng một số hệ điều hành máy tính có thể thực hiện điều này qua các phần mềm. Phương pháp này sử dụng phân chia “parity” (chẵn lẻ) để duy trì dự phòng dữ liệu. Cần ít nhất 3 ổ cứng có năng xuất cao như nhau để áp dụng RAID 5.

“Parity” là là một phép toán nhị phân so sánh 2 khối dữ liệu với một khối dữ liệu thứ 3 dựa trên 2 khối đầu tiên. Cách giải thích đơn giản nhất là chẵn và lẻ. Nếu tổng của 2 khối dữ liệu là chẵn thì số bit là chẵn, nếu tổng của 2 khối dữ liệu là lẻ thì số bit là lẻ. Do đó phép toán 0+0 and 1+1 đều bằng 0 còn 0+1 or 1+0 sẽ bằng 1. Dựa trên phép toán nhị phân này, một ổ trong dãy bị trục trặc thì thì sẽ cho phép các bit “parity” khôi phục lại dữ liệu khi ổ đó được thay thế.

Sau đây là một ví dụ cho thấy dữ liệu được ghi vào RAID 5 như thế nào. Mỗi dòng trong biểu đồ biểu diễn một khối dữ liệu và mỗi cột biểu diễn một ổ cứng khác nhau. Những số trong bảng đại diện cho các khối dữ liệu. Các số giống nhau biểu thị một khối dữ liệu được lặp lại. “P” là các bit “parity” cho hai khối dữ liệu

 

Ổ cứng 1

Ổ cứng 2

Ổ cứng 3

Khối 1

1

2

P

Khối 2

3

P

4

Khối 3

P

5

6

Các bit “parity” luân chuyển giữa các ổ cứng sẽ làm tăng hiệu xuất và độ tin cậy cho dữ liệu. Dải ổ cứng vẫn sẽ tăng hiệu xuất thông qua một ổ riêng lẻ bởi vì nhiều ổ thì khả năng ghi dữ liệu sẽ nhanh hơn một ổ. Dữ liệu cũng được dự phòng toàn bộ nhờ các bit “parity”. Trường hợp ổ 2 bị lỗi thì dữ liệu có thể được phục hồi dựa trên dữ liệu và các bit trên hai ổ còn lại. Dung lượng dữ liệu giảm là do các khối dữ liệu chẵn lẻ. Trong thực tế nếu n là số lượng ổ và z là dung lượng thì ta có công thức sau:

(n-1)*z = Dung lượng

Trong trường hợp có 3 ổ cứng với dung lượng 500GB /ổ thì tổng dung lượng sẽ là (3-1)x500GB = 1000 GB

Thuận lợi:

Tăng dung lượng lưu trữ
Dữ liệu được dự phòng toàn bộ
Khả năng hoán đổi nhanh 24×7

Bất lợi:

Giá thành cao
Hiệu quả thực thi giảm trong quá trình phục hồi
RAID phần mềm và phần cứng

Để sử dụng chức năng RAID, cần phải có cài phầm mềm trên hệ điều hành hoặc thông qua các phần cứng chuyên dụng để điều khiển các dòng dữ liệu di chuyển từ máy tính tới các ổ cứng. Điều này thực sự quan trọng khi mà RAID 5 được thừa hưởng khối lượng lớn các yêu cầu máy tính nhằm đưa ra các phép tính toán phù hợp.

Đối với các phần mềm, chu trình bộ xử lý trung tâm (CPU) sẽ thực hiện các nhiệm vụ cần thiết cho RAID. Sử dụng phần mềm thì giá thành sẽ thấp bởi vì tất cả những thứ cần thiết là ổ cứng. Vấn đề duy nhất với các RAID sử dụng phần mềm đó là sự giảm sút hiệu xuất hệ thống. Nhìn chung, kết quả có thể từ 5% hay nhiều hơn nữa phụ thuộc vào bộ xử lý, bộ nhớ, ổ cứng và loại RAID nào được đưa vào sử dụng. Nhiều người không còn sử dụng RAID phần mềm nữa do giá của điều khiển RAID phần cứng đã giảm trong những năm gần đây.

RAID phần cứng có lợi thế là dùng các mạch chuyên dụng để điều khiển tất cả các phép tính toán cho RAID ở bên ngoài bộ xử lý. Phương pháp này tạo ra hiệu suất lưu trữ cao. Vấn đề của RAID phần cứng chính là giá thành. Giá cho các điều khiển RAID 0/1 là rất nhỏ bởi nhiều “chipset” đã được tích hợp sẵn trên các bo mạch chủ. Trong khi đó phần cứng RAID 5 thì lại yêu cầu cần phải có các mạch được gắn thêm .

Lựa chọn ổ cứng

Nhiều người vẫn không hề hay biết rằng công suất và dung lượng của một dãy RAID phụ thuộc rất nhiều vào loại ổ cứng nào được sử dụng. Để đạt được kết quả tốt nhất thì tất cả ổ cứng trong mạng nên có cùng kiểu dáng và nhãn hiệu. Bên cạnh đó chúng cũng cần phải có cùng dung lượng và hiệu xuất giống nhau. Không có yêu cầu nào về thống nhất giữa các ổ nhưng nếu các ổ không thống nhất chúng có thể ảnh hưởng tới dãy RAID.

Công suất của RAID tùy thuộc vào cấp độ của chúng. Đối với RAID 0, phân chia có thể được thực thi thông qua khoảng trống của 2 ổ cứng. Với hai ổ 80Gb và 100Gb thì công xuất cuối cùng của dãy sẽ là 160GB. Tương tự như vậy đối với RAID 1 thì các ổ chỉ có thể đối chiếu dữ liệu theo kích cỡ nhỏ nhất do vậy mà công suất cuối cùng sẽ chỉ còn là 80GB. RAID 5 thì còn phức tạp hơn khi tính theo công thức ở trên. Nếu sử dụng 3 ổ 80GB, 100GB và 120GB thì công suất sẽ là 160GB dữ liệu.

Thời gian thực thi của dãy cũng phụ thuộc vào ổ cứng. Để thực hiện một chức năng lệnh thì ta phải chờ để dữ liệu được ghi vào mỗi ổ trước khi có thể tiếp tục các bước tiếp theo. Có nghĩa là trên biểu đồ ví dụ của dãy RAID, bộ điều khiển phải chờ cho tới khi các dữ liệu đã được ghi thành khối 1 qua tất cả các ổ trong dãy trước khi có thể tiếp tục các thiết lập khác cho ổ cứng. Cũng có nghĩa là ở những dãy mà một ổ cứng có tốc độ thực thi chỉ còn một nửa sẽ làm chậm tốc độ của các ổ khác.

Kết luận

RAID hỗ trợ các hệ thống với nhiều tiện ích khác nhau tùy vào phiên bản được áp dụng. Đa số khách hàng sử dụng sẽ lựa chọn RAID 0 để tăng tốc độc thực thi mà không làm giảm không gian bộ nhớ. Chủ yếu là do dư thừa chưa phải là vấn đề chính cho người sử dụng trung bình. Thật ra, hầu hết các hệ thống máy tính chỉ cung cấp RAID 0 hay RAID 1. Chi phí để thực hiện RAID 0+1 hay RAID 5 là quá đắt đối với những khách hàng trung bình và chỉ được áp dụng cho các trạm làm việc hay các hệ thống máy chủ cấp cao.

Redundant Power Supply – Bộ cấp nguồn có dự phòng: Là một bộ nguồn cho máy chủ có chứa hai (hoặc nhiều) bộ cấp nguồn bên trong nó. Mỗi bộ nguồn có khả năng cấp nguồn cho toàn bộ máy chủ và trong một thời điểm chỉ có một bộ nguồn hoạt động. Nếu một cái bị hỏng, bộ nguồn còn lại bắt đầu chạy để giữ cho máy tính được cấp nguồn liên tục. Việc chuyển đổi giữa các bộ nguồn cấp điện là liên tục, để không làm gián đoạn hoạt động của máy chủ.

Nguồn cung cấp dự phòng rất quan trọng đối với các máy chủ và các máy tính quan trọng khác, để giảm thiểu nguy cơ tắt máy hoàn toàn hoặc thất bại. Chi phí liên quan đến nguồn cung cấp dự phòng cao hơn do thiết kế và chức năng, bắt đầu từ khoảng $300. Thường loại nguồn này không dùng cho các máy tính phổ thông do chi phí cao, nhưng vẫn có sẵn cho một số loại máy tính chuyên dụng.

Remote Direct Memory Access (RDMA) – Truy cập bộ nhớ trực tiếp từ xa: Là một thuật ngữ được sử dụng trong CNTT để mô tả các hệ thống cho phép các máy tính được kết nối mạng với nhau gửi dữ liệu qua lại mà không ảnh hưởng đến hệ điều hành của một trong hai máy. Điều này cho phép triển khai các hệ thống mạng có throughput cao, độ trễ thấp, đặc biệt hữu ích trong các cụm máy tính song song quy mô lớn.

Chuyên gia CNTT nói về RDMA tức là nói về zero-copy networking, nơi dữ liệu được đọc trực tiếp từ bộ nhớ chính của máy tính gốc và được chèn vào bộ nhớ chính của một máy tính nối mạng khác. Các hoạt động này được sử dụng để cải thiện hiệu suất và duy trì truyền dữ liệu hiệu quả hơn. Đôi khi, chúng có thể tăng tốc độ truyền dữ liệu hoặc cho throughput cao hơn. Các nhà sản xuất thiết bị có thể đề cập đến RDMA như một tính năng của các component cho phép loại truyền dữ liệu kiểu này. Còn các chuyên gia IT có thể nói về cách mà các chiến lược như RDMA có thể giúp làm cho mạng cục bộ hoặc các loại mạng nhỏ khác nhanh hơn và hiệu quả hơn.

Một số nhược điểm của RDMA có thể bao gồm việc cập nhật thông tin không nhất quán giữa các máy tính. Không có kỹ thuật gọi là “pinning”, các thành phần của hệ thống bộ nhớ có thể bị lỗi trong các thiết lập RDMA. Các kỹ thuật viên mạng ngày nay cần xem xét nhiều tùy chọn khác nhau để định tuyến (routing) các loại truyền dẫn dữ liệu ngày càng phức tạp hơn.

Simple Network Management Protocol (SNMP) là giao thức tầng ứng dụng được sử dụng để quản lý và giám sát các thiết bị mạng cũng như chức năng của chúng. SNMP cung cấp ngôn ngữ chung cho các thiết bị mạng để chuyển tiếp thông tin quản lý trong cả môi trường single-vendor và multi-vendor trong mạng cục bộ (LAN) hoặc mạng diện rộng (WAN). Phiên bản gần đây nhất của SNMP, version 3, bao gồm các cải tiến bảo mật để xác thực và mã hóa tin nhắn SNMP cũng như bảo vệ các gói trong khi truyền.

Một trong những giao thức được sử dụng rộng rãi nhất, SNMP được hỗ trợ trên một loạt các loại phần cứng – từ các thiết bị mạng thông thường như bộ định tuyến (router), bộ chuyển mạch (switch) và điểm truy cập không dây (wireless access point) đến các điểm cuối như máy in, scanner và thiết bị IoT (Internet of Things). Ngoài phần cứng, SNMP có thể được sử dụng để giám sát các dịch vụ như Dynamic Host Configuration Protocol (DHCP). Các software agent trên các thiết bị và dịch vụ này giao tiếp với hệ thống quản lý mạng (NMS), còn được gọi là trình quản lý SNMP, thông qua SNMP để chuyển tiếp thông tin trạng thái và thay đổi cấu hình.

Mặc dù SNMP có thể được sử dụng trong một mạng có quy mô bất kỳ, nhưng giá trị lớn nhất của nó là rõ ràng là trong các mạng rộng lớn. Đăng nhập thủ công và riêng lẻ vào hàng trăm hoặc hàng nghìn node sẽ cực kỳ mất thời gian và tốn nhiều tài nguyên. Trong khi đó, sử dụng SNMP với một NMS cho phép người quản trị mạng quản lý và theo dõi tất cả những node từ một giao diện duy nhất, mà thường có thể hỗ trợ hàng loạt các lệnh và cảnh báo tự động. SNMP được mô tả trong IETF / RFC 1157 và trpng một số RFC khác có liên quan.

Các thành phần của SNMP

Có bốn thành phần chính trong mạng do SNMP quản lý:

  1. SNMP Agent: Chương trình này chạy trên phần cứng hoặc dịch vụ đang được giám sát, thu thập dữ liệu về các số liệu khác nhau như tình trạng sử dụng băng thông hoặc dung lượng ổ đĩa. Khi được người quản lý SNMP truy vấn, agent sẽ gửi thông tin này lại cho trình quản lý. Một agent cũng có thể chủ động thông báo cho NMS nếu xảy ra lỗi. Hầu hết các thiết bị đi kèm với một SNMP Agent được cài đặt sẵn; Thông thường nó chỉ cần được bật lên và cấu hình.
  2. Các thiết bị và tài nguyên do SNMP quản lý: Đây là các node mà một agent chạy trên đó.
  3. Trình quản lý SNMP (còn gọi là NMS): Nền tảng phần mềm này hoạt động như một bảng điều khiển tập trung mà các agent cung cấp thông tin. Nó sẽ chủ động yêu cầu các agent gửi thông tin cập nhật qua SNMP theo định kỳ. Những gì người quản lý mạng có thể làm với thông tin đó phụ thuộc rất nhiều vào số lượng tính năng của NMS. Có một số trình quản lý SNMP miễn phí đang được cung cấp, nhưng chúng thường bị giới hạn về khả năng hoặc số lượng node mà chúng có thể hỗ trợ. Ở mức độ cao hơn, các nền tảng cấp doanh nghiệp cung cấp các tính năng nâng cao cho các mạng phức tạp hơn, với một số sản phẩm hỗ trợ lên đến hàng chục nghìn node.
  4. Cơ sở thông tin quản lý (Management information base – MIB): Cơ sở dữ liệu này là một file văn bản (.mib) phân loại và mô tả tất cả các đối tượng được sử dụng bởi một thiết bị cụ thể có thể được truy vấn hoặc kiểm soát bằng SNMP. Cơ sở dữ liệu này phải được tải vào NMS để có thể xác định và theo dõi trạng thái của các thuộc tính này. Mỗi mục MIB được gán một định danh đối tượng (OID).

SNMP hoạt động như thế nào?

SNMP thực hiện vô số chức năng, dựa trên sự pha trộn giữa truyền tin push-and-pull giữa các thiết bị mạng và hệ thống quản lý. Nó có thể ra lệnh đọc hoặc ghi, chẳng hạn như đặt lại mật khẩu hoặc thay đổi cài đặt cấu hình. Nó có thể báo cáo lại mức độ sử dụng băng thông, CPU và bộ nhớ, với một số trình quản lý SNMP tự động gửi cho người quản trị một email hoặc thông báo tin nhắn văn bản nếu vượt quá ngưỡng xác định trước.

Trong hầu hết các trường hợp, SNMP hoạt động trong một mô hình đồng bộ, với giao tiếp được khởi tạo bởi người quản lý SNMP và tác nhân gửi phản hồi. Các lệnh và thông báo này, thường được vận chuyển qua giao thức UDP hoặc TCP/IP, được gọi là đơn vị dữ liệu giao thức (PDU):

  • GET: Được tạo bởi trình quản lý SNMP và được gửi đến một agent để lấy giá trị của một biến số nào đó, được xác định bởi OID của nó, trong một MIB .
  • RESPONSE: Được gửi bởi agent cho người quản lý SNMP, được phát đi để trả lời yêu cầu GET. Chứa các giá trị của các biến được yêu cầu.
  • GETNEXT: Được gửi bởi người quản lý SNMP đến agent để lấy các giá trị của OID tiếp theo trong hệ thống phân cấp của MIB.
  • GETBULK: Được gửi bởi người quản lý SNMP cho agent để có được các bảng dữ liệu lớn bằng cách thực hiện nhiều lệnh GETNEXT.
  • SET: Được gửi bởi người quản lý SNMP cho agent để đưa ra các cấu hình hoặc lệnh.
  • TRAP: Một cảnh báo không đồng bộ được gửi bởi agent đến trình quản lý SNMP để chỉ ra một sự kiện quan trọng, chẳng hạn như lỗi hoặc sự cố, đã xảy ra.

Single-tenant – Hệ thống đơn khách hàng: Trong lĩnh vực phần mềm, single-tenant là một kiến trúc phần mềm mà ở đó một khách hàng thuê hoặc sở hữu hệ thống riêng của mình, trong đó bao gồm có ứng dụng, database và có thể là phần cứng sử dụng riêng. Hệ thống có thể được customize riêng để đáp ứng theo nhu cầu của khách hàng.

Small Form-factor Pluggable (SFP) – Module quang: Là 1 thiết bị thu phát nhỏ gọn có thể “gắn nóng”, được sử dụng trong lĩnh vực truyền dẫn và viễn thông. Một đầu của SFP gắn vào các thiết bị như switch, router, media converter hoặc thiết bị tương tự. Đầu còn lại dùng để gắn cáp quang hoặc cáp đồng. Nó là một chuẩn kết nối phổ biến được hỗ trợ bởi các nhà sản xuất thiết bị mạng và viễn thông.

Các phiên bản mở rộng được sử dụng phổ biến hiện nay trong các Data Center là: SFP+ (10Gbps), SFP28 (25Gbps)

Software Defined Network (SDN) – Mạng điều khiển bằng phần mềm: Là hệ thống mạng được tạo ra dựa trên cơ chế khai phá tách bạch việc kiểm soát một luồng mạng với luồng dữ liệu. SDN dựa trên giao thức luồng mở (Open Flow) và là kết quả nghiên cứu của Đại học Stanford và California, Berkeley. SDN tách định tuyến và chuyển các luồng dữ liệu riêng rẽ và chuyển kiểm soát luồng sang thành phần mạng riêng có tên gọi là thiết bị kiểm soát luồng (Flow Controller). Điều này cho phép luồng các gói dữ liệu đi qua mạng được kiểm soát theo lập trình.

Ý tưởng của các nhà phát triển khi đưa ra OpenFlow rất đơn giản. Nó mô phỏng một phần các giải pháp ảo hóa hiện nay trong các hệ thống như VMware, Citrix… hay mở rộng kiến trúc Stacking trên các thiết bị mạng như HP IRF Stacking, Cisco VSS ở một quy mô rộng hơn không chỉ trong một khối thiết bị được stacking hiện tại mà toàn bộ hệ thống… Giao thức Open Flow gồm có: bộ kiểm soát luồng, thiết bị luồng mở và bảng luồng – và một kết nối an ninh giữa bộ kiểm soát và tổng đài.

SDN bao gồm khả năng ảo hóa các nguồn lực mạng. Các nguồn lực mạng được ảo hóa được biết đến như là một “ngăn mạng” (network slice). Một ngăn có thể mở rộng nhiều thành phần mạng bao gồm đường trục mạng, bộ định tuyến và các host. Khả năng kiểm soát nhiều luồng lưu lượng một cách lập trình sẽ tạo ra sự linh hoạt và nguồn lớn hơn trong tay người sử dụng.

Software-defined storage (SDS) – Hệ thống lưu trữ được định nghĩa bằng phần mềm: Là thuật ngữ nói đến các dạng phần mềm máy tính dùng để quản lý lưu trữ dữ liệu một cách độc lập với phần cứng lưu trữ bên dưới. Software-defined storage thường bao gồm một dạng ảo hóa các thành phần lưu trữ để tách phần cứng lưu trữ khỏi phần mềm quản lý nó. Phần mềm cho phép môi trường SDS có thể cung cấp tính năng quản lý các policy cho các tính năng như data duplication, thin provisioning, snapshot và backup.

Phần cứng trong SDS có thể có hoặc không bao gồm phần mềm quản lý chúng. Có thể được triển khai thông qua các thiết bị lưu trữ SAN truyền thống, NAS hoặc Object Storage.

Solid State Drive (SSD) – Ổ cứng thể rắn: Là một loại ổ cứng ở thể rắn, với các chip nhớ (thường thuộc dạng flash memory) được gắn vào một board mạch điều khiển, không có các thành phần cơ học như ổ cứng cơ HDD. Dạng ổ cứng này cho khả năng lưu trữ dữ liệu với tuổi thọ lâu dài và tốc độ truy xuất cao.

Ưu điểm của ổ cứng SSD so với ổ cứng HDD truyền thống
– Thời gian khởi động hệ điều hành nhanh chóng hơn.
– Tốc độ truy xuất các dữ liệu trong ổ cứng nhanh nhất.
– Thời gian khởi động và hoạt động các phần mềm trên máy tính nhanh hơn.
– Khả năng hoạt động ổn định tốt, và chống sốc cao khi bị rơi,…
– Hoạt động êm ái, không có tiến ồn, tàn nhiệt hiệu quả hơn ổ cứng HDD.
– Tăng hiệu suất làm việc của máy tính.

Storage Area Network (SAN) – Mạng lưu trữ: Là một mạng chuyên dụng phục vụ cho việc lưu trữ, độc lập với các kết nối mạng LAN và WAN. Hệ thống SAN liên kết tất cả các tài nguyên lưu trữ trong mạng lại với nhau tạo thành một hệ thống lưu trữ lớn. Đặc điểm chính của hệ thống SAN là nó hỗ trợ các chuẩn kết nối dữ liệu băng thông rộng, tốc độ cao giữa các thiết bị lưu trữ trong mạng thông qua các giao thức như Fibre Channel (FC), iSCSI, FCIP, DWDM,… Ngoài ra, nó còn cho khả năng mở rộng linh hoạt, hiệu suất lưu trữ và tính sẵn sàng cao.

SAN cung cấp khả năng truy cập ở mức block-level. Điều này có nghĩa là thay vì truy cập dữ liệu trên các ổ đĩa dưới dạng file thông qua các giao thức truy cập file, SAN ghi các block dữ liệu trực tiếp vào các ổ đĩa bằng việc sử dụng các giao thức kết nối (giao thức phổ biến trong các hệ thống SAN là Fibre Channel over Ethernet – FCoE hay Internet Small Computer System Interface – iSCSI).

Mặc dù thường được đề cập đến phần cứng nhiều hơn, SAN còn bao gồm những phần mềm chuyên biệt dùng cho quản lý, giám sát và cấu hình mạng.

TensorRT Inference Server: NVIDIA TensorRT Inference Server cung cấp giải pháp inference trên nền cloud được tối ưu hóa cho GPU NVIDIA. Là một máy chủ cung cấp dịch vụ suy luận (inference) qua HTTP hoặc gRPC endpoint, cho phép các máy khách có thể gởi yêu cầu inference từ xa cho bất kỳ mô hình nào được máy chủ quản lý. TRTIS cung cấp các tính năng sau:

Hỗ trợ multiple framework. Máy chủ có thể quản lý số lượng bất kỳ các mô hình (bị giới hạn bởi tài nguyên lưu trữ và bộ nhớ của hệ thống). Hỗ trợ các định dạng mô hình TensorRT, TensorFlow GraphDef, TensorFlow SavedModel và Caffe2 NetDef.

Nó cũng hỗ trợ các mô hình tích hợp TensorFlow-TensorRT. Hỗ trợ đa GPU. Máy chủ có thể phân bổ việc inference trên tất cả các GPU của hệ thống.
Hỗ trợ triển khai mô hình cùng lúc. Nhiều mô hình (hoặc nhiều phiên bản của cùng một mô hình) có thể chạy đồng thời trên cùng một GPU.

Hỗ trợ batch. Đối với các mô hình hỗ trợ batch, máy chủ có thể chấp nhận các yêu cầu cho một loạt các đầu vào và phản hồi với lô đầu ra tương ứng. Máy chủ cũng hỗ trợ tạo batch động, trong đó các yêu cầu suy luận riêng lẻ được kết hợp động với nhau để cải thiện thông lượng suy luận. Hoạt động dynamic batching mang tính mở cho khách hàng yêu cầu suy luận.

Các kho lưu trữ mô hình có thể nằm trên hệ thống file có thể truy cập cục bộ (ví dụ: NFS) hoặc trong Google Cloud Storage.

Tính sẵn sàng và sức khỏe của các endpoint phù hợp cho tất cả các framework cho orchestration hay deployment. Các chỉ số cho thấy sự khai thác GPU, thông lượng và độ trễ của máy chủ.

Virtual Desktop Infrastructure (VDI) – Hạ tầng ảo hóa desktop: Là công nghệ ảo hóa trong đó cung cấp một hệ điều hành máy tính để bàn (desktop) trên một máy chủ tập trung trong trung tâm dữ liệu. VDI là một biến thể của mô hình điện toán client-server, đôi khi còn được gọi là điện toán dựa trên máy chủ – server-based computing. Thuật ngữ này được đưa ra lần đầu bởi VMware.

TÀI NGUYÊN SỬ DỤNG