Xin chào ! Nếu đây là lần đầu tiên bạn đến với diễn đàn, xin vui lòng danh ra một phút bấm vào đây để đăng kí và tham gia thảo luận cùng VnPro.
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • 🎯 [AI Infrastructure] Vì sao băng thông quang học (Optics Bandwidth) lại sống còn với hạ tầng AI/ML?

    🎯 [AI Infrastructure] Vì sao băng thông quang học (Optics Bandwidth) lại sống còn với hạ tầng AI/ML?

    Trong các hệ thống AI/ML hiện đại, băng thông mạng không còn là yếu tố phụ, mà là trái tim quyết định hiệu suất huấn luyện mô hình, đặc biệt là những mô hình có hàng tỷ tham số như GPT hoặc mô hình cho xe tự lái. 📌 Khác biệt giữa AI Infrastructure và Data Center truyền thống


    Trong các trung tâm dữ liệu thông thường (general-purpose data center), mạng thường hoạt động ổn định với tỷ lệ oversubscription 20:1 — nghĩa là 20 server chia sẻ cùng một băng thông mà không bị nghẽn nghiêm trọng.

    Tuy nhiên, AI training là một cuộc chơi khác. Mỗi GPU phải giao tiếp liên tục với các GPU khác, đẩy luồng dữ liệu tensor khổng lồ qua lại. Bất kỳ độ trễ cao (latency) hay rớt gói (packet loss) nào cũng khiến toàn bộ quá trình học bị chậm lại — thậm chí là thất bại.

    👉 Do đó, hạ tầng AI cần subscription ratio thấp hơn rất nhiều, lý tưởng là 1:1 – tức là mỗi server có đủ băng thông riêng biệt để giao tiếp tối đa. Trong thực tế, một số workload AI có thể chịu được tỷ lệ 4:1, nhưng hiệu suất sẽ giảm.
    🚀 Tại sao cần 400G / 800G Optics?


    Để đạt được mức thông lượng cần thiết, các trung tâm AI hiện đại sử dụng cáp quang tốc độ cao 400G hoặc 800G để kết nối giữa:
    • Các server có GPU (compute nodes),
    • Switch tốc độ cao (AI fabric),
    • Các hệ thống lưu trữ dung lượng lớn.

    Ví dụ:
    • Một cụm compute có 8 GPU thường được kết nối bằng 8 cổng 400G hoặc 800G.
    • Các kết nối này đi vào mô hình full-mesh leaf-spine, giúp đảm bảo mọi GPU có thể truyền dữ liệu đến mọi GPU khác với độ trễ tối thiểu và băng thông tối đa.

    💡 Hãy tưởng tượng thế này:


    Nếu bạn đang huấn luyện một mô hình AI như ChatGPT với 175 tỷ tham số, chỉ cần thêm vài mili giây trễ hoặc thiếu vài phần trăm băng thông cũng có thể khiến thời gian huấn luyện kéo dài từ 1 tuần thành 2 tuần – và khi đó chi phí vận hành sẽ đội lên hàng triệu USD.

    Kết luận: Với AI/ML, băng thông quang học không chỉ là lựa chọn – mà là điều kiện bắt buộc để đảm bảo hiệu năng, độ ổn định và khả năng mở rộng của hạ tầng.

    🔧 Bài viết thuộc chuỗi "Hạ tầng cho AI" – phù hợp cho các bạn IT muốn bước chân vào lĩnh vực AI một cách bài bản.
    👉 Follow để xem tiếp phần về network fabric AI, RDMA và Cisco Nexus HyperFabric trong bài tới.

    #AIInfrastructure #NetworkingForAI #AIHPC 400g #800G #Optics #LatencyMatters #AITraining #VnProAI #NetCenterTech
    Đặng Quang Minh, CCIE#11897 (Enterprise Infrastructure, Wireless, Automation, AI), CCSI#31417

    Email : dangquangminh@vnpro.org
    https://www.facebook.com/groups/vietprofessional/
Working...
X