Xin chào ! Nếu đây là lần đầu tiên bạn đến với diễn đàn, xin vui lòng danh ra một phút bấm vào đây để đăng kí và tham gia thảo luận cùng VnPro.
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • MCP hoạt động như thế nào?

    MCP (Model Context Protocol) – Chuẩn giao tiếp đang định hình tương lai của AI Agent


    Trong giai đoạn đầu của Generative AI, phần lớn chúng ta tương tác với AI theo mô hình rất quen thuộc: đặt câu hỏi, nhận câu trả lời. AI đóng vai trò như một “bộ não tri thức” có khả năng giải thích, viết nội dung, hỗ trợ phân tích hoặc sinh mã nguồn. Nhưng có một giới hạn rất rõ ràng: AI biết rất nhiều, nhưng không thể trực tiếp hành động trên hệ thống thực.

    Một mô hình ngôn ngữ có thể giải thích cách kiểm tra trạng thái BGP trên router Cisco, nhưng bản thân nó không thể đăng nhập vào thiết bị để chạy lệnh. Nó có thể hướng dẫn cách truy vấn log từ Splunk, nhưng không thể tự kết nối vào Splunk để lấy dữ liệu. Nó có thể đề xuất cách khởi động lại một container Kubernetes, nhưng không thể tự thực thi thao tác đó.

    Đây chính là khoảng trống mà Model Context Protocol (MCP) ra đời để giải quyết.

    Nếu API từng tạo nên cuộc cách mạng giúp các ứng dụng phần mềm giao tiếp với nhau, thì MCP đang mở ra một chuẩn giao tiếp mới, nơi AI có thể kết nối với công cụ, dữ liệu và hạ tầng bên ngoài theo một cách chuẩn hóa.
    MCP là gì?


    Model Context Protocol (MCP) là một giao thức mở được thiết kế để chuẩn hóa cách các mô hình AI tương tác với hệ thống bên ngoài.

    Thay vì mỗi nhà cung cấp AI hoặc mỗi ứng dụng phải tự xây dựng một cơ chế tích hợp riêng cho từng công cụ, MCP cung cấp một giao thức chung để AI có thể khám phá, gọi và nhận kết quả từ các công cụ đó.

    Có thể hình dung đơn giản:
    • API là cách ứng dụng giao tiếp với ứng dụng
    • MCP là cách AI giao tiếp với công cụ và môi trường thực

    Một phép so sánh khác dễ hiểu hơn:

    USB-C giúp chuẩn hóa kết nối phần cứng. Bạn không cần một loại cáp riêng cho từng thiết bị.

    MCP đang cố gắng làm điều tương tự cho AI.

    Thay vì:
    • AI A cần connector riêng cho Splunk
    • AI B cần integration riêng cho Cisco API
    • AI C cần adapter khác để đọc file hệ thống

    MCP tạo ra một chuẩn chung.

    Điều này đặc biệt quan trọng khi thế giới đang chuyển dịch từ chatbot đơn giản sang AI Agent.
    Kiến trúc MCP hoạt động như thế nào?


    Nhìn vào sơ đồ kiến trúc, MCP bao gồm ba thành phần chính: mô hình AI, MCP Client và MCP Server.

    Ở tầng trên cùng là Large Language Model (LLM).

    Đây là bộ não của hệ thống.

    Ví dụ:
    • OpenAI GPT
    • Anthropic Claude
    • Google Gemini
    • Meta Llama

    LLM chịu trách nhiệm:
    • hiểu yêu cầu người dùng
    • suy luận
    • lập kế hoạch
    • quyết định công cụ nào cần sử dụng

    Tuy nhiên, LLM không trực tiếp truy cập hệ thống thật.

    Muốn AI “hành động”, cần một lớp trung gian.

    Đó là MCP Client.
    MCP Client – bộ điều phối giữa AI và công cụ


    MCP Client đóng vai trò cầu nối giữa mô hình AI và các công cụ bên ngoài.

    Khi AI nhận yêu cầu như:
    “Kiểm tra vì sao ứng dụng web đang chậm”

    LLM có thể suy luận rằng cần:
    • dữ liệu CPU
    • log ứng dụng
    • metrics hệ thống
    • traces
    • trạng thái Kubernetes

    Nhưng để thực sự lấy các dữ liệu này, AI cần một lớp thực thi.

    MCP Client đảm nhiệm việc:
    • khám phá công cụ khả dụng
    • gửi yêu cầu gọi tool
    • nhận phản hồi
    • chuyển kết quả về cho LLM tiếp tục reasoning

    Có thể xem MCP Client như một orchestration layer cho AI.
    MCP Server – nơi cung cấp năng lực thực thi


    Nếu MCP Client là bộ điều phối, thì MCP Server là nơi cung cấp các khả năng thực tế.

    MCP Server “đóng gói” các hệ thống bên ngoài thành các tool mà AI có thể gọi.

    Ví dụ:
    • đọc file
    • truy vấn database
    • gọi REST API
    • kiểm tra interface mạng
    • truy xuất syslog
    • lấy metrics từ monitoring platform
    • chạy automation script

    Ví dụ thay vì AI phải hiểu chi tiết cách gọi API của Splunk, MCP Server chỉ cần expose một tool như:
    query_logs()

    Hoặc với hạ tầng mạng:
    get_bgp_neighbors()

    Điều này giúp AI tập trung vào reasoning thay vì phải xử lý logic tích hợp phức tạp.
    Local MCP và Remote MCP


    Sơ đồ cho thấy hai mô hình triển khai phổ biến. Local MCP


    Ở mô hình local, MCP Client giao tiếp với MCP Server chạy trên cùng máy.

    Transport thường là:

    STDIO + JSON-RPC

    Mô hình này phù hợp khi AI cần tương tác với:
    • local filesystem
    • Python scripts
    • CLI tools
    • shell automation
    • developer workstation

    Ví dụ AI muốn đọc file cấu hình router:
    {
    "method": "read_file",
    "params": {
    "path": "configs/core-sw1.txt"
    }
    }

    Tool local thực hiện thao tác và trả kết quả.

    Mô hình này đơn giản, nhanh và ít độ trễ.
    Remote MCP


    Khi công cụ nằm trên server khác hoặc môi trường cloud, giao tiếp sẽ diễn ra qua network.

    Transport phổ biến:

    HTTP + JSON-RPC

    Mô hình này phù hợp với:
    • cloud APIs
    • enterprise applications
    • monitoring platforms
    • CMDB
    • infrastructure controllers

    Ví dụ:
    • AWS
    • Azure
    • ServiceNow
    • Splunk
    • Cisco Catalyst Center
    • Meraki Dashboard
    • Kubernetes API

    Khi đó AI có thể gửi yêu cầu từ xa đến MCP Server.
    JSON-RPC trong MCP


    MCP thường sử dụng JSON-RPC làm cơ chế gọi thủ tục từ xa.

    Ví dụ:

    Request:
    {
    "method": "get_interface_status",
    "params": {
    "device": "core-sw1"
    }
    }

    Response:
    {
    "result": {
    "Gig1/0/1": "up",
    "Gig1/0/2": "down"
    }
    }

    JSON-RPC được chọn vì:
    • nhẹ
    • đơn giản
    • dễ machine parsing
    • phù hợp với AI tool invocation

    Với AI Agent, điều quan trọng không phải giao diện đẹp, mà là khả năng giao tiếp có cấu trúc và đáng tin cậy.
    Tool Discovery – khả năng khiến AI trở nên “agentic”


    Một điểm cực kỳ quan trọng trong MCP là tool discovery.

    Trong các hệ thống tích hợp truyền thống, developer phải hardcode từng tool mà AI được phép gọi.

    Ví dụ:
    • tool A để đọc file
    • tool B để query log
    • tool C để restart service

    MCP thay đổi điều này.

    AI có thể hỏi MCP Server:
    “Bạn có những công cụ nào?”

    Server trả về:
    • get_logs
    • ping_host
    • query_cmdb
    • show_interface
    • get_cpu_metrics

    LLM sẽ tự quyết định tool phù hợp.

    Đây chính là nền tảng của Agentic AI.

    AI không chỉ phản hồi.

    AI có thể:
    • khám phá môi trường
    • lập kế hoạch
    • chọn công cụ
    • thực thi
    • phân tích kết quả
    • lặp lại chu trình

    Ví dụ thực tế trong hạ tầng mạng


    Đây là phần khiến MCP trở nên đặc biệt hấp dẫn với kỹ sư network.

    Hãy tưởng tượng bạn hỏi AI:
    “Chi nhánh Hà Nội mất kết nối WAN, kiểm tra giúp.”

    Một AI Agent tích hợp MCP có thể:

    bước đầu kiểm tra controller SD-WAN,

    sau đó xem trạng thái tunnel,

    kiểm tra interface,

    truy vấn syslog,

    đối chiếu telemetry,

    kiểm tra incident trong ServiceNow,

    thậm chí kích hoạt Ansible playbook để thu thập dữ liệu bổ sung.

    Ví dụ các tool có thể là:
    show_bgp_summary()
    get_sdwan_tunnels()
    query_splunk_logs()
    get_interface_counters()
    run_ansible_playbook()

    Đây không còn là chatbot hỗ trợ kiến thức.

    Đây là operational AI.
    MCP và tương lai của AIOps


    MCP đặc biệt phù hợp với các môi trường:
    • Network Operations
    • SecOps
    • DevOps
    • CloudOps
    • Platform Engineering

    Vì các môi trường này vốn đã có rất nhiều công cụ rời rạc:
    • monitoring
    • ticketing
    • logging
    • automation
    • observability
    • CMDB
    • cloud APIs

    AI chỉ thực sự hữu ích khi có thể kết nối tất cả các mảnh ghép đó.

    MCP chính là lớp keo kết nối.
    MCP khác gì function calling?


    Function calling cho phép AI gọi các hàm được định nghĩa sẵn trong ứng dụng.

    Nhưng đây thường là tích hợp đóng.

    Developer phải:
    • định nghĩa function
    • mô tả schema
    • xử lý execution

    MCP đưa ý tưởng này lên mức chuẩn mở.

    Thay vì mỗi ứng dụng tự thiết kế integration riêng, MCP cung cấp một protocol chuẩn.

    Function calling giống như một thiết bị với connector custom.

    MCP giống USB.
    Kết luận


    Model Context Protocol là một bước tiến quan trọng trong hành trình đưa AI từ công cụ hội thoại thành hệ thống có khả năng hành động thực tế.

    Nó chuẩn hóa cách AI:
    • khám phá công cụ
    • gọi dịch vụ
    • truy cập dữ liệu
    • tương tác với hạ tầng

    Đối với giới hạ tầng CNTT, networking, cloud, security và automation, MCP không chỉ là một giao thức kỹ thuật mới.

    Nó là nền tảng để xây dựng thế hệ AI Agent có khả năng vận hành hệ thống thực.

    Chúng ta đang chuyển dịch từ:

    AI biết trả lời
    sang

    AI biết làm việc.

    Và MCP có thể sẽ là một trong những chuẩn quan trọng nhất của kỷ nguyên đó.
    Attached Files
    Đặng Quang Minh, CCIE#11897 (Enterprise Infrastructure, Wireless, Automation, AI), CCSI#31417

    Email : dangquangminh@vnpro.org
    https://www.facebook.com/groups/vietprofessional/
Working...
X