Sự tiến hóa của AI Agent: Từ chatbot hội thoại đến đồng đội kỹ thuật chủ động
Khi nói về AI ngày nay, nhiều người vẫn hình dung đến một chatbot thông minh có thể trả lời câu hỏi, viết email, hỗ trợ lập trình hoặc giải thích kiến thức kỹ thuật. Cách nhìn này không sai, nhưng nếu chỉ dừng ở đó thì chúng ta mới chỉ quan sát một phần rất nhỏ của bức tranh lớn hơn.
AI đang tiến hóa rất nhanh.
Điều quan trọng với giới kỹ thuật, đặc biệt là các kỹ sư hạ tầng, networking, cloud, DevOps và security, là hiểu rằng AI không chỉ đang trở nên “thông minh hơn”, mà đang chuyển dịch từ mô hình hệ thống hội thoại phản hồi theo yêu cầu sang mô hình thực thể có khả năng hành động, cộng tác và tham gia trực tiếp vào quy trình vận hành kỹ thuật.
Hình minh họa mô tả khá rõ hành trình phát triển này. Đây không đơn giản là sự thay đổi về giao diện người dùng, mà là sự thay đổi về kiến trúc hệ thống AI.
Giai đoạn đầu: Curiosity Chat Phase – AI như một chatbot tri thức
Giai đoạn đầu tiên của AI hiện đại có thể gọi là thời kỳ chatbot hội thoại tổng quát.
Đây là giai đoạn mà hầu hết người dùng tiếp cận AI theo kiểu khám phá.
Họ mở chatbot lên và thử hỏi:
AI có thể làm gì?
Một kỹ sư mạng có thể hỏi:
“Lệnh kiểm tra OSPF neighbor là gì?”
“Giải thích sự khác nhau giữa STP và RSTP.”
“Viết giúp tôi cấu hình NAT overload.”
Một kỹ sư cloud có thể hỏi:
“Azure Availability Zone khác gì Availability Set?”
Một kỹ sư bảo mật có thể hỏi:
“Giải thích attack chain của ransomware.”
Ở giai đoạn này, AI chủ yếu đóng vai trò là một kho tri thức tương tác.
Mô hình hoạt động rất đơn giản:
Người dùng đưa yêu cầu, AI sinh phản hồi.
Kiến trúc thực tế:
User → Prompt → LLM → Response
Điểm mạnh của mô hình này là tốc độ tiếp cận cực nhanh.
Không cần lập trình.
Không cần tích hợp hệ thống.
Không cần quyền truy cập hạ tầng.
Chỉ cần giao diện chat.
Nhưng đây cũng là giới hạn lớn nhất.
AI chỉ có thể suy luận trên dữ liệu đã được huấn luyện hoặc context được cung cấp trong phiên làm việc.
AI không thể:
Điều này khiến AI giống một chuyên gia tư vấn hơn là một kỹ sư vận hành.
Prompt Engineering Era – khi AI trở thành trợ lý chuyên biệt
Sau một thời gian sử dụng, cộng đồng kỹ thuật nhận ra rằng chất lượng kết quả phụ thuộc rất nhiều vào cách đặt câu hỏi.
Từ đó hình thành khái niệm Prompt Engineering.
Đây là giai đoạn AI bắt đầu được “chuyên biệt hóa” bằng ngôn ngữ.
Thay vì hỏi:
“Giải thích BGP.”
Người dùng chuyển sang:
“Hãy đóng vai CCIE Enterprise và giải thích BGP route reflector trong môi trường ISP.”
Hoặc:
“Hãy đóng vai DevOps engineer và viết Terraform triển khai VPC trên AWS.”
Sự thay đổi này rất quan trọng.
AI không còn là chatbot chung chung.
AI bắt đầu được định hình vai trò.
Kiến trúc tư duy:
Role + Context + Constraints + Task
Ví dụ:
Bạn là chuyên gia SOC.
Phân tích log sau.
Xác định IOC.
Đề xuất containment.
Kết quả thường tốt hơn nhiều.
Trong môi trường đào tạo kỹ thuật, đây là bước tiến lớn vì AI có thể đóng vai:
Nhưng dù prompt tốt đến đâu, AI vẫn chưa vượt qua giới hạn cơ bản.
Nó vẫn chưa thể tương tác trực tiếp với thế giới thực.
Tool-Enhanced Agents – bước chuyển từ AI biết sang AI làm
Đây là bước tiến quan trọng nhất trong sự tiến hóa của AI Agent.
Khi AI được kết nối với công cụ bên ngoài, nó không còn chỉ là hệ thống trả lời câu hỏi.
Nó bắt đầu trở thành hệ thống có khả năng thực thi.
Kiến trúc thay đổi đáng kể:
User
↓
LLM
↓
Agent Runtime
↓
Tools / APIs / Systems
Ở đây AI có thể sử dụng:
Ví dụ một AI Agent có thể:
đọc file cấu hình từ repository,
truy vấn NetBox để lấy inventory,
gọi Catalyst Center API để kiểm tra interface,
query Splunk để lấy log,
gọi Ansible playbook để chạy diagnostic.
Điều này thay đổi hoàn toàn bản chất của AI.
Ví dụ trước đây khi hỏi:
“Site branch bị mất kết nối WAN.”
AI chỉ có thể suy đoán:
Nhưng với tool access, AI có thể thực hiện:
show interface
show ip route
show bgp summary
query logs
check telemetry
Rồi đưa ra kết luận dựa trên dữ liệu thật.
Đây là sự chuyển dịch từ:
knowledge assistant
sang
operational agent
Vai trò của MCP trong giai đoạn này
Để AI kết nối với công cụ, cần một chuẩn giao tiếp.
Đây là nơi Model Context Protocol (MCP) xuất hiện.
MCP đóng vai trò như một lớp chuẩn hóa giữa AI và hệ thống bên ngoài.
Thay vì mỗi tool có integration riêng, MCP định nghĩa cách AI:
Kiến trúc:
LLM
↓
MCP Client
↓
MCP Server
↓
Enterprise Tools
Ví dụ AI có thể hỏi:
“Có tool nào để kiểm tra network?”
MCP server trả:
show_interfaces
check_bgp
query_netbox
get_syslogs
run_playbook
AI tự chọn công cụ phù hợp.
Đây là nền tảng của Agentic AI.
Proactive Teammates – AI như một thành viên vận hành
Đây là giai đoạn trưởng thành cao hơn.
AI không còn chờ con người ra lệnh từng bước.
AI bắt đầu hoạt động chủ động.
Khác biệt lớn nằm ở control loop.
Chatbot:
Human asks → AI answers
Operational AI:
Observe → Analyze → Plan → Act → Re-evaluate
Ví dụ trong NOC.
AI phát hiện latency tăng bất thường.
Nó không chỉ cảnh báo.
Nó tiếp tục:
Sau đó AI gửi:
“Khả năng cao uplink ISP packet loss 18%.”
Hoặc trong SecOps.
AI phát hiện:
Sau đó:
AI lúc này giống một teammate hơn là assistant.
Góc nhìn dành cho kỹ sư networking và infrastructure
Đây là thay đổi rất lớn.
Trước đây AI hỗ trợ kỹ sư mạng theo kiểu:
Trong tương lai gần, AI sẽ hỗ trợ trực tiếp trên hạ tầng thật.
Ví dụ tích hợp với:
Một yêu cầu như:
“Kiểm tra site Đà Nẵng bị mất kết nối.”
sẽ không còn là bài toán hỏi đáp.
AI sẽ thực hiện chuỗi kiểm tra thực tế.
Điều này khiến kỹ năng của kỹ sư cũng phải thay đổi.
Họ cần hiểu:
Kết luận
Sự tiến hóa của AI Agent phản ánh một thay đổi kiến trúc rất sâu sắc.
Ban đầu AI chỉ là chatbot tri thức.
Sau đó AI được chuyên biệt hóa bằng prompt.
Tiếp theo AI được kết nối với công cụ để hành động.
Cuối cùng AI trở thành thành viên vận hành chủ động.
Hành trình này có thể tóm tắt:
Curiosity Chat
↓
Prompt Engineering
↓
Tool-Enhanced Agents
↓
Proactive AI Teammates
Đối với cộng đồng kỹ thuật, đây không chỉ là câu chuyện công nghệ mới.
Đây là sự chuyển đổi cách vận hành hệ thống CNTT.
Từ chỗ con người tự thao tác từng bước, chúng ta đang tiến đến mô hình nơi AI tham gia trực tiếp vào workflow kỹ thuật.
Câu hỏi không còn là AI có biết trả lời hay không.
Câu hỏi là:
AI có thể cùng bạn vận hành hạ tầng hay chưa?
Khi nói về AI ngày nay, nhiều người vẫn hình dung đến một chatbot thông minh có thể trả lời câu hỏi, viết email, hỗ trợ lập trình hoặc giải thích kiến thức kỹ thuật. Cách nhìn này không sai, nhưng nếu chỉ dừng ở đó thì chúng ta mới chỉ quan sát một phần rất nhỏ của bức tranh lớn hơn.
AI đang tiến hóa rất nhanh.
Điều quan trọng với giới kỹ thuật, đặc biệt là các kỹ sư hạ tầng, networking, cloud, DevOps và security, là hiểu rằng AI không chỉ đang trở nên “thông minh hơn”, mà đang chuyển dịch từ mô hình hệ thống hội thoại phản hồi theo yêu cầu sang mô hình thực thể có khả năng hành động, cộng tác và tham gia trực tiếp vào quy trình vận hành kỹ thuật.
Hình minh họa mô tả khá rõ hành trình phát triển này. Đây không đơn giản là sự thay đổi về giao diện người dùng, mà là sự thay đổi về kiến trúc hệ thống AI.
Giai đoạn đầu: Curiosity Chat Phase – AI như một chatbot tri thức
Giai đoạn đầu tiên của AI hiện đại có thể gọi là thời kỳ chatbot hội thoại tổng quát.
Đây là giai đoạn mà hầu hết người dùng tiếp cận AI theo kiểu khám phá.
Họ mở chatbot lên và thử hỏi:
AI có thể làm gì?
Một kỹ sư mạng có thể hỏi:
“Lệnh kiểm tra OSPF neighbor là gì?”
“Giải thích sự khác nhau giữa STP và RSTP.”
“Viết giúp tôi cấu hình NAT overload.”
Một kỹ sư cloud có thể hỏi:
“Azure Availability Zone khác gì Availability Set?”
Một kỹ sư bảo mật có thể hỏi:
“Giải thích attack chain của ransomware.”
Ở giai đoạn này, AI chủ yếu đóng vai trò là một kho tri thức tương tác.
Mô hình hoạt động rất đơn giản:
Người dùng đưa yêu cầu, AI sinh phản hồi.
Kiến trúc thực tế:
User → Prompt → LLM → Response
Điểm mạnh của mô hình này là tốc độ tiếp cận cực nhanh.
Không cần lập trình.
Không cần tích hợp hệ thống.
Không cần quyền truy cập hạ tầng.
Chỉ cần giao diện chat.
Nhưng đây cũng là giới hạn lớn nhất.
AI chỉ có thể suy luận trên dữ liệu đã được huấn luyện hoặc context được cung cấp trong phiên làm việc.
AI không thể:
- đăng nhập router
- đọc log hệ thống
- query database
- gọi monitoring API
- kiểm tra trạng thái thiết bị thực
Điều này khiến AI giống một chuyên gia tư vấn hơn là một kỹ sư vận hành.
Prompt Engineering Era – khi AI trở thành trợ lý chuyên biệt
Sau một thời gian sử dụng, cộng đồng kỹ thuật nhận ra rằng chất lượng kết quả phụ thuộc rất nhiều vào cách đặt câu hỏi.
Từ đó hình thành khái niệm Prompt Engineering.
Đây là giai đoạn AI bắt đầu được “chuyên biệt hóa” bằng ngôn ngữ.
Thay vì hỏi:
“Giải thích BGP.”
Người dùng chuyển sang:
“Hãy đóng vai CCIE Enterprise và giải thích BGP route reflector trong môi trường ISP.”
Hoặc:
“Hãy đóng vai DevOps engineer và viết Terraform triển khai VPC trên AWS.”
Sự thay đổi này rất quan trọng.
AI không còn là chatbot chung chung.
AI bắt đầu được định hình vai trò.
Kiến trúc tư duy:
Role + Context + Constraints + Task
Ví dụ:
Bạn là chuyên gia SOC.
Phân tích log sau.
Xác định IOC.
Đề xuất containment.
Kết quả thường tốt hơn nhiều.
Trong môi trường đào tạo kỹ thuật, đây là bước tiến lớn vì AI có thể đóng vai:
- instructor
- mentor
- troubleshooter
- architect
- code reviewer
Nhưng dù prompt tốt đến đâu, AI vẫn chưa vượt qua giới hạn cơ bản.
Nó vẫn chưa thể tương tác trực tiếp với thế giới thực.
Tool-Enhanced Agents – bước chuyển từ AI biết sang AI làm
Đây là bước tiến quan trọng nhất trong sự tiến hóa của AI Agent.
Khi AI được kết nối với công cụ bên ngoài, nó không còn chỉ là hệ thống trả lời câu hỏi.
Nó bắt đầu trở thành hệ thống có khả năng thực thi.
Kiến trúc thay đổi đáng kể:
User
↓
LLM
↓
Agent Runtime
↓
Tools / APIs / Systems
Ở đây AI có thể sử dụng:
- REST APIs
- file systems
- databases
- CLI tools
- automation frameworks
- monitoring platforms
- ticketing systems
Ví dụ một AI Agent có thể:
đọc file cấu hình từ repository,
truy vấn NetBox để lấy inventory,
gọi Catalyst Center API để kiểm tra interface,
query Splunk để lấy log,
gọi Ansible playbook để chạy diagnostic.
Điều này thay đổi hoàn toàn bản chất của AI.
Ví dụ trước đây khi hỏi:
“Site branch bị mất kết nối WAN.”
AI chỉ có thể suy đoán:
- ISP issue
- interface down
- routing problem
Nhưng với tool access, AI có thể thực hiện:
show interface
show ip route
show bgp summary
query logs
check telemetry
Rồi đưa ra kết luận dựa trên dữ liệu thật.
Đây là sự chuyển dịch từ:
knowledge assistant
sang
operational agent
Vai trò của MCP trong giai đoạn này
Để AI kết nối với công cụ, cần một chuẩn giao tiếp.
Đây là nơi Model Context Protocol (MCP) xuất hiện.
MCP đóng vai trò như một lớp chuẩn hóa giữa AI và hệ thống bên ngoài.
Thay vì mỗi tool có integration riêng, MCP định nghĩa cách AI:
- khám phá công cụ
- gọi công cụ
- nhận phản hồi
- tiếp tục reasoning
Kiến trúc:
LLM
↓
MCP Client
↓
MCP Server
↓
Enterprise Tools
Ví dụ AI có thể hỏi:
“Có tool nào để kiểm tra network?”
MCP server trả:
show_interfaces
check_bgp
query_netbox
get_syslogs
run_playbook
AI tự chọn công cụ phù hợp.
Đây là nền tảng của Agentic AI.
Proactive Teammates – AI như một thành viên vận hành
Đây là giai đoạn trưởng thành cao hơn.
AI không còn chờ con người ra lệnh từng bước.
AI bắt đầu hoạt động chủ động.
Khác biệt lớn nằm ở control loop.
Chatbot:
Human asks → AI answers
Operational AI:
Observe → Analyze → Plan → Act → Re-evaluate
Ví dụ trong NOC.
AI phát hiện latency tăng bất thường.
Nó không chỉ cảnh báo.
Nó tiếp tục:
- kiểm tra interface counters
- phân tích routing changes
- query incident history
- so sánh baseline telemetry
- đánh giá mức độ ảnh hưởng
Sau đó AI gửi:
“Khả năng cao uplink ISP packet loss 18%.”
Hoặc trong SecOps.
AI phát hiện:
- suspicious login
- privilege escalation
- anomalous API activity
Sau đó:
- correlate events
- gom evidence
- mở incident ticket
- đề xuất containment
AI lúc này giống một teammate hơn là assistant.
Góc nhìn dành cho kỹ sư networking và infrastructure
Đây là thay đổi rất lớn.
Trước đây AI hỗ trợ kỹ sư mạng theo kiểu:
- viết config
- giải thích giao thức
- troubleshoot lý thuyết
Trong tương lai gần, AI sẽ hỗ trợ trực tiếp trên hạ tầng thật.
Ví dụ tích hợp với:
- Cisco Catalyst Center
- Meraki
- ThousandEyes
- Splunk
- NetBox
- Ansible
- ServiceNow
- Secure Firewall
- Kubernetes
- AWS
- Azure
Một yêu cầu như:
“Kiểm tra site Đà Nẵng bị mất kết nối.”
sẽ không còn là bài toán hỏi đáp.
AI sẽ thực hiện chuỗi kiểm tra thực tế.
Điều này khiến kỹ năng của kỹ sư cũng phải thay đổi.
Họ cần hiểu:
- API
- automation
- orchestration
- tool integration
- agent architecture
- AI governance
Kết luận
Sự tiến hóa của AI Agent phản ánh một thay đổi kiến trúc rất sâu sắc.
Ban đầu AI chỉ là chatbot tri thức.
Sau đó AI được chuyên biệt hóa bằng prompt.
Tiếp theo AI được kết nối với công cụ để hành động.
Cuối cùng AI trở thành thành viên vận hành chủ động.
Hành trình này có thể tóm tắt:
Curiosity Chat
↓
Prompt Engineering
↓
Tool-Enhanced Agents
↓
Proactive AI Teammates
Đối với cộng đồng kỹ thuật, đây không chỉ là câu chuyện công nghệ mới.
Đây là sự chuyển đổi cách vận hành hệ thống CNTT.
Từ chỗ con người tự thao tác từng bước, chúng ta đang tiến đến mô hình nơi AI tham gia trực tiếp vào workflow kỹ thuật.
Câu hỏi không còn là AI có biết trả lời hay không.
Câu hỏi là:
AI có thể cùng bạn vận hành hạ tầng hay chưa?