AI Agent là gì? Khác gì chatbot thông thường — Từ ChatGPT đến Devin
Phân biệt rõ AI Agent, chatbot và assistant. Hiểu vòng lặp Observe-Think-Act và tại sao agent có thể tự đặt vé máy bay còn chatbot chỉ trả lời câu hỏi.
Bạn đã từng dùng ChatGPT để hỏi "Làm sao đặt vé máy bay giá rẻ?". Nó trả lời rất hay: hướng dẫn từng bước, gợi ý app, cảnh báo scam. Nhưng khi bạn bảo "Đặt giúp tôi vé đi Đà Nẵng tuần sau", ChatGPT dừng lại. Nó không thể thực sự mở trình duyệt, nhập thông tin, thanh toán. Khoảng cách giữa "trả lời" và "làm" chính là ranh giới giữa chatbot và AI Agent.
Vấn đề
Từ năm 2022, hàng triệu người tiếp xúc với AI qua ChatGPT, Claude hay Gemini. Họ nhận được câu trả lời mượt mà, hữu ích, và tự nhiên cho rằng: "Đây là AI đỉnh cao rồi". Nhưng khi doanh nghiệp cố gắng tự động hóa quy trình — ví dụ: "Tự động kiểm tra hàng tồn kho, gửi báo giá cho khách, rồi tạo đơn hàng khi khách đồng ý" — chatbot thông thường bó tay.
Vấn đề không phải LLM (Large Language Model) thiếu thông minh, mà thiếu cơ chế hành động liên tục. Chatbot truyền thống hoạt động kiểu "ping-pong": người dùng gửi một tin nhắn, AI phản hồi một lần, kết thúc. Không có trạng thái (state) được duy trì giữa các lượt chat, không có khả năng gọi API bên ngoài để thực sự "làm việc", và không có khả năng lập kế hoạch nhiều bước để đạt mục tiêu dài hạn.
Kết quả là "agent washing" — các công ty gán mác "AI Agent" cho những chatbot chỉ hơi thông minh hơn FAQ cũ, gây nhầm lẫn cho cả developer lẫn người dùng cuối về giới hạn thực sự của công nghệ.
Ý tưởng cốt lõi
AI Agent (trong ngữ cảnh 2026) là một hệ thống tự chủ (autonomous system) sử dụng LLM làm "bộ não" để lập kế hoạch, sử dụng công cụ, và thực hiện nhiệm vụ nhiều bước mà không cần con người nhắc nhở từng bước. Bản chất của agent nằm trong vòng lặp Observe → Think → Act → Feedback.
Hãy tưởng tượng sự khác biệt khi bạn yêu cầu:
Chatbot thông thường:
Người dùng: "Tìm vé máy bay Hà Nội - Đà Nẵng ngày 15/8"
→ ChatGPT trả lời: "Bạn nên dùng Traveloka, Vietnam Airlines, giá khoảng 2-3 triệu..."
→ Kết thúc. Bạn tự mở app đặt.AI Agent:
Người dùng: "Tìm và đặt giúp vé đi Đà Nẵng tuần sau, ghế aisle, giá dưới 3 triệu"
Agent bắt đầu vòng lặp:
1. Observe (Nhận thức):
- Parse: Điểm đi Hà Nội, điểm đến Đà Nẵng, ngày linh động (tuần sau), constraint: ghế aisle, budget <3M
2. Think (Lập kế hoạch):
- Bước 1: Mở browser, search Google Flights/Vietnam Airlines
- Bước 2: Lọc chuyến có ghế aisle còn trống
- Bước 3: So sánh giá, chọn dưới 3M
- Bước 4: Nếu tìm được → giữ chỗ, gửi link xác nhận cho user
- Bước 5: Chờ user confirm mới thanh toán (guardrail)
3. Act (Hành động):
- Gọi tool: browser.navigate("vietnamairlines.com")
- Gọi tool: form.fill({from: "HAN", to: "DAD", date: "2026-08-15"})
- Gọi tool: scraper.extract_seat_map() → tìm ghế aisle
- Gọi tool: calendar.check_availability("2026-08-15") → tránh trùng lịch họp
4. Observe (Feedback):
- Thấy giá 2.8M, ghế 12A còn trống
- Nhưng phát hiện: user từng nói "không bay Vietjet" trong memory cũ
- Adjust: Loại bỏ Vietjet, chỉ còn VNA 3.1M (vượt budget)
5. Think (Re-plan):
- Budget vượt 3M. Quyết định: Báo cáo user, đề xuất 3.1M hoặc đổi ngày
6. Act (Output):
- Gửi Zalo/Telegram: "Tìm được VNA 3.1M ghế 12A, hoặc 2.9M ngày 16/8. Chọn?""À, ra vậy" moment: Agent không phải là một loại LLM khác biệt. Agent là kiến trúc tổ chức xung quanh LLM — thêm vào đó trí nhớ (memory) để nhớ bạn thích ghế aisle, thêm "tay chân" (tools) để thực sự click chuột, và thêm một vòng lặp kiểm soát để tự điều chỉnh khi gặp bất ngờ (vượt budget).
Tại sao nó hoạt động
Sự khác biệt then chốt nằm ở non-determinism có kiểm soát. Chatbot truyền thống là deterministic: input A → output B cố định. Agent chấp nhận rằng thế giới bên ngoài (giá vé, tình trạng ghế) thay đổi liên tục, nên cần feedback loop để liên tục đồng bộ "mental model" với reality.
Ba yếu tố làm nên sức mạnh của agent:
-
Tool Use (MCP/Function Calling): LLM không chỉ sinh text mà sinh "lệnh gọi hàm" (function call). Agent có thể gọi API đặt vé, chạy code Python phân tích giá, hoặc dùng browser tự động. Đây là "tay chân" biến suy nghĩ thành hành động.
-
Memory phân tầng: Không phải chỉ "nhớ 10 tin nhắn trước". Agent có episodic memory (nhớ chuyến bay lần trước bạn kêu đau lưng nên cần ghế gần lối đi), semantic memory (biết "aisle" nghĩa là gì, biết rule đổi vé của Vietnam Airlines), và procedural memory (biết quy trình đặt vé gồm 5 bước).
-
Planning & Reflection: Agent tự chia nhỏ task ("sub-agent decomposition"). Khi thấy giá vượt budget, nó không chết máy mà replan — giống như bạn đi đường bị kẹt xe thì rẽ trái. Cơ chế này gọi là ReAct (Reasoning + Acting) hoặc Reflexion.
Trade-off rõ ràng: Agent tốn nhiều token hơn (nhiều lượt gọi LLM), latency cao hơn (phải chờ tool thực thi), và rủi ro cascade error (sai ở bước 1 sẽ lan ra bước 5). Nhưng bù lại, nó giải quyết được long-horizon tasks — những việc cần 10-20 bước mà chatbot đơn thuần không thể chạm tới.
Ý nghĩa thực tế
| Tiêu chí | Chatbot truyền thống | AI Assistant (ChatGPT) | AI Agent (Devin/AutoGPT) |
|---|---|---|---|
| Tương tác | 1 lượt (hỏi-đáp) | Nhiều lượt, ngữ cảnh ngắn | Nhiều lượt, có kế hoạch dài hạn |
| Hành động | Chỉ trả lời text | Gợi ý code/text | Tự chạy code, gọi API, điều khiển browser |
| Trí nhớ | Không hoặc rất ngắn | Context window (tạm) | Persistent memory, nhớ user preferences |
| Mục tiêu | Trả lời đúng | Hoàn thành prompt | Hoàn thành task cuối cùng |
| Ví dụ thực | FAQ Zalo OA, tra cứu đơn hàng | ChatGPT, Claude chat | Devin (software engineer), research agent tự tìm tài liệu |
Ai đang dùng thực sự:
- Devin (Cognition Labs): Là agent lập trình viên — nhận spec, tự viết code, debug, push lên GitHub, sửa lỗi CI/CD.
- Claude Code (Anthropic): Agent trong terminal — tự refactor codebase, chạy test, commit.
- Zalo OA nâng cao: Không chỉ trả lời FAQ mà agent tự kiểm tra tồn kho qua API, gửi báo giá, tạo đơn hàng trong MongoDB, rồi notify khách qua ZNS.
Giới hạn cần biết:
- Không phải AGI: Agent 2026 vẫn cần người định nghĩa tools, guardrails, và mục tiêu rõ ràng. Nó không tự sinh ra mục đích sống.
- Cần giám sát: Agent có thể lặp vô hạn ("infinite loop") nếu feedback sai, hoặc làm điều nguy hiểm nếu không có permission model (tách "muốn làm" vs "được phép làm").
- Chi phí: Một agent chạy 30 phút để research có thể tốn 0.01.
Đào sâu hơn
Tài liệu chính thức:
- Anthropic: Building effective agents — Giải thích mô hình Agent của Anthropic, workflow patterns
Cùng cụm — Agent Fundamentals:
Giải phẫu một AI Agent
Hiểu sâu cấu trúc Perception → Reasoning → Action và các thành phần bên trong
Agent vs Assistant vs Copilot
Phân biệt rõ 3 paradigm: Devin (Agent), ChatGPT (Assistant), GitHub Copilot (Copilot)
Agent Loop: Observe → Think → Act
Chi tiết vòng lặp phản hồi và cách agent tự điều chỉnh khi gặp lỗi
Đọc tiếp — Core Components:
Tools & Actions: Cách agent 'tự mở browser'
Hiểu cơ chế MCP và Function Calling để agent tương tác thực sự với thế giới bên ngoài
Memory & Context cơ bản
Agent nhớ thông tin như thế nào qua nhiều sessions và tại sao không bị "vàng não"
Mở rộng:
- What is an AI Agent? (Anthropic Blog) — Định nghĩa từ nhà phát triển Claude Code
- The Rise of AI Agents (a16z) — Phân tích xu hướng từ Andreessen Horowitz
Level 0: Làm quen Agent
24 bài nền tảng — agent fundamentals, core components, framework landscape và getting started với GoClaw/OpenClaw.
Giải phẫu một AI Agent: Perception → Reasoning → Action
Cấu trúc cốt lõi của AI Agent qua 3 thành phần: Perception (nhận thức), Reasoning (suy luận), Action (hành động). Hiểu rõ sự khác biệt với chatbot thông thường.