TROISINH
Context EngineeringNền tảng Context

Kiến trúc thông tin cho AI: Đưa gì, bỏ gì, thứ tự ra sao?

Cùng câu hỏi, cùng model, chỉ thay đổi thứ tự thông tin — AI trả lời khác hẳn. Học cách xây dựng kiến trúc thông tin để AI đọc hiểu đúng trọng tâm.

Định nghĩa

Information Architecture cho AI là nghệ thuật sắp xếp, lọc và trình bày thông tin trước khi đưa vào Context Window — quyết định AI "nhìn thấy" được gì, "bỏ qua" gì và "hiểu sai" gì. Không phải bạn đưa càng nhiều dữ liệu thì AI càng thông minh; mà là bạn đưa đúng thứ, đúng chỗ, đúng lúc.

Giải thích chi tiết

Hiện tượng "Lost in the Middle"

Nghiên cứu từ Stanford và UC Berkeley (2023) chứng minh: Large Language Models (LLMs) thường bỏ qua thông tin nằm ở giữa đoạn văn dài, dù context window còn trống. Đây không phải lỗi "không đủ bộ nhớ", mà là lỗi "chú ý" — kiến trúc Transformer bias về đầu và cuối chuỗi token.

Thực tế: Nếu bạn đưa 10 tài liệu vào prompt, đặt tài liệu quan trọng nhất ở vị trí thứ 5 — AI có thể trả lời như thể chưa từng đọc nó. Ngược lại, đặt cùng tài liệu đó ở đầu hoặc cuối, độ chính xác tăng đáng kể.

Nguyên tắc "Đưa gì, bỏ gì"

Context Window giống như bàn làm việc: không phải càng chất đầy giấy tờ thì càng hiệu quả. Information Architecture đặt câu hỏi:

  • Relevance trước Completeness: 3 trang liên quan trực tiếp tốt hơn 30 trang có cả thông tin nhiễu
  • Signal-to-noise ratio: Mỗi token không liên quan làm giảm chất lượng suy luận của các token liên quan
  • Progressive disclosure: Đưa tóm tắt trước, chi tiết sau nếu AI yêu cầu

Thứ tự thông tin

Cách bạn xếp thông tin quan trọng không kém việc chọn thông tin:

Hierarchical Structure: Đặt System Prompt (vai trò, nhiệm vụ) ở đầu; User Intent (câu hỏi cụ thể) ở cuối; Supporting Evidence (dữ liệu tham khảo) ở giữa nhưng phải được đánh dấu rõ ràng.

Chronological vs Reverse: Với lịch sử chat, đặt tin nhắn mới nhất ở cuối (gần câu hỏi nhất) thay vì đầu. Với timeline sự kiện, giữ nguyên trình tự thời gian nếu AI cần hiểu nhân quả.

The "Sandwich" Pattern: Instruction quan trọng nhất ở cuối (gần câu hỏi), nhắc lại ở đầu (định hướng), dữ liệu thô ở giữa.

Token Economics trong kiến trúc

Mỗi token trong context không đồng giá trị:

  • Vị trí đầu: Định hình hành vi toàn cục (system behavior) nhưng dễ bị "lấn át" bởi thông tin dài sau đó
  • Vị trí giữa: Rủi ro cao nhất bị bỏ qua, chỉ nên đặt thông tin phụ trợ có cấu trúc rõ ràng (bảng, bullet points)
  • Vị trí cuối: Ảnh hưởng mạnh nhất đến câu trả lời (recency bias), ideal cho câu hỏi cụ thể và constraint quan trọng

Ví dụ thực tế

RAG và thứ tự relevance

Bạn đang xây dựng chatbot hỗ trợ kỹ thuật. User hỏi: "Lỗi 404 khi upload file trên mobile app là gì?"

Kiến trúc A (thông thường): Đưa 10 tài liệu theo thứ tự tìm thấy (trộn lẫn API docs, mobile guide, backend logs). AI trả lời lan man, nhắc đến cả backend issues không liên quan.

Kiến trúc B (có IA):

  1. Đầu: System prompt ("Bạn là kỹ sư mobile, chỉ trả lời về mobile app")
  2. Giữa: 3 tài liệu relevance cao nhất (đều về mobile upload), dạng bullet trích dẫn
  3. Cuối: Câu hỏi user + constraint ("Chỉ trả lời trong 3 bước")

Kết quả: Cùng model (GPT-4), cùng dữ liệu, nhưng kiến trúc B cho đáp án chính xác gấp 3 lần.

Quản lý lịch sử chat

Chat dài 50 lượt tin nhắn. Context window còn chỗ cho 20 lượt.

Cách cắt thông thường: Giữ 20 tin nhắn gần nhất, xóa 30 tin đầu. Vấn đề: AI quên luôn vai trò và nhiệm vụ ban đầu (được định nghĩa ở system message đầu tiên).

Kiến trúc thông minh:

  • Luôn giữ message 1 (system) và message 2 (user intent ban đầu)
  • Xóa message 3-35 (middle history)
  • Giữ message 36-50 (recent context)

AI vừa nhớ vai trò, vừa nắm tình huống hiện tại, dù chỉ dùng 40% token so với cách cắt thông thường.

Multi-document analysis

Báo cáo tài chính Q3 gồm 15 file PDF. Thay vì đưa toàn bộ nội dung:

Information Architecture:

[Đầu] Tóm tắt điểm chính (do analyst viết): "Doanh thu tăng 20%, chi phí marketing tăng 35%"
[Giữa] Bảng so sánh chỉ số KPI (đã trích xuất, dạng markdown table)
[Cuối] Câu hỏi: "Đánh giá hiệu quả marketing"

Token count giảm từ 15.000 xuống 800. AI vẫn trả lời chính xác về hiệu quả marketing, vì đã có context "chi phí marketing tăng 35%" ngay đầu, không bị chìm trong 50 trang báo cáo.

Ứng dụng

Sinh viên: Học tập với AI tutor

Khi nhờ AI giải thích bài tập phức tạp, đừng paste cả chương trình + đề bài + code lỗi một lúc. Kiến trúc thông tin:

  1. Đầu: Yêu cầu vai trò ("Bạn là TA môn Machine Learning")
  2. Giữa: Code lỗi (ngắn gọn)
  3. Cuối: Câu hỏi cụ thể + điểm cần giải thích

Người đi làm: Viết báo cáo đa nguồn

Hợp nhất feedback từ 5 phòng ban. Thay vì dump tất cả email, tạo cấu trúc:

  • Mở đầu: Mục tiêu báo cáo
  • Thân: Bảng tổng hợp feedback (đã lọc trùng lặp)
  • Kết: Yêu cầu đề xuất giải pháp

Doanh nghiệp: Knowledge base cho support

Thiết kế RAG pipeline cho 10.000 bài viết help center. Kiến trúc thông tin ảnh hưởng trực tiếp đến retrieval quality:

  • Tài liệu được chunk và đánh số thứ tự ưu tiên
  • Metadata (tags, category) đặt ở đầu mỗi chunk
  • Câu hỏi user được "rewrite" thành dạng câu có context rõ ràng trước khi đưa vào cuối prompt

So sánh

Tiêu chíPrompt EngineeringInformation ArchitectureContext Engineering
Câu hỏi trung tâm"Hỏi gì?""Sắp xếp thế nào?""Đưa gì?"
FocusWording, tone, formatOrdering, filtering, hierarchyData source, memory, tool use
Phạm viCâu lệnh người dùngCấu trúc nội dung trong contextToàn bộ hệ thống thông tin
ImpactOutput styleComprehension accuracyCapabilities & scope
Ví dụ"Viết chuyên nghiệp hơn"Đặt thông tin quan trọng ở đầu/cuốiKết nối database, file upload

Kết luận: Prompt Engineering là nghệ thuật giao tiếp; Information Architecture là nghệ thuật tổ chức; Context Engineering là nghệ thuật cung cấp. Ba cấp độ này xây dựng lên nhau — prompt hay nhưng kiến trúc thông tin lộn xộn thì AI vẫn trả lời sai trọng tâm.

Bài viết liên quan

Cùng cụm

Context Engineering là gì?

Hiểu sự khác biệt giữa Prompt Engineering và Context Engineering — từ hỏi "viết gì" sang hỏi "đưa gì"

Context Window: Giới hạn bộ nhớ của AI

Hiểu rõ giới hạn token và cách AI "nhìn" thông tin — nền tảng để thiết kế kiến trúc thông tin hợp lý

Token là gì? Cách tính token và chi phí API

Học cách đếm token thực tế — mỗi quyết định kiến trúc thông tin đều ảnh hưởng trực tiếp đến chi phí và hiệu suất

Context Engineering vs Prompt Engineering

So sánh chi tiết hai paradigm — khi nào dùng prompt tối ưu, khi nào phải chuyển sang quản lý context

Đọc tiếp

System Prompt & Thực chiến

Trở về Level 0 để hiểu cách đặt system prompt ở đầu context — nền tảng của kiến trúc thông tin

Context Management

Chuyển sang cụm tiếp theo để học cách quản lý context động, caching và compression strategies

Retrieval & Knowledge

Khám phá RAG và cách lấy thông tin từ bên ngoài đưa vào context — ứng dụng kiến trúc thông tin vào hệ thống thực tế

On this page