TROISINH
Hiểu bản chấtLLM & Mô hình ngôn ngữ

Hallucination là gì?

Tại sao AI bịa đặt thông tin dù nghe rất thuyết phục? Hiểu đúng về Hallucination trong LLM để sử dụng AI an toàn và hiệu quả hơn.

Định nghĩa

Hallucination trong AI là hiện tượng Large Language Model (LLM) sinh ra nội dung nghe có vẻ hợp lý, mạch lạc và tự tin nhưng thực chất là sai sự thật, bịa đặt hoặc không có căn cứ kiểm chứng. Đây không phải là "lỗi" theo nghĩa kỹ thuật thông thường, mà là đặc tính của cơ chế dự đoán xác suất (next-token-prediction) khi model không có khả năng tra cứu sự thật từ cơ sở dữ liệu bên ngoài.

Giải thích chi tiết

Tại sao LLM lại "bịa chuyện"?

Căn nguyên nằm ở cách mô hình ngôn ngữ hoạt động. LLM không "hiểu" sự thật khách quan hay "nhớ" kho kiến thức như encyclopedia. Nó chỉ là máy dự đoán pattern: nhận vào chuỗi token và tính toán xác suất token tiếp theo dựa trên thống kê từ dữ liệu huấn luyện.

Khi gặp câu hỏi về thông tin không có trong training data, hoặc khi prompt yêu cầu sự chắc chắn, model vẫn phải sinh ra output vì nó được tối ưu hóa để "helpful" (hữu ích) thay vì "honest" (trung thực). Thay vì nói "tôi không biết", nó điền vào khoảng trống bằng cách ghép các pattern quen thuộc thành câu mới — giống như não bộ con người tạo ra ký ức giả (confabulation) khi bị áp lực phải trả lời.

Hallucination không phải là "nói dối"

Quan trọng: AI không có ý định lừa dối. Hallucination khác với lying ở chỗ không có mục đích, không có nhận thức về tính sai của thông tin. Đây là lý do tại sao AI trả lời sai một cách rất tự tin, không ngờ vực. Model thực sự "tin" rằng pattern nó sinh ra là hợp lý theo ngữ cảnh thống kê.

Các dạng Hallucination phổ biến

  • Factual Hallucination: Bịa đặt sự kiện, ngày tháng, số liệu thống kê. Ví dụ: khẳng định "GDP Việt Nam năm 2023 đạt 500 tỷ USD" trong khi con số thực là ~409 tỷ USD.
  • Faithfulness Hallucination: Trả lời không trung thành với ngữ cảnh được cung cấp. Ví dụ: khi tóm tắt văn bản về chính sách A, model thêm vào chi tiết từ chính sách B mà không có trong input.
  • Source Hallucination: Bịa đặt nguồn trích dẫn. Ví dụ: "Theo nghiên cứu của Đại học Stanford năm 2024..." trong khi nghiên cứu đó không tồn tại, hoặc trích dẫn URL dẫn đến trang 404.

Ví dụ thực tế

Sinh viên tra cứu lịch sử Việt Nam Bạn hỏi ChatGPT: "Ai là người ký Hiệp định Giơnevơ 1954 thay mặt Việt Nam Dân chủ Cộng hòa?" AI có thể trả lời rất tự tin: "Thủ tướng Phạm Văn Đồng". Thực tế, Phạm Văn Đồng ký Hiệp định Paris 1973, còn Giơnevơ 1954 là do đại diện chính phủ Việt Nam Dân chủ Cộng hòa ký, nhưng tên cụ thể thường bị nhầm lẫn hoặc bịa đặt trong các câu trả lời của LLM nếu không có Retrieval-Augmented Generation (RAG).

Content creator viết kịch bản marketing Yêu cầu AI viết bài về "Thống kê người dùng Shopee Việt Nam năm 2024", model sinh ra: "Theo báo cáo mới nhất, Shopee có 35 triệu người dùng hoạt động hàng tháng, chiếm 72% thị phần". Con số này nghe rất thuyết phục, có vẻ chính xác với định dạng báo cáo, nhưng thực chất là hallucination — không có nguồn nào xác nhận con số cụ thể này tại thời điểm viết.

Lập trình viên dùng AI assistant Developer yêu cầu viết code tích hợp API VietQR để tạo mã QR ngân hàng. AI sinh ra đoạn code sử dụng thư viện vietqr-python với hàm generate_qr(bank_id, account_number), nhìn qua rất hợp lý, nhưng thực tế thư viện này không tồn tại hoặc API đã thay đổi từ năm 2022, dẫn đến lỗi runtime khi triển khai.

Ứng dụng

Hallucination không phải lúc nào cũng có hại — nó là con dao hai lưỡi phụ thuộc vào ngữ cảnh sử dụng:

Sinh viên sáng tạo nội dung Trong viết kịch bản phim, tiểu thuyết, hay brainstorming ý tưởng quảng cáo, hallucination trở thành lợi thế. AI có thể "bịa" ra các tình tiết hư cấu sáng tạo, nhân vật tưởng tượng, hoặc kết nối khái niệm không tưởng mà con người chưa nghĩ đến. Tuy nhiên, khi làm luận văn khoa học, cần tắt chế độ sáng tạo này bằng cách yêu cầu AI chỉ trích dẫn từ nguồn được cung cấp.

Người đi làm phân biệt nhiệm vụ

  • Creative tasks (viết content mạng xã hội, slogan, ý tưởng thiết kế): Chấp nhận hallucination như một dạng brainstorming.
  • Factual tasks (báo cáo tài chính, hợp đồng pháp lý, y khoa): Bắt buộc phải dùng kỹ thuật Prompt nâng cao như RAG, yêu cầu AI chỉ trả lời dựa trên tài liệu đính kèm, và luôn có "human-in-the-loop" kiểm chứng.

Doanh nghiệp triển khai AI Các công ty công nghệ Việt Nam khi xây dựng chatbot nội bộ (ví dụ: hỗ trợ nhân viên tra cứu quy trình) cần implement grounding techniques — neo AI vào cơ sở dữ liệu nội bộ thay vì để model tự do hallucinate. Đối với các ứng dụng y tế hoặc tư vấn pháp luật, hallucination là rủi ro pháp lý nghiêm trọng cần được giảm thiểu bằng fine-tuning và giới hạn domain knowledge.

So sánh

Khái niệmBản chấtNguyên nhân chínhCách nhận biết
HallucinationSinh ra thông tin mới, bịa đặt, không tồn tạiCơ chế next-token-prediction thiếu ground truthThông tin nghe hợp lý nhưng không tìm thấy nguồn gốc
BiasKết quả thiên lệch, không công bằngDataset huấn luyện mất cân bằngLuôn đưa ra kết luận nghiêng về một nhóm đặc định (giới tính, vùng miền)
ErrorSai sót về logic, toán học, hoặc syntaxGiới hạn năng lực reasoning của modelLỗi tính toán 13+27=30, hoặc code lỗi cú pháp rõ ràng
UncertaintyModel không chắc chắn nhưng thể hiện đúngThiếu dữ liệu hoặc câu hỏi mơ hồTrả lời "có thể", "tôi không chắc", hoặc đưa ra nhiều phương án

Hallucination nguy hiểm hơn Error thông thường vì nó mang mặt nạ của sự thật — nghe rất đúng, được trình bày tự tin, trong khi Error thường dễ nhận ra qua kiểm tra logic đơn giản. Bias trong AI là vấn đề hệ thống cần giải quyết ở tầng dữ liệu, còn Hallucination là vấn đề của kiến trúc inference cần kỹ thuật engineering để kiểm soát.

Bài viết liên quan

Cùng cụm (LLM Fundamentals):

Đọc tiếp:

  • Kỹ thuật Prompt nâng cao - Học cách dùng Chain-of-Thought và RAG để giảm thiểu hallucination trong thực tế
  • Kiến trúc Transformer - Hiểu sâu cơ chế Attention tạo nên khả năng sinh văn bản của LLM ở tầng kỹ thuật
  • Machine Learning cơ bản - Nền tảng về học máy để hiểu rõ hơn cách AI học từ dữ liệu và tại sao dễ bị "ảo giác"

On this page