TROISINH
Hiểu bản chấtLLM & Mô hình ngôn ngữ

Vì sao AI trả lời sai?

Hiểu rõ nguyên nhân AI và LLM đưa ra thông tin sai lệch từ cơ chế dự đoán token, giới hạn dữ liệu huấn luyện đến hiện tượng hallucination.

Định nghĩa

AI trả lời sai khi mô hình ngôn ngữ sinh ra nội dung không chính xác, lỗi thời, hoặc hoàn toàn bịa đặt, bất chấp cách diễn đạt có vẻ tự tin và logic. Đây là hệ quả tất yếu từ cơ chế dự đoán xác suất của Large Language Model kết hợp với giới hạn của dữ liệu huấn luyện và ngữ cảnh suy luận.

Giải thích chi tiết

Cơ chế dự đoán token và thiếu hiểu biết thực sự

Large Language Model không "biết" sự thật theo cách con người hiểu. Thay vào đó, chúng thực hiện next-token-prediction — tính toán xác suất từ nào có khả năng xuất hiện tiếp theo dựa trên quy luật đã học. Khi chuỗi từ được sinh ra, mô hình không kiểm tra lại với cơ sở dữ liệu tri thức nào, cũng không có khả năng phân biệt giữa "điều phổ biến" và "điều đúng".

Ví dụ: Nếu trong dữ liệu huấn luyện có nhiều bài viết lan truyền thông tin sai lệch về "uống nước chanh nóng chữa ung thư", mô hình có thể sinh ra câu trả lời ủng hộ quan điểm này vì đó là mẫu ngôn ngữ phổ biến, không phải vì đó là sự thật y học. AI học được tương quan thống kê, không học được quan hệ nhân quả.

Dữ liệu huấn luyện bị nhiễu và lỗi thời

Quá trình training AI tiêu thụ hàng nghìn tỷ token từ Internet. Dataset này chứa đầy rẫy:

  • Thông tin lỗi thời (ví dụ: luật pháp từ năm 2020 đã sửa đổi)
  • Quan điểm chủ quan được viết như sự thật
  • Dữ liệu sai do nhập liệu hoặc hiểu nhầm
  • Nội dung hư cấu bị nhầm lẫn với sự kiện thực

Mô hình ghi nhận pattern ngôn ngữ từ dữ liệu quá khứ. Nếu dữ liệu cắt ở tháng 4/2024, AI sẽ trả lời sai về sự kiện diễn ra tháng 6/2024, hoặc đưa ra thông tin cũ về CEO công ty đã thay đổi nhân sự cấp cao.

Hallucination - Khi AI "bịa chuyện" tự tin

Hallucination là hiện tượng AI tạo ra thông tin hoàn toàn hư cấu nhưng trình bày như sự thật. Điều này xảy ra khi mô hình cố gắng "lấp đầy" khoảng trống kiến thức bằng cách sinh ra nội dung nghe có vẻ hợp lý về mặt ngữ pháp và ngữ nghĩa, nhưng không có cơ sở thực.

Đặc biệt nguy hiểm khi AI bịa ra:

  • Trích dẫn học thuật không tồn tại (tên tác giả, tên bài báo, số trang)
  • Điều khoản pháp luật không có trong văn bản
  • Số liệu thống kê sai lệch không có nguồn

Giới hạn ngữ cảnh và hiểu nhầm yêu cầu

Mô hình có thể trả lời sai do:

  • Context window: Không đọc hết tài liệu dài, bỏ sót thông tin quan trọng ở giữa văn bản
  • Ambiguity: Hiểu sai ngữ nghĩa câu hỏi (ví dụ: "Apple" là công ty hay quả táo)
  • Over-optimization: Cố gắng làm hài lòng người dùng bằng cách đưa ra câu trả lời có vẻ hoàn chỉnh thay vì thừa nhận không biết

Kiến thức thời gian thực và cụ thể

LLM không kết nối Internet trong quá trình suy luận (trừ khi có công cụ tìm kiếm tích hợp). Do đó:

  • Không biết tin tức hôm nay, giá chứng khoán hiện tại
  • Không cập nhật luật pháp mới ban hành ở Việt Nam
  • Không biết thông tin địa phương cụ thể (ví dụ: tình trạng giao thông tại Hà Nội ngay lúc này)

Ví dụ thực tế

Luật pháp Việt Nam lỗi thời

Khi hỏi ChatGPT về "Luật Đất đai 2024 có điều khoản gì mới về hạn mức đất ở nông thôn?", AI có thể trả lời sai hoặc dựa trên Luật 2013 vì dữ liệu huấn luyện cắt ngang trước thời điểm ban hành văn bản mới, hoặc tệ hơn — bịa ra điều khoản không tồn tại để trông có vẻ chuyên sâu.

Bịa đặt văn bản pháp lý

Một luật sư tại Việt Nam từng dùng AI để tìm tiền lệ vụ án về tranh chấp hợp đồng mua bán điện tử. AI đưa ra tên vụ án, số hiệu bản án, và trích dẫn chi tiết — tất cả đều nghe có lý. Nhưng khi tra cứu trên Cổng thông tin điện tử Tòa án, vụ án đó không hề tồn tại. AI đã hallucination để "lấp đầy" yêu cầu.

Sai lệch về dữ liệu địa phương

Hỏi AI về "tuyến Metro số 1 tại Thành phố Hồ Chí Minh đã vận hành chưa?" vào tháng 12/2024. Nếu dữ liệu huấn luyện cũ, AI trả lời "đang thi công" trong khi thực tế đã khai thác thương mại. Hoặc AI có thể đưa ra thông tin sai về tuyến đường, ga tàu do nhầm lẫn với tài liệu quy hoạch cũ.

Ứng dụng và cách phòng tránh

Sinh viên và học sinh

Không trích dẫn AI như nguồn sơ cấp cho luận văn, bài tập lớn. Luôn kiểm chứng thông tin qua:

  • Cơ sở dữ liệu học thuật (Google Scholar, IEEE)
  • Văn bản pháp luật chính thức (thuvienphapluat.vn, vbpl.vn)
  • Báo cáo tài chính công ty (niêm yết trên HOSE, HNX)

Dùng AI để tìm hướng nghiên cứu, không dùng để lấy số liệu hay trích dẫn chính xác.

Người đi làm chuyên nghiệp

Trong môi trường doanh nghiệp:

  • Tài chính - Kế toán: Không dùng AI để tra cứu thuế, chính sách mới. Dùng cơ sở dữ liệu của Tổng cục Thuế.
  • Marketing: Kiểm chứng số liệu thị trường AI đưa ra qua báo cáo của Nielsen, Kantar, hoặc Tổng cục Thống kê.
  • Pháp chế: Luôn đối chiếu với văn bản gốc trên Cổng thông tin pháp luật.

Doanh nghiệp và nhà phát triển

Triển khai Retrieval-Augmented Generation (RAG) để giảm thiểu lỗi:

  • Kết nối AI với cơ sở dữ liệu nội bộ cập nhật thay vì dựa vào kiến thức huấn luyện chung
  • Thiết lập system prompt yêu cầu AI trả lời "Không biết" thay vì bịa đặt
  • Dùng các công cụ kiểm chứng tự động cho output trước khi đưa đến người dùng cuối

So sánh: Các dạng lỗi của AI

Loại lỗiNguyên nhân chínhMức độ nguy hiểmDấu hiệu nhận biết
Lỗi thời gianDữ liệu huấn luyện có thời điểm cắt (cut-off)Trung bìnhThông tin về sự kiện sau thời điểm dữ liệu cắt
HallucinationCơ chế dự đoán token tạo mẫu hợp lý nhưng sai thực tếCaoTrích dẫn không tồn tại, số liệu quá chi tiết nhưng không tra được nguồn
BiasDữ liệu huấn luyện thiên lệch văn hóa, giới tínhTrung bìnhLuôn đưa ra quan điểm một chiều với các nhóm cụ thể
Hiểu nhầm ngữ nghĩaPrompt không rõ ràng, context window hạn chếThấpTrả lời đúng câu hỏi khác với ý người hỏi

Kết luận: Lỗi của AI không phải do "độc ác" hay cố ý, mà là đặc tính kỹ thuật của mô hình xác suất. Hallucination và lỗi thời gian là hai dạng phổ biến nhất cần cảnh giác trong ứng dụng thực tế.

Bài viết liên quan

Cùng cụm (LLM Fundamentals)

Đọc tiếp

  • Prompt nâng cao — Học cách viết prompt để giảm thiểu lỗi sai và hallucination thông qua kỹ thuật few-shot, chain-of-thought
  • Transformer Architecture — Đi sâu kiến trúc kỹ thuật giúp hiểu tại sao attention mechanism có thể dẫn đến thông tin sai lệch
  • Machine Learning — Quay lại nền tảng để hiểu mối liên hệ giữa ML và lỗi dự đoán

On this page