10 lỗi prompt phổ biến và cách khắc phục
Từ mơ hồ đến quá tải - 10 sai lầm phổ biến khiến ChatGPT/Claude trả lời tệ và cách khắc phục chỉ trong 2 phút. Khắc phục ngay để AI hiểu đúng ý bạn.
Định nghĩa
Prompt tệ thường không phải do bạn "dùng sai cú pháp" — mà vì bạn đang đối xử với LLM như người bạn có chung ngữ cảnh sống, thay vì một engine xử lý xác suất tuần tự qua từng token. Mười lỗi phổ biến sau đây đều xuất phát từ sự hiểu lầm cơ chế đọc prompt của AI, và tất cả đều có thể khắc phục bằng thay đổi tư duy chứ không cần học thuộc lòng mẹo vặt.
Giải thích chi tiết
Lỗi 1: Hỏi như hỏi người bạn (thiếu ngữ cảnh)
Bạn viết: "Viết tiếp đoạn này cho hay".
Vấn đề: LLM không biết "đoạn này" là gì, "hay" theo tiêu chuẩn nào, hay dành cho đối tượng nào. LLM xử lý token độc lập theo từng phiên — chúng không có ký ức về cuộc trò chuyện trước đó của bạn nếu bạn không paste vào.
Khắc phục: Luôn tưởng tượng bạn đang gửi tin nhắn cho người lạ ở nước khác. Cần giải thích bối cảnh, paste đoạn văn cần viết tiếp, và mô tả rõ "hay" nghĩa là gì (hài hước? trang trọng? ngắn gọn?).
Lỗi 2: Nhét cả thế giới vào một prompt (Kitchen Sink)
Yêu cầu: "Viết bài content marketing về giày chạy bộ, SEO từ khóa, thêm hashtag, dịch sang tiếng Anh, và làm slide trình bày".
Vấn đề: Khi prompt chứa quá nhiều tác vụ không liên quan, xác suất LLM bỏ sót ràng buộc tăng theo cấp số nhân. Đây là hiện tượng "attention dilution" — mô hình phân tán sự chú ý và xử lý mỗi nhiệm vụ ở mức trung bình thay vì xuất sắc.
Khắc phục: Tách thành chuỗi prompt. Prompt 1: Viết content. Prompt 2: (dựa trên output 1) Thêm SEO. Prompt 3: Dịch sang tiếng Anh. Hoặc nếu buộc phải gộp, hãy dùng dấu phân cách rõ ràng như ### Task 1 ### Task 2.
Lỗi 3: Không chỉ định vai trò (No Persona)
Prompt: "Giải thích thuật toán Deep Learning".
Vấn đề: LLM mặc định ở chế độ "trợ lý chung chung". Nhưng nếu bạn không nói rõ là giải thích cho sinh viên năm nhất hay cho CTO có 20 năm kinh nghiệm, AI sẽ chọn mức độ trung bình — vừa khó hiểu với người mới, vừa quá sơ sài với chuyên gia.
Khắc phục: Thêm câu mở đầu: "Bạn là chuyên gia Machine Learning đang giải thích cho học sinh cấp 3..." hoặc "Bạn là tech lead viết tài liệu internal cho đội backend...".
Lỗi 4: Yêu cầu định dạng mơ hồ
Prompt: "Liệt kê ưu điểm".
Vấn đề: AI không biết bạn muốn dạng bullet points, bảng so sánh, hay đoạn văn liệt kê. Mỗi lần chạy lại có thể cho format khác nhau — khó tự động hóa.
Khắc phục: Chỉ định rõ: "Trả về dạng bảng Markdown với 2 cột: Ưu điểm và Giải thích ngắn gọn". Hoặc "Dùng bullet points, mỗi point bắt đầu bằng emoji 🔹".
Lỗi 5: Dùng phủ định thay vì chỉ định (Negation Trap)
Prompt: "Đừng viết quá dài, đừng dùng từ ngữ khó hiểu, không được lặp lại ý".
Vấn đề: LLM xử lý token theo xác suất xuất hiện. Từ "đừng" và "không" tạo nhiễu — mô hình vẫn tính toán xác suất cao cho từ "dài" và "khó hiểu" vì chúng xuất hiện ngay trong câu hướng dẫn của bạn.
Khắc phục: Nói thẳng muốn gì: "Viết ngắn trong 3 câu, dùng từ đơn giản như giải thích cho trẻ 10 tuổi, mỗi ý chỉ nói một lần".
Lỗi 6: Viết dài dòng như thư tình (Fluff)
Prompt: "Chào bạn, tôi rất vui vì hôm nay được hỏi bạn. Tôi có một vấn đề nhỏ nhỏ mong bạn giúp đỡ. Nếu bạn không phiền, có thể cho tôi biết..." (200 từ sau mới đến câu hỏi).
Vấn đề: LLM có Context Window giới hạn. Những từ "lịch sự" vô nghĩa chiếm chỗ token, làm loãng thông tin quan trọng. AI không cần được nịnh để hoạt động tốt.
Khắc phục: Bỏ lễ phép. Đi thẳng: "Tóm tắt văn bản sau, giới hạn 100 từ, giọng trang trọng. [paste văn bản]".
Lỗi 7: Không đưa ví dụ khi cần (Missing Examples)
Prompt: "Phân tích sentiment theo định dạng JSON với schema {positive, negative, neutral}" (schema phức tạp).
Vấn đề: Với định dạng phức tạp hoặc logic đặc biệt, LLM phải đoán ý bạn. 50% trường hợp đoán sai — ví dụ nhầm lẫn giữa "neutral" và "mixed", hoặc nhầm kiểu dữ liệu.
Khắc phục: Dùng One-shot prompting. Thêm: "Ví dụ: Input: 'Sản phẩm tạm được nhưng giao hàng chậm' → Output: {positive: 0.2, negative: 0.3, neutral: 0.5}".
Lỗi 8: Quá ngắn/thiếu ràng buộc
Prompt: "Viết code".
Vấn đề: AI phải đoán ngôn ngữ lập trình, chức năng, thư viện, style coding. Kết quả như xổ số — lần 1 ra Python, lần 2 ra JavaScript, lần 3 ra C++.
Khắc phục: Thêm constraint: "Viết hàm Python xử lý CSV dùng pandas, có type hint, xử lý lỗi null, return DataFrame". Mỗi constraint giảm không gian xác suất sai.
Lỗi 9: Chấp nhận kết quả đầu tiên (No Iteration)
Thực tế: Bạn viết prompt 1 lần, thấy kết quả chưa ưng, kết luận "AI ngu".
Vấn đề: Prompt Engineering là quá trình lặp — giống như debug code. Lỗi không nằm ở AI mà ở prompt chưa đủ thông tin để giới hạn không gian xác suất.
Khắc phục: Đọc kết quả, xác định chỗ sai, sửa prompt thêm ràng buộc. Lặp lại 3-5 lần là bình thường. Xem thêm bài về tư duy lặp lại.
Lỗi 10: Không kiểm tra "Poisoning" trong input
Prompt: "Tóm tắt: [paste 10 trang tài liệu từ nguồn không rõ độ tin cậy]".
Vấn đề: Nếu tài liệu chứa thông tin sai lệch, AI sẽ "tinh chỉnh" (hallucinate) để phù hợp với giả định sai đó. Bạn đang "đầu độc" context của AI bằng dữ liệu rác.
Khắc phục: Luôn thêm câu: "Nếu thông tin trong văn bản có vẻ sai lệch hoặc mâu thuẫn với kiến thức phổ biến, hãy chỉ ra và không tóm tắt phần đó".
Ví dụ thực tế
Tóm tắt email (Sửa lỗi 1 + 4)
Trước (Prompt tệ):
Tóm tắt cái này giúp tôi nha.
[paste email dài 3 trang]Sau (Prompt tốt):
Bạn là trợ lý hành chính. Tóm tắt email sau thành 3 bullet points:
(1) Người gửi cần gì,
(2) Deadline nếu có,
(3) Hành động tôi cần làm.
Dùng tiếng Việt trang trọng.
[paste email]Kết quả: Từ đoạn văn dài lan man, AI rút ra được "🔹 Yêu cầu: Báo cáo tài chính Q3 🔹 Deadline: 15/11/2024 🔹 Hành động: Gửi file Excel qua Google Drive" — sẵn sàng copy vào to-do list.
Kitchen sink vs Chained (Sửa lỗi 2)
Trước (Một prompt cho tất cả):
Viết bài LinkedIn về AI trong y tế, SEO từ khóa "Machine Learning",
thêm 5 hashtag, dịch sang tiếng Anh, và tạo ảnh minh họa bằng mô tả chi tiết.Sau (Chuỗi prompt rõ ràng):
Prompt 1: "Viết bài LinkedIn 300 từ về AI trong y tế, giọng chuyên gia nhưng dễ hiểu"
→ Nhận output
Prompt 2: "Thêm 5 hashtag phù hợp vào cuối bài viết trên"
→ Nhận output
Prompt 3: "Dịch toàn bộ bài viết và hashtag sang tiếng Anh chuẩn Mỹ"
→ Nhận output
Prompt 4: "Tạo prompt cho DALL-E để vẽ ảnh minh họa bài viết trên, phong cách minimal tech illustration"Kết quả: Mỗi bước chất lượng cao hơn hẳn so với việc ép AI làm tất cả trong một lần suy nghĩ duy nhất.
Phủ định vs Chỉ định (Sửa lỗi 5)
Trước:
Đừng viết lan man, đừng dùng từ khó AI như neural network hay gradient descent.Sau:
Viết ngắn gọn dưới 150 từ. Dùng từ ngữ đời thường, tránh thuật ngữ kỹ thuật.
Chỉ giải thích bằng khái niệm quen thuộc như "học từ ví dụ" hay "máy tự tìm quy luật".Kết quả: Bản sửa dụng từ positive ("hãy viết ngắn") thay vì negative ("đừng dài") giúp AI hiểu chính xác hơn 80% trường hợp.
Ứng dụng
Sinh viên
Tránh lỗi 1 (thiếu context) khi hỏi bài tập — luôn paste đề bài và ghi rõ "tôi học lớp 11, chương trình chuẩn, chưa học đạo hàm".
Tránh lỗi 6 (fluff) khi cần giải thích nhanh trước kỳ thi — bỏ "cho mình hỏi chút" để tiết kiệm token cho nội dung chính.
Người đi làm
Tránh lỗi 2 (kitchen sink) khi yêu cầu AI viết báo cáo đa năng — tách thành outline → draft → polish.
Tránh lỗi 4 (format) khi cần data cho Excel — yêu cầu output Markdown table để copy paste trực tiếp vào spreadsheet mà không cần chỉnh sửa.
Doanh nghiệp
Tránh lỗi 10 (poisoning) khi cho AI đọc tài liệu khách hàng gửi — thêm guardrail kiểm tra tính xác thực trước khi đưa vào hệ thống RAG.
Tránh lỗi 9 (no iteration) khi triển khai chatbot cho khách hàng — cần quy trình test và refine liên tục ít nhất 20 vòng với dữ liệu thực trước khi lên production.
So sánh
| Đặc điểm | Prompt tệ (Thiếu hiểu biết về LLM) | Prompt tốt (Tư duy Token & Probability) |
|---|---|---|
| Ngữ cảnh | Giả định AI "biết" bạn đang nói gì | Cung cấp đầy đủ background, paste nguyên văn khi cần |
| Cấu trúc | Nhiều yêu cầu lộn xộn trong 1 câu | Mỗi prompt một mục đích, hoặc phân tách rõ ràng |
| Vai trò | Không định nghĩa | Gán persona cụ thể (bác sĩ, lập trình viên, giáo viên) |
| Ràng buộc | Dùng "không", "đừng", "tránh" | Dùng "hãy", "cần", chỉ định positive |
| Định dạng | Để AI tự chọn | Chỉ định rõ: bullet, table, JSON, code |
| Ví dụ | Zero-shot với format phức tạp | One-shot hoặc Few-shot khi cần định dạng đặc biệt |
| Quy trình | Một lần viết, chấp nhận kết quả | Lặp lại 3-5 lần, debug như code |
Sự khác biệt cốt lõi nằm ở chỗ: prompt tốt được thiết kế cho engine xử lý xác suất — rõ ràng, có ràng buộc chặt chẽ, giới hạn không gian khả năng — trong khi prompt tệ giả định mình đang trò chuyện với một ý thức có khả năng suy luận ngầm.
Bài viết liên quan
Cùng cụm
Prompt Engineering là gì? Tại sao quan trọng
Hiểu bản chất Prompt Engineering trước khi đi sâu vào sửa lỗi cụ thể
LLM đọc prompt như thế nào?
Tại sao AI lại "hiểu sai"? Giải thích cơ chế Token và Probability
Giải phẫu một prompt tốt
5 thành phần cốt lõi để xây dựng prompt chuẩn từ đầu, tránh mắc lỗi căn bản
Tư duy lặp lại: Viết prompt như viết code
Tư duy debug và tinh chỉnh prompt thay vì chấp nhận kết quả đầu tiên
Đọc tiếp
Cụm Basic Techniques
Chuyển từ lý thuyết sang thực hành với Zero-shot, Few-shot Prompting — khi bạn đã biết tránh lỗi cơ bản
Cụm Advanced Techniques
Nâng cao với Chain-of-Thought, ReAct — xử lý bài toán phức tạp khi đã thành thạo nền tảng
Giải phẫu một prompt tốt: 5 thành phần cốt lõi
Khám phá 5 thành phần cốt lõi của prompt hiệu quả. Học cách truyền đạt ý định rõ ràng để AI trả lời chính xác ngay lần đầu tiên.
Tư duy lặp lại: Viết prompt như viết code — draft, test, refine
Bí quyết viết prompt hiệu quả không nằm ở việc viết đúng ngay lần đầu, mà ở tư duy lặp lại giống lập trình viên: thử nghiệm, đo lường và tinh chỉnh.