TROISINH
Nhập mônTổng quan AI

Lịch sử phát triển AI: 70 năm từ giấc mơ đến ChatGPT

Hành trình 70 năm của AI từ Turing Test đến ChatGPT: qua các mùa đông kỹ thuật, bùng nổ Deep Learning và cách công nghệ thay đổi cuộc sống.

Định nghĩa

Lịch sử AI là quá trình phát triển của ngành khoa học máy tính nhằm tạo ra máy móc có khả năng "thông minh", từ những thuật toán đơn giản năm 1950 đến các mô hình ngôn ngữ khổng lồ như GPT-4 ngày nay.

Giải thích chi tiết

Khởi đầu: Giấc mơ và kỳ vọng quá lớn (1950–1974)

Mọi chuyện bắt đầu từ năm 1950, khi nhà toán học Alan Turing đặt câu hỏi nổi tiếng: "Máy móc có thể suy nghĩ không?" Ông đề xuất Turing Test — nếu một máy có thể trò chuyện khiến người không phân biệt được với người thật, thì ta có thể nói nó "thông minh".

Năm 1956, thuật ngữ "Artificial Intelligence" chính thức ra đời tại hội nghị Dartmouth. Các nhà khoa học lúc đó tin rằng: chỉ cần 20 năm nữa, máy móc sẽ làm được mọi việc như con người. Họ sai. Nhưng không phải vì ý tưởng sai — mà vì công nghệ chưa đủ.

Mùa đông AI thứ nhất: Khi kỳ vọng vỡ vụn (1974–1980)

Đến đầu thập niên 1970, các nhà tài trợ nhận ra: AI không như quảng cáo. Máy tính quá chậm, dữ liệu quá ít, và những bài toán "đơn giản" như nhận diện giọng nói hay dịch ngôn ngữ thực tế cực kỳ phức tạp.

Tài trợ bị cắt. Nghiên cứu đình trệ. Giai đoạn này gọi là "AI Winter" — mùa đông AI. Nhiều người tuyên bố AI chỉ là trò lừa đảo.

Hồi sinh: Chuyên gia hệ thống và học máy (1980–1997)

Thập niên 1980 chứng kiến sự trở lại của AI dưới dạng Expert Systems — các chương trình mô phỏng kiến thức của chuyên gia người. Ví dụ: hệ thống chẩn đoán bệnh dựa trên triệu chứng, tư vấn pháp lý, hỗ trợ địa chất.

Nhưng Expert Systems có giới hạn: chúng chỉ biết những gì được "cứng nhắc" lập trình sẵn, không thể tự học từ dữ liệu mới.

Cuối thập niên 1990, Machine Learning nổi lên như hướng đi mới: thay vì lập trình từng quy tắc, ta cho máy "học" từ ví dụ. Năm 1997, Deep Blue của IBM đánh bại cờ vua thế giới Garry Kasparov — cột mốc gây chấn động.

Internet và dữ liệu lớn: Nhiên liệu cho AI (1997–2012)

Sự bùng nổ Internet tạo ra thứ mà AI cần nhất: dữ liệu khổng lồ. Google Search, Amazon, Facebook — tất cả đều thu thập và phân tích hành vi người dùng để cá nhân hóa trải nghiệm.

Giai đoạn này, AI vẫn "chìm" — người dùng không biết mình đang dùng AI, chỉ thấy "gợi ý hay" hay "tìm kiếm thông minh".

Deep Learning: Cuộc cách mạng thực sự (2012–2017)

Năm 2012 là bước ngoặt. Nhóm nghiên cứu của Geoffrey Hinton sử dụng Deep Learning — mạng neural nhiều lớp — để giành chiến thắng áp đảo trong cuộc thi nhận diện hình ảnh ImageNet. Lỗi nhận diện giảm từ 26% xuống 15%, vượt xa phương pháp truyền thống.

Deep Learning cho phép AI tự động trích xuất đặc trưng từ dữ liệu thô: từ pixel ảnh học ra "mèo", từ âm thanh học ra "từ này là gì". Không cần lập trình thủ công từng quy tắc.

2016: AlphaGo của DeepMind đánh bại Lee Sedol — kỳ thủ cờ vây số 1 thế giới. Cờ vây phức tạp hơn cờ vua gấp nhiều lần; đây là lần đầu AI vượt qua con người trong trò chơi "trực giác" và "sáng tạo".

Kỷ nguyên Transformer và LLM: AI cho mọi người (2017–nay)

Năm 2017, Google công bố kiến trúc Transformer — nền tảng của hầu hết AI hiện đại. Transformer xử lý ngôn ngữ hiệu quả hơn bất kỳ phương pháp nào trước đó.

Từ đây, Large Language Models (LLM) bùng nổ:

  • 2018: GPT-1, BERT — AI bắt đầu "hiểu" ngữ cảnh
  • 2019: GPT-2 — viết văn bản mạch lạc
  • 2020: GPT-3 — 175 tỷ tham số, có thể lập trình, viết luận, dịch thuật
  • 2022: ChatGPT — AI trở thành hiện tượng toàn cầu, 100 triệu người dùng trong 2 tháng
  • 2023–2024: GPT-4, Claude, Gemini — AI đa modal, có thể xử lý văn bản, hình ảnh, âm thanh

Điều đặc biệt: AI giờ không còn là công cụ chuyên biệt cho kỹ sư. Người bình thường như bạn và tôi có thể trò chuyện, yêu cầu, và nhận kết quả — không cần biết lập trình.

Bài học từ lịch sử

Ba chu kỳ "sốt" và "đóng băng" của AI dạy chúng ta:

  • Kỳ vọng thực tế: AI không thay thế con người trong mọi việc, nhưng cực kỳ mạnh trong tác vụ cụ thể
  • Dữ liệu là vua: Tiến bộ AI luôn đi kèm với sự bùng nổ dữ liệu và sức mạnh tính toán
  • Công nghệ mở: Những bước nhảy vọt thường đến từ nghiên cứu công khai, không phải bí mật công ty

Ví dụ thực tế

Grab: Từ thuật toán đơn giản đến AI dự đoán giá

Năm 2012, Grab chỉ là ứng dụng đặt taxi truyền thống. Giá cố định theo khu vực. Đến 2016, Grab áp dụng dynamic pricing — giá thay đổi theo cung cầu thời gian thực, dựa trên Machine Learning phân tích lịch sử chuyến đi, thời tiết, sự kiện.

Giờ đây, khi bạn mở Grab và thấy "giá cao hơn bình thường 1.5x" — đó là AI đang dự đoán: khu vực này sắp có nhiều người đặt xe, nên tăng giá để thu hút tài xế. Ngược lại, lúc vắng, AI giảm giá để kích cầu.

Zalo: Chatbot từ "ngốc nghếch" đến "hiểu ý"

Năm 2015, chatbot Zalo chỉ trả lời theo kịch bản cứng nhắc: bạn gõ "1" → trả lời A, gõ "2" → trả lời B. Sai chính tả là hỏng.

Từ 2020, Zalo tích hợp NLP dựa trên Transformer. Chatbot giờ hiểu ngữ cảnh, xử lý tiếng Việt không dấu, nhận biết ý định người dùng — dù cách diễn đạt khác nhau. "Tôi muốn đặt bàn" và "Cho mình reserve chỗ" đều được hiểu là một.

Shopee: Gợi ý sản phẩm "đọc vị" sở thích

Shopee không chỉ gợi ý "người mua A cũng mua B". Họ dùng Deep Learning phân tích: bạn click vào ảnh nào bao lâu, lướt qua gì, thêm giỏ rồi bỏ, mua vào khung giờ nào, giá trị đơn hàng trung bình...

Kết quả: mỗi người thấy giao diện Shopee khác nhau. Cùng một sản phẩm, người A thấy ở vị trí đầu, người B phải lướt 3 trang — vì AI biết người A có xác suất mua cao hơn.

Ứng dụng

Sinh viên

  • Hiểu bối cảnh: Biết AI đến từ đâu giúp đánh giá đúng khả năng và giới hạn của công nghệ
  • Chọn hướng đi: Lịch sử cho thấy những lĩnh vực từng "chết" rồi hồi sinh — gợi ý cơ hội nghiên cứu
  • Tránh FOMO: Không bị cuốn theo mọi trend "AI mới", vì hiểu xu hướng dài hạn

Người đi làm

  • Đánh giá công cụ: Biết GPT-4 khác gì AI 10 năm trước để chọn đúng tool cho đúng việc
  • Dự đoán xu hướng: Những gì đang "nóng" (như AI Agent) có thể là bong bóng hay bước ngoặt thực sự?
  • Tranh luận có căn cứ: Khi sếp hoặc khách hàng hỏi "AI có thay thế người không?", có dữ kiện lịch sử để trả lời

Doanh nghiệp

  • Chiến lược đầu tư: Lịch sử cho thấy AI cần 5–10 năm để chuyển từ lab thành sản phẩm — kỳ vọng ngắn hạn thường thất bại
  • Tuyển dụng: Biết phân biệt "AI washing" (quảng cáo thổi phồng) với năng lực thực
  • Rủi ro tuân thủ: Các vụ bê bối AI (phân biệt chủng tộc, vi phạm bản quyền) thường lặp lại pattern lịch sử

Nhà phát triển

  • Chọn stack: Hiểu vì sao Transformer thay thế RNN, vì sao PyTorch vượt TensorFlow trong nghiên cứu
  • Tối ưu hóa: Biết các thế hệ AI trước giải quyết bài toán nào, để không "phát minh lại bánh xe"
  • Đóng góp cộng đồng: Lịch sử cho thấy open source (Linux, PyTorch, Transformers) thường thắng closed source dài hạn

So sánh: AI truyền thống vs AI hiện đại

Tiêu chíAI trước 2012AI sau 2012 (Deep Learning)
Cách hoạt độngLập trình quy tắc thủ côngTự học từ dữ liệu
Yêu cầu dữ liệuÍt, chủ yếu tri thức chuyên giaNhiều, càng nhiều càng tốt
Khả năng mở rộngKém, thêm quy tắc = thêm bugTốt, thêm dữ liệu = thêm chính xác
Giải thích quyết địnhDễ, theo dõi từng quy tắcKhó, "hộp đen" phức tạp
Ví dụ điển hìnhExpert system chẩn đoán bệnhChatGPT, nhận diện khuôn mặt
Người dùngChuyên gia, kỹ sưBất kỳ ai

Kết luận: AI truyền thống như máy tính cầm tay — bạn hiểu rõ từng phép tính. AI hiện đại như bác sĩ giỏi — cho kết quả tốt nhưng đôi khi không giải thích được tại sao. Cả hai đều có chỗ đứng: chẩn đoán y khoa cần giải thích (AI truyền thống), còn tạo nội dung sáng tạo chấp nhận "hộp đen" (AI hiện đại).

Bài viết liên quan

Cùng cụm: Tổng quan AI

Đọc tiếp

On this page