AI có đang thay thế mô hình SaaS?

AI Agents mang lại nhiều giá trị tiềm năng, nhưng vẫn chưa thể thay thế được logic phần mềm truyền thống vốn ổn định và dễ kiểm soát. Để khai thác tốt công nghệ này, doanh nghiệp cần thay đổi văn hóa, quy trình và công cụ, không chỉ đơn giản chạy theo làn sóng AI.

AI có đang thay thế mô hình SaaS?

Chúng ta đã nghe nhiều về autonomy (sự tự chủ). Thứ bạn thực sự nhận được chỉ là automation (tự động hóa), nhưng rắc rối hơn vài bước.

Bạn đã từng nghe nói đến AI Agents chưa?

Vài tháng vừa qua, dường như chỉ cần lướt vài dòng tiêu đề trên Internet hay LinkedIn, ta lại bắt gặp những tuyên bố rằng các hệ thống tự trị này sẽ thay đổi toàn bộ cuộc chơi, đặc biệt là trong lĩnh vực phần mềm và kinh doanh.

Là người luôn trăn trở về chiến lược dài hạn, tôi cũng cảm nhận được tiềm năng to lớn của AI agents. Nhưng đồng thời, tôi cho rằng đã đến lúc cần gạt bớt những kỳ vọng màu hồng, để nhìn thẳng vào thực tế: Chúng ta đang đứng ở đâu trên hành trình này?

Trong suốt nhiều năm, khi các hệ thống không nói chuyện được với nhau, chúng ta trở thành những người đi tích hợp, tự tay khâu vá các quy trình bằng những công cụ tự build hoặc dùng 3rd party để tạo ra các nghiệp vụ kinh doanh cũng như những luồng vận hành business đầy phức tạp.

Giờ đây, người ta nói với chúng ta rằng một kỷ nguyên mới đang đến: Agentic AI, không chỉ là tự động hóa, mà là sự ra đời của những hệ thống có khả năng suy luận, ghi nhớ và hành động một cách độc lập.

We believe that, in 2025, we may see the first AI agents “join the workforce” and materially change the output of companies. OpenAI CEO Sam Altman
The age of AI Agentics is here… a multi-trillion-dollar opportunity.  Nvidia CEO Jensen Huang

Nhiều người tin rằng tác động của làn sóng này sẽ vượt xa cả Internet hay điện toán đám mây, những cuộc cách mạng đã từng định hình lại cả ngành công nghệ.

Điều thú vị là: câu hỏi liệu AI agents có thay thế hoàn toàn các sản phẩm SaaS truyền thống hay không, gần như tuần nào cũng xuất hiện.

Đó là một viễn cảnh vừa hấp dẫn, vừa mang theo không ít nỗi lo. Nhưng trước khi chúng ta bị cuốn theo những lời hứa hẹn hoa mỹ, có lẽ điều cần thiết nhất lúc này là một cái nhìn tỉnh táo và trung thực:

  1. Liệu những AI Agent ngày hôm nay đã thực sự đạt tới mức tự chủ như chúng ta mong đợi?
  2. Hay tất cả vẫn chỉ là khúc mở màn của một hành trình còn chưa rõ hình hài?

Agents nửa năm đầu 2025: Tự động hóa vs. Tự chủ

Trước hết, hãy thống nhất với nhau một điều: AI Agent là gì, và không phải là gì.

Các mối quan hệ then chốt hiện tại:

  • LLMs → AI Agents: LLMs giúp hiểu ngôn ngữ; Agent sử dụng LLM để quyết định bước tiếp theo.
  • AI Agents → Agentic AI: Agent cơ bản xử lý các workflow đơn giản; Agentic AI điều phối nhiều agent để lập kế hoạch và xử lý workflow phức tạp.
  • MCP → AI Agents: MCP (Model Context Protocol) tiêu chuẩn hóa cách agent truy cập công cụ và dữ liệu bên ngoài nhằm tạo khả năng tương tác phổ quát giữa các agent.

Cần phân biệt rõ ràng giữa:

  • LLMs vs. Agents: LLM chỉ tạo ra văn bản; Agent hành động dựa trên văn bản đó thông qua công cụ.
  • Agents vs. Agentic AI: Agent cơ bản đi theo workflow định sẵn; Agentic AI biết lập kế hoạch và linh hoạt trong thực thi.
  • MCP vs. Agent Framework: MCP chỉ đóng vai trò là lớp kết nối công cụ, chứ không phải hệ thống điều phối quy trình làm việc.

Vậy nếu bạn áp dụng AI Agents ngay hôm nay, bạn sẽ có gì?

Hãy nhìn kỹ vào bên trong: phần lớn agent hiện tại chỉ là một mô hình ngôn ngữ được bọc thêm đoạn code để gọi API và tương tác với công cụ.

Chúng có thể liên kết các hành động như: Lấy dữ liệu từ nơi này → Gán vào nơi khác → Kích hoạt hành động khác, và hầu hết đều đi theo lộ trình có sẵn, do con người thiết kế.

Hình dung chúng như những hệ thống tự động hóa thông minh, không phải là sinh vật có tư duy độc lập, mà là robot làm theo kịch bản được lập trình rất kỹ.

Có những giới hạn khiến AI Agents hiện tại vẫn chỉ là trợ lý, chưa thể gọi là tự chủ được:

  • Agent không tự điều chỉnh hay phản ứng tốt khi workflow thay đổi.
  • Bị ảnh hưởng mạnh bởi prompt: các agent rất giỏi giải bài toán quen thuộc, nhưng sẽ sụp đổ khi gặp biến thể lạ. Câu prompt càng phức tạp và chứa nhiều logic thì chỉ cần thay đổi 1 từ ngữ là kết quả sẽ sai khác gần như 100% hoặc agent không thực thi được.
  • “Lập luận” thực chất chỉ là chuỗi văn bản được tạo ra dựa trên các gợi ý có sẵn, chịu sự chi phối hoàn toàn bởi prompt và cơ chế attention của mô hình.
  • Chỉ cần thay đổi API hoặc nâng cấp LLM → agent có thể lỗi toàn bộ, và thực ra là không hề mềm dẻo như chúng ta mong đợi.
  • Agent có thể quên mục tiêu ban đầu hay thông tin quan trọng đã nêu từ đầu nếu chúng ta thiết kế cho agent thực thi 1 workflow dài.
  • Việc tìm lỗi rất khó do hành vi của agent không lặp lại 100%. Ngoài kỹ năng debug prompt có thể tự kiểm soát được, thì các lỗi còn lại sẽ xảy ra theo kiểu "Một lỗi có thể xảy ra ở lần này nhưng không tái hiện ở lần sau."

Vì vậy, ai mới là người ra quyết định thật sự?

Câu trả lời: con người. Là chúng ta.

Agent ở thời điểm hiện nay chỉ là công cụ trợ lý thông minh, là một dạng tự động hóa cao cấp, không phải hệ thống ra quyết định độc lập. Giá trị lớn nhất của chúng là đề xuất dữ liệu, ý tưởng, phương án hành động kế tiếp, chứ không phải tự mình ra quyết định chiến lược.

Cho nên, đổi mới thật sự ở đây là gì?

Chúng ta chuyển giao giao diện điều khiển sang dạng ngôn ngữ tự nhiên, đó là bước nhảy lớn nhất.

Prompt: nhà biên kịch

Hãy thử hình dung system prompt như những đường ray âm thầm dẫn dắt bánh xe suy nghĩ của một AI agent. Bạn chỉ cần nói: “Hãy làm từng bước một” hoặc “Hãy cân nhắc các phương án thay thế”, và bỗng dưng, mô hình có vẻ như đang suy luận một cách đầy logic.

Nhưng thực tế, bạn chỉ đang định hướng cho quá trình tạo ra token của mô hình.

Trên YouTube hay LinkedIn, bạn sẽ thấy rất nhiều prompt expert chia sẻ kỹ thuật nâng cao, nhưng cốt lõi của chúng vẫn xoay quanh một vài nguyên lý cơ bản.

Khi bạn thấy một AI agent có vẻ như đang tự chọn lối đi hoặc đưa ra quyết định, chẳng hạn sau khi bạn nhấn nút trong ChatGPT hay một công cụ tương tự, thì phần lớn hành vi đó chỉ là phản ứng lại prompt ban đầu bạn đã lập trình sẵn.

Lý do là: prompt luôn đi trước mọi token được tạo ra, và nó định hình gần như toàn bộ đầu ra. Đây không phải là suy luận độc lập, mà là phản xạ từ cái đường ray, cái kịch bản bạn đã đặt ra ngay từ đầu.

Nên tôi hay nói vui với anh em là viết prompt tưởng dễ nhưng không dễ, vì nó có yếu tố kịch bản, logic và lập trình trong đó.

Bạn có thể hướng dẫn agent bằng những chỉ thị như:

  • “Hãy đóng vai một chuyên gia trong lĩnh vực X”
  • “Hãy là một nhân viên hỗ trợ thân thiện, kiên nhẫn và dễ hiểu”

Kết quả bạn nhận lại có thể nghe rất trơn tru, chuyên nghiệp. Nhưng đừng quên: Tất cả vẫn chỉ là chuỗi token được tạo ra bởi một hàm toán học phức tạp. Không có tư duy, không có ý thức, chỉ là xác suất.

Thêm vào đó, mô hình không có danh tính cố định, cũng không có khả năng duy trì trạng thái qua các lần tương tác. Nó là một hệ thống stateless và contextless, không nhớ bạn là ai, không nhớ chuyện gì đã xảy ra trước đó.

Ngay cả khi bạn đặt câu hỏi tiếp nối một chủ đề vừa nói xong, với mô hình, đó vẫn là một câu hỏi hoàn toàn độc lập.Vì vậy, bạn phải nhồi lại toàn bộ ngữ cảnh từ đầu mỗi lần tương tác, và điều này nhanh chóng chạm tới giới hạn attention, gây ra hiện tượng mất trí nhớ giữa chừng trong các quy trình dài.

Và dù bạn viết prompt giống y hệt, kết quả vẫn không nhất quán giữa các lần chạy 😂

Bạn có thể lập kế hoạch rõ ràng:Bước 1: tra cứu X → Bước 2: phân tích Y → Bước 3: thực hiện Z”

Nhưng trong thực tế, agent có thể làm sai thứ tự, bỏ sót bước, hoặc diễn giải lệch hoàn toàn chỉ vì sự biến động ngẫu nhiên trong quá trình tạo ra token.

Tóm lại, thứ bạn đang thấy không phải là tư duy của agent, mà là một vở diễn được điều khiển bởi prompt. Và AI Agent chính là một diễn viên giỏi ứng biến, nhưng không có ký ức, không có ý định, và cũng chẳng có kịch bản thật sự của riêng mình.

Thế giới phần mềm 40 năm qua

Trong thế giới phần mềm suốt 40 năm qua: code thực thi đúng như những gì nó được viết ra. Và nó hoạt động bền bỉ như vậy sau mỗi lần chạy.

Nếu có lỗi xảy ra, lỗi đó sẽ tái hiện giống hệt nhau mọi lúc. Nếu đầu vào (input) không đổi, thì đầu ra (output) cũng không đổi. Chính tính chất này là nền tảng giúp chúng ta test, debug và xây dựng hệ thống đáng tin cậy.

Nhưng AI Agents thì khác.

Các agent AI hiện nay được xây dựng dựa trên mô hình ngôn ngữ lớn (LLM), và chúng không hoạt động theo kiểu tới đèn xanh phải đi, đèn đỏ phải dừng, hay cắm sạc vào điện thoại thì điện thoại sẽ được sạc.

Bạn có thể hỏi cùng một câu hai lần, và nhận được hai câu trả lời khác nhau. Có thể cả hai đều hợp lý, hoặc một cái rất hay, cái còn lại lại hoàn toàn vô nghĩa.

Sự biến động này không phải lúc nào cũng tệ, vì sáng tạo đôi khi cần sự linh hoạt. Bản thân con người cũng không hoàn toàn nhất quán. Nhưng có một khác biệt lớn: Biên độ dao động của con người nằm trong một phạm vi hẹp, còn LLM thì có thể trôi xa khỏi ranh giới chấp nhận được rất nhanh.

Ví dụ: nếu một người tóm tắt lại cuộc họp, dù cách diễn đạt có khác nhau, các ý chính vẫn được giữ nguyên. LLM thì không, đôi khi bỏ sót trọng tâm, thậm chí bịa ra hành động chưa từng tồn tại.

Và chính tính khó đoán này tạo ra vô vàn rắc rối khi ta cố xây dựng hệ thống nghiêm túc xung quanh các agent AI. Nó đặt ra hàng loạt câu hỏi chưa từng tồn tại trong thế giới phần mềm truyền thống:

  1. Làm sao để test output ổn định?
  2. Nếu không test được thì làm sao debug?
  3. Quyền quyết định kết quả và xử lý các tradeoff thì sao?
  4. Và còn rất nhiều câu hỏi hóc búa khác...

Tất cả những câu hỏi này còn chưa đụng tới các ngành có yêu cầu tuân thủ nghiêm ngặt như: bảo hiểm, tài chính, y tế, nơi minh bạch, truy xuất nguồn gốc và trách nhiệm pháp lý là bắt buộc.

Đó là chưa kể, lĩnh vực y tế thì kiến thức là cái bắt buộc, còn lĩnh vực như toán học thì suy luận là cái bắt buộc.

Và theo tôi, đây là bản chất thống kê của mô hình LLM.

Nếu bạn cần một hệ thống luôn làm đúng như chỉ dẫn, mỗi lần, không sai khác, thì giải pháp đã có sẵn từ lâu: Code 😂

Vậy nên, thách thức tương lai không phải là xây dựng AI Agents hay các hình thức tương tự khác, mà là cách chúng ta xây dựng một hệ thống công cụ mới hoàn toàn, để kiểm soát, vận hành và điều phối thế giới mà kết quả không lặp lại dù đầu vào giống nhau.

Tạm kết

Vấn đề thật sự không nằm ở việc có phát triển sản phẩm theo hướng AI Agents hay không, mà là làm sao để chúng ta thích nghi về mặt văn hóa, quy trình, và công nghệ để khai thác được giá trị từ chúng, đồng thời giảm thiểu các thiếu sót rõ rệt.

Tôi cho rằng những vấn đề này không thể được khắc phục chỉ bằng cách điều chỉnh kiến trúc mô hình, bởi đó là một quá trình phức tạp và mất rất nhiều thời gian. Đặc biệt khi các nhà cung cấp AI hiện nay vẫn còn theo đuổi lối tư duy mang tính cố định và tuyến tính, như thể mọi thứ đều có thể kiểm soát hoàn toàn chỉ bằng cách thiết kế đúng quy trình.