Năm 2025 chứng kiến AI tạo sinh thâm nhập vào các nhóm phát triển phần mềm với tốc độ đặc biệt nhanh, tuy nhiên hầu hết các tổ chức hiện đang nhận ra rằng việc chuyển đổi thử nghiệm ban đầu thành giá trị hữu hình khó khăn hơn nhiều so với những gì được kỳ vọng ban đầu.
Báo cáo Chất lượng Thế giới 2025 của Capgemini cho thấy gần 90 phần trăm tổ chức hiện đang thử nghiệm hoặc triển khai AI tạo sinh trong quy trình kỹ thuật chất lượng của họ, tuy nhiên chỉ có 15 phần trăm đạt được triển khai rộng rãi trên toàn công ty. Phần còn lại vẫn ở giai đoạn đầu, tìm hiểu thông qua các bằng chứng về khái niệm, triển khai hạn chế hoặc các thử nghiệm không bao giờ mở rộng quy mô.
Khoảng cách giữa sự phấn khích và triển khai này chỉ ra một sự thật đơn giản: chỉ tốc độ và sự mới lạ thôi là không đủ để cung cấp phần mềm chất lượng. Với AI đang thay đổi cách các nhóm suy nghĩ về kiểm thử, các tổ chức cần cố ý xây dựng nền tảng sẽ làm cho kỹ thuật chất lượng được hỗ trợ bởi AI có thể mở rộng quy mô vào năm 2026.
Nhiều nhóm bị thu hút bởi AI vì khả năng tạo ra các bài kiểm thử và mã với tốc độ đáng kinh ngạc. Ví dụ, tôi đã thấy mọi người cung cấp tài liệu Swagger vào mô hình AI để tạo bộ kiểm thử API trong vòng vài phút. Tuy nhiên, khi xem xét các bài kiểm thử, chúng tôi có thể thấy có bao nhiêu kết quả đó bị lỗi hoặc được thiết kế quá mức.
Khi các nhóm để lại mức độ đánh giá chất lượng này cho đến cuối cùng, họ thường phát hiện quá muộn rằng tốc độ đạt được ban đầu bị bù đắp bởi thời gian dành để làm lại những gì AI tạo ra. Và không ngạc nhiên, mô hình này đang trở nên phổ biến bởi vì AI có thể tăng tốc độ tạo ra, nhưng nó không thể đảm bảo rằng những gì nó tạo ra là có ý nghĩa.
Nó có thể ảo giác các điều kiện, bỏ qua ngữ cảnh miền hoặc thậm chí hiểu sai các trường hợp ngoại lệ. Và không có giám sát mạnh mẽ ở mọi giai đoạn, các nhóm cuối cùng triển khai mã đã vượt qua khối lượng lớn các bài kiểm thử nhưng không nhất thiết là các bài kiểm thử đúng.
Vào năm 2026, điều này sẽ thúc đẩy các tổ chức ưu tiên các khung đánh giá chất lượng được xây dựng đặc biệt cho các sản phẩm do AI tạo ra, chuyển kiểm thử từ thực hành hướng đến khối lượng sang thực hành hướng đến giá trị. Đây là nơi ý tưởng về chất lượng liên tục sẽ trở nên ngày càng thiết yếu.
Kỹ thuật chất lượng như một thuật ngữ đôi khi có thể tạo ra ấn tượng rằng chất lượng là thứ được cung cấp bởi các công cụ hoặc bởi một chức năng kỹ thuật riêng biệt được xem xét vào cuối cùng. Chất lượng liên tục có quan điểm rộng hơn và thực tế hơn; đó là ý tưởng rằng chất lượng bắt đầu từ rất lâu trước khi một dòng mã được viết và tiếp tục rất lâu sau khi bản phát hành được công bố.
Thay vì coi kiểm thử là cổng cuối cùng, triển khai kiểm thử chất lượng ở mọi giai đoạn tích hợp các cuộc trò chuyện tập trung vào chất lượng vào thiết kế, lập kế hoạch và thảo luận kiến trúc. Quá trình liên tục này đến lượt nó thiết lập kỳ vọng xung quanh dữ liệu, rủi ro và kết quả sớm, để khi các công cụ AI tạo ra các bài kiểm thử hoặc phân tích, các nhóm đã phù hợp với những gì tốt trông như thế nào.
Cách tiếp cận này phản ánh vòng lặp vô hạn quen thuộc được sử dụng trong DevOps. Kiểm thử, xác thực và cải tiến không bao giờ tồn tại độc lập. Chúng chảy qua vòng đời phân phối, liên tục tăng cường khả năng phục hồi của hệ thống; khi các tổ chức áp dụng tư duy này, AI trở thành người đóng góp cho chất lượng thay vì là một rào cản.
Khi AI được nhúng sâu hơn vào các pipeline, chất lượng liên tục sẽ là mô hình quyết định liệu AI có trở thành yếu tố hỗ trợ cho phần mềm tốt hơn vào năm 2026 hay là nguồn gốc của các lỗi không thể dự đoán.
Một khi chất lượng trở thành một hoạt động liên tục, thách thức tiếp theo là hiểu cách AI khuếch đại sự phức tạp đã có trong các hệ thống doanh nghiệp. Giới thiệu các bài kiểm thử do AI tạo ra hoặc mã do AI viết vào các cơ sở mã lớn, phụ thuộc lẫn nhau làm tăng tầm quan trọng của việc biết cách thậm chí các thay đổi nhỏ có thể ảnh hưởng đến hành vi ở nơi khác. Các nhóm chất lượng phải có khả năng theo dõi cách các đầu ra được điều khiển bởi AI tương tác với các hệ thống đã phát triển qua nhiều năm.
Các nhà lãnh đạo cấp cao đang gây áp lực lên các nhóm để áp dụng AI nhanh chóng, thường không có sự phù hợp rõ ràng về các vấn đề mà AI nên giải quyết. Điều này phản ánh những ngày đầu của tự động hóa kiểm thử, khi các nhóm được yêu cầu tự động hóa mà không hiểu họ hy vọng đạt được điều gì. Kết quả thường là đầu tư lãng phí và các bộ kiểm thử cồng kềnh tốn kém để duy trì.
Câu hỏi quan trọng nhất mà các tổ chức sẽ bị buộc phải hỏi vào năm 2026 là tại sao họ muốn sử dụng AI, đặc biệt là quyết định các kết quả cụ thể mà họ muốn cải thiện, các loại rủi ro mà họ muốn giảm thiểu và phần của quy trình phân phối có khả năng thu được lợi ích nhiều nhất từ sự hỗ trợ của AI. Khi các nhóm bắt đầu với những cân nhắc này thay vì coi chúng như những suy nghĩ sau, việc áp dụng AI sẽ trở nên có mục đích thay vì phản ứng.
Sự chuyển đổi này hướng tới việc áp dụng AI có chủ ý hơn tự nhiên thay đổi những gì các chuyên gia chất lượng dành thời gian của họ. Khi AI được nhúng vào các pipeline phát triển, người kiểm thử không còn chỉ đơn giản là thực hiện hoặc duy trì các trường hợp kiểm thử. Họ ngày càng hành động như những người đánh giá quyết định liệu các sản phẩm do AI tạo ra có thực sự tăng cường chất lượng hay giới thiệu rủi ro mới.
Khi các hệ thống AI bắt đầu tạo ra các bài kiểm thử và phân tích khối lượng lớn kết quả, người kiểm thử chuyển từ những người thực hiện trực tiếp sang những người ra quyết định chiến lược định hình cách AI được sử dụng. Trọng tâm của họ chuyển từ viết các trường hợp kiểm thử riêng lẻ sang hướng dẫn đầu ra do AI tạo ra, xác định liệu nó có phản ánh rủi ro kinh doanh thực tế và đảm bảo các khoảng trống không bị bỏ qua.
Sự mở rộng trách nhiệm này hiện bao gồm xác thực chính các mô hình AI và học máy. Người kiểm thử phải kiểm tra các hệ thống này về sự thiên vị, thách thức các mô hình ra quyết định của họ và xác nhận rằng hành vi vẫn có thể dự đoán được trong điều kiện thay đổi. Nó ít hơn về việc kiểm tra các quy tắc cố định và nhiều hơn về việc hiểu cách các hệ thống học tập hoạt động ở các cạnh của chúng.
Chất lượng dữ liệu trở thành nền tảng của công việc này. Vì dữ liệu kém dẫn trực tiếp đến hiệu suất AI kém, người kiểm thử đánh giá các pipeline cung cấp các mô hình AI, xác minh độ chính xác, tính đầy đủ và tính nhất quán. Hiểu mối liên hệ giữa dữ liệu có lỗi và quyết định có lỗi cho phép các nhóm ngăn chặn các vấn đề rất lâu trước khi chúng đạt đến sản xuất.
Mặc dù AI chắc chắn sẽ không thay thế người kiểm thử vào năm 2026, nó sẽ tiếp tục định hình lại vai trò của họ thành một vai trò phân tích hơn, diễn giải và dựa trên ngữ cảnh. Chuyên môn cần thiết để hướng dẫn AI một cách có trách nhiệm chính xác là những gì ngăn chặn các tổ chức khỏi rơi vào rủi ro khi việc áp dụng tăng tốc – và những gì cuối cùng sẽ xác định liệu AI có tăng cường hay làm suy yếu theo đuổi chất lượng liên tục.
Khi những trách nhiệm này mở rộng, các tổ chức phải tiếp cận năm tới với sự rõ ràng về những gì sẽ cho phép AI cung cấp giá trị lâu dài. Các doanh nghiệp thành công sẽ là những doanh nghiệp coi chất lượng như một kỷ luật liên tục kết hợp con người, quy trình và công nghệ, thay vì một thứ có thể được tự động hóa.
AI sẽ tiếp tục định hình lại bối cảnh kiểm thử, nhưng thành công của nó phụ thuộc vào mức độ các tổ chức cân bằng tự động hóa với phán đoán của con người. Những người nhúng chất lượng liên tục vào trung tâm của chu kỳ phân phối của họ sẽ được định vị tốt nhất để chuyển từ thử nghiệm sang giá trị thực sự, bền vững vào năm 2026.

