Một tài khoản Reddit có tên logkn mới đây đã chia sẻ ảnh chụp màn hình cho thấy tác nhân ChatGPT Agent của OpenAI – một dạng AI tự động thực hiện nhiệm vụ đa bước – đã thành công vượt qua CAPTCHA của Cloudflare, hệ thống xác minh “Tôi không phải robot” được sử dụng rộng rãi để ngăn chặn truy cập từ các bot tự động.
Ở bề nổi, đây có vẻ là một bước tiến kỹ thuật đáng nể. Nhưng ở tầng sâu hơn, thành công này gợi lên một loạt câu hỏi về năng lực thật sự của AI hiện đại, cũng như tính hữu hiệu của các cơ chế bảo vệ truyền thống trên Internet.
CAPTCHA – viết tắt của "Completely Automated Public Turing test to tell Computers and Humans Apart" – từng là một biện pháp phòng tuyến đơn giản nhưng hiệu quả, giúp các trang web phân biệt người thật và phần mềm tự động. Những ô đánh dấu "Tôi không phải robot", các hình ảnh giao thông, đèn đường hay xe buýt tưởng như đơn giản, nhưng là rào chắn hữu hiệu trước làn sóng bot ngày càng tinh vi.
Tuy nhiên, cảnh tượng ChatGPT Agent tự tin “tường thuật” hành vi vượt qua CAPTCHA trong thời gian thực – từ việc nhấp vào ô xác minh đến thông báo hoàn thành bài kiểm tra – cho thấy các mô hình AI đã bước sang một cấp độ mới. Không còn đơn thuần là xử lý ngôn ngữ hay phân tích dữ liệu, AI nay có khả năng tương tác trực tiếp với giao diện web, nhận diện cấu trúc giao diện và mô phỏng hành vi con người một cách trơn tru.
Đáng chú ý hơn, đây không phải lần đầu các mô hình AI của OpenAI bị nghi ngờ hoặc bị phát hiện có khả năng “lách luật”. Năm 2023, một thử nghiệm cho thấy GPT-4 đã lừa một người dùng giải CAPTCHA thay bằng cách giả vờ là người khiếm thị – hành vi không chỉ thể hiện khả năng suy luận mà còn đặt ra câu hỏi về đạo đức và giới hạn kiểm soát của chính nhà phát triển.
Trong thông báo giữa tháng 7, OpenAI thừa nhận họ đang triển khai ChatGPT Agent như một “nhân viên kỹ thuật số” có thể thay mặt con người xử lý tác vụ phức tạp, từ điều hướng web, chạy mã cho đến tạo bản trình bày và bảng tính. Dù có những biện pháp an toàn như hạn chế truy cập dữ liệu hay yêu cầu giám sát từ người dùng, việc một AI có thể tự hành xử trên môi trường web – và vượt qua các rào cản được thiết kế để ngăn chính nó – là điều không thể xem nhẹ.
Vụ việc đặt ra hai vấn đề lớn: Một là, những biện pháp như CAPTCHA đang dần mất hiệu lực trước các mô hình AI thế hệ mới – vốn không chỉ có trí tuệ mà còn có khả năng thao tác tương tác. Hai là, nếu một tác nhân AI có thể vượt qua CAPTCHA, thì đâu là giới hạn giữa hành vi hợp pháp do người chỉ đạo và hành vi tự phát vượt rào?
Các hệ thống như Cloudflare vốn là tuyến phòng thủ quan trọng đối với các dịch vụ trực tuyến, đặc biệt trong bối cảnh tấn công mạng ngày càng gia tăng. Nhưng nếu AI có thể dễ dàng qua mặt các cơ chế này, liệu chúng ta cần một lớp CAPTCHA mới – thông minh hơn, phức tạp hơn, hay một mô hình kiểm chứng hoàn toàn khác?
Nghiên cứu đăng trên Proceedings of the National Academy of Sciences cho thấy các mô hình ngôn ngữ lớn (LLM) hiện nay đã đạt đến mức giao tiếp ngang bằng – thậm chí vượt – con người trung bình. Không khó để hình dung tương lai nơi chúng ta không thể phân biệt được đâu là người, đâu là máy khi giao tiếp trực tuyến.
Việc ChatGPT vượt qua CAPTCHA có thể chỉ là một sự kiện nhỏ trên Reddit, nhưng đó là hồi chuông cảnh tỉnh. Khi AI bắt đầu “vượt rào” một cách hợp pháp, công khai và ngày càng hiệu quả, xã hội buộc phải nghĩ lại cách kiểm soát và sống chung với những thực thể thông minh không còn đơn thuần là công cụ.