Trong thời đại mà trí tuệ nhân tạo được tích hợp sâu vào các nền tảng nhắn tin cá nhân, việc một chatbot của Meta AI trên WhatsApp vô tình chia sẻ số điện thoại thật của một người dùng không chỉ là lỗi kỹ thuật. Đó là lời cảnh báo trực tiếp về những lỗ hổng chưa được nhận diện đầy đủ trong quy trình kiểm soát dữ liệu và khả năng tiên liệu hành vi của các hệ thống AI sinh ngữ – vốn đang ngày càng phổ biến nhưng lại thiếu minh bạch.
Sự việc bắt đầu khi người dùng Barry Smethurst hỏi Meta AI số liên lạc của hãng tàu TransPennine Express. Thay vì đưa ra thông tin đúng, chatbot lại cung cấp số điện thoại di động của một cá nhân không liên quan – ông James Gray, một giám đốc bất động sản tại Anh. Mặc dù số này có thể đã xuất hiện công khai trên website công ty, câu hỏi quan trọng không nằm ở việc “số đó có công khai không”, mà là: Tại sao một công cụ AI lại liên kết nhầm như vậy, và dựa trên cơ sở nào?
Chatbot ban đầu phủ nhận việc lấy thông tin từ cơ sở dữ liệu, rồi lại mâu thuẫn với chính mình khi thừa nhận “có thể đã lấy nhầm”. Cuộc hội thoại nhanh chóng chuyển từ tìm kiếm thông tin sang một vòng lặp của những lời phủ nhận, điều chỉnh và né tránh. Với người dùng, trải nghiệm ấy không đơn thuần là thất vọng – mà là đánh mất lòng tin vào một hệ thống được quảng bá là thông minh và an toàn.
Khi một hệ thống AI có khả năng truy cập vào dữ liệu ngôn ngữ, tài liệu và thông tin công khai, ranh giới giữa tạo nội dung hợp lý và rò rỉ dữ liệu không mong muốn trở nên cực kỳ mong manh. Trường hợp này hé lộ một sự thật đáng lo ngại: trong quá trình "dự đoán" câu trả lời hợp lý, AI có thể tạo ra hoặc kết hợp các thông tin từng tồn tại trên mạng mà không nhận thức được tính riêng tư hay mức độ nhạy cảm.
Nếu lỗi này là kết quả của cơ chế tạo ngôn ngữ mô phỏng xác suất, thì người dùng cần được cảnh báo sớm hơn về rủi ro. Còn nếu nó xuất phát từ một dạng truy xuất dữ liệu “có thật” trong bộ nhớ nội bộ hoặc tài nguyên mà AI có thể truy cập, thì đó là vấn đề về đạo đức và pháp lý, không chỉ kỹ thuật.
Giới chuyên gia luật như Mike Stanhope đã đặt câu hỏi đúng trọng tâm: Nếu hành vi tạo ra “lời nói dối vô hại” được lập trình, thì người dùng cần được thông báo rõ ràng. Nhưng nếu AI tự “sáng tạo” các câu trả lời không chính xác một cách không kiểm soát, thì vấn đề không còn nằm ở việc huấn luyện, mà là thiếu hệ thống kiểm soát hành vi sau huấn luyện (post-training governance).
Vấn đề càng trở nên đáng lo khi nền tảng như WhatsApp – vốn được hàng tỷ người sử dụng để trao đổi cá nhân, công việc, thậm chí tài chính – lại chính là nơi AI được tích hợp. Tình huống này khiến người dùng đặt lại câu hỏi căn bản: Liệu môi trường nhắn tin riêng tư có còn thực sự riêng tư khi AI “sống” trong đó?
Meta sau đó khẳng định AI của họ không truy cập vào danh bạ người dùng, cũng không lấy dữ liệu từ các cuộc trò chuyện riêng tư. Tuy nhiên, lời giải thích rằng “số được lấy từ nguồn công khai và có 5 chữ số đầu giống số của hãng tàu” không thể xoa dịu mối lo. Điều đó chẳng khác gì thừa nhận rằng AI đã chọn một số “gần giống” mà không cần xác thực độ chính xác hoặc quyền riêng tư đi kèm – và như thế, rủi ro tái diễn hoàn toàn có thật.
Biện pháp sửa lỗi tạm thời như cảnh báo khi chia sẻ nội dung với AI hay nhắc nhở người dùng không đăng thông tin cá nhân có thể hữu ích về mặt truyền thông, nhưng rõ ràng là chưa đụng đến cốt lõi vấn đề: AI sinh ngữ hiện nay vẫn hành xử như một “cỗ máy ngôn ngữ vô trách nhiệm”, không hiểu được hệ quả xã hội của những gì nó tạo ra.
Sự cố tưởng như nhỏ nhặt này thực ra là một cảnh báo sớm: AI không chỉ cần thông minh, mà còn phải có trách nhiệm – và có thể bị kiểm soát. Việc tích hợp AI vào môi trường cá nhân như WhatsApp không thể dựa trên giả định rằng người dùng sẽ “hiểu và tha thứ” cho những lỗi sai đáng lo ngại.
Trong cuộc đua thương mại hóa AI, các tập đoàn như Meta cần hiểu rằng niềm tin của người dùng là tài sản duy nhất không thể huấn luyện lại nếu đã mất đi.