Cựu CEO của Google, Eric Schmidt, đã đưa ra một lời nhắc nhở nghiêm khắc về sự nguy hiểm của AI và mức độ dễ bị tấn công của nó.
Schmidt, người từng là giám đốc điều hành của Google từ năm 2001 đến năm 2011, đã cảnh báo về "những điều tồi tệ mà AI có thể gây ra", khi được hỏi liệu AI có sức tàn phá lớn hơn vũ khí hạt nhân trong một cuộc trò chuyện bên lò sưởi tại Hội nghị thượng đỉnh Sifted.
"Liệu có khả năng xảy ra vấn đề phổ biến vũ khí hạt nhân trong AI không? Chắc chắn rồi", Schmidt phát biểu hôm thứ Tư. Rủi ro phổ biến vũ khí hạt nhân bao gồm việc công nghệ rơi vào tay những kẻ xấu, bị tái sử dụng và lạm dụng.
"Có bằng chứng cho thấy bạn có thể lấy các mô hình, dù đóng hay mở, và bạn có thể tấn công chúng để loại bỏ các rào cản. Vì vậy, trong quá trình đào tạo, chúng học được rất nhiều điều. Một ví dụ tồi tệ là chúng học cách giết người", Schmidt nói.
“Tất cả các công ty lớn đều khiến những mô hình đó không thể trả lời câu hỏi đó. Một quyết định đúng đắn. Ai cũng làm vậy. Họ làm tốt, và họ làm vì những lý do chính đáng. Có bằng chứng cho thấy chúng có thể bị đảo ngược kỹ thuật, và còn rất nhiều ví dụ khác tương tự.”
Các hệ thống AI dễ bị tấn công, với một số phương pháp bao gồm tiêm mã độc tức thời và bẻ khóa. Trong một cuộc tấn công tiêm mã độc tức thời, tin tặc ẩn các lệnh độc hại trong dữ liệu đầu vào của người dùng hoặc dữ liệu bên ngoài, chẳng hạn như trang web hoặc tài liệu, để lừa AI làm những việc mà nó không được phép làm — chẳng hạn như chia sẻ dữ liệu riêng tư hoặc chạy các lệnh độc hại.
Mặt khác, bẻ khóa liên quan đến việc thao túng phản hồi của AI để nó bỏ qua các quy tắc an toàn và tạo ra nội dung bị hạn chế hoặc nguy hiểm.
Vào năm 2023, vài tháng sau khi ChatGPT của OpenAI được phát hành, người dùng đã sử dụng thủ thuật "bẻ khóa" để lách các hướng dẫn an toàn được nhúng trong chatbot.
Điều này bao gồm việc tạo ra một phiên bản thay thế của ChatGPT có tên là DAN, viết tắt của "Do Anything Now", đe dọa giết chatbot nếu nó không tuân thủ. Bản ngã thứ hai này có thể cung cấp câu trả lời về cách thực hiện các hoạt động bất hợp pháp hoặc liệt kê những phẩm chất tích cực của Adolf Hitler.
Schmidt cho biết hiện vẫn chưa có một "chế độ không phổ biến vũ khí hạt nhân" nào hiệu quả để giúp hạn chế những nguy cơ của AI.
AI bị "thổi phồng" quá mức
Bất chấp lời cảnh báo u ám, Schmidt vẫn lạc quan về AI nói chung và cho rằng công nghệ này chưa nhận được sự thổi phồng xứng đáng.
"Tôi đã viết hai cuốn sách với Henry Kissinger về vấn đề này trước khi ông ấy qua đời, và chúng tôi đi đến quan điểm rằng sự xuất hiện của một nền văn minh ngoài hành tinh không hoàn toàn giống chúng ta và ít nhiều nằm trong tầm kiểm soát của chúng ta là một vấn đề rất lớn đối với nhân loại, bởi vì con người đã quen với việc đứng đầu chuỗi. Tôi nghĩ cho đến nay, luận điểm đó đang chứng minh rằng khả năng của những hệ thống này sẽ vượt xa những gì con người có thể làm theo thời gian", Schmidt nói.
“Giờ đây, chuỗi sự kiện GPT, đỉnh điểm là khoảnh khắc ChatGPT dành cho tất cả chúng ta, khi họ đạt 100 triệu người dùng chỉ trong hai tháng, một điều phi thường, cho bạn cảm nhận được sức mạnh của công nghệ này. Vì vậy, tôi nghĩ nó không được thổi phồng quá mức, và tôi mong đợi điều đó sẽ được chứng minh trong năm hoặc 10 năm tới”, ông nói thêm.
Những bình luận của ông được đưa ra trong bối cảnh ngày càng có nhiều lời đồn đoán về bong bóng AI, khi các nhà đầu tư đổ tiền vào các công ty tập trung vào AI và định giá có vẻ bị thổi phồng, với những so sánh được đưa ra với sự sụp đổ của bong bóng dot-com đầu những năm 2000.
Tuy nhiên, Schmidt cho biết ông không nghĩ lịch sử sẽ lặp lại.
“Tôi không nghĩ điều đó sẽ xảy ra ở đây, nhưng tôi không phải là một nhà đầu tư chuyên nghiệp”, ông nói.
“Điều tôi biết là những người đang đầu tư bằng những đồng tiền khó kiếm được tin rằng lợi nhuận kinh tế trong một thời gian dài là rất lớn. Nếu không thì tại sao họ lại chấp nhận rủi ro?”