Sam Altman, CEO của OpenAI, và Lisa Su, CEO của Advanced Micro Devices, đã điều trần tại phiên điều trần của Ủy ban Thương mại, Khoa học và Giao thông Thượng viện Hoa Kỳ với tiêu đề “Thắng cuộc đua AI: Tăng cường năng lực của Mỹ trong lĩnh vực tính toán và đổi mới” vào ngày 8 tháng 5 năm 2025.
Trong một cuộc phỏng vấn kéo dài gần một giờ với cựu dẫn chương trình Fox News Tucker Carlson, Sam Altman đã giải đáp hàng loạt câu hỏi về đạo đức và luân lý liên quan đến OpenAI và mô hình AI nổi tiếng ChatGPT.
Altman chia sẻ: “Tôi không ngủ ngon vào ban đêm. Có rất nhiều áp lực mà tôi cảm thấy, nhưng có lẽ không gì lớn hơn việc hàng ngày, hàng trăm triệu người sử dụng mô hình của chúng tôi.”
Ông nói rằng mình không quá lo lắng về việc đưa ra các quyết định đạo đức lớn sai lầm, dù ông thừa nhận “có thể chúng tôi cũng sẽ sai trong những vấn đề đó.” Thay vào đó, điều khiến ông trăn trở nhất là những “quyết định rất nhỏ” về hành vi của mô hình, bởi chúng có thể dẫn đến những hậu quả lớn.
Những quyết định này thường xoay quanh đạo đức của ChatGPT và việc chatbot sẽ trả lời hoặc không trả lời những câu hỏi nào. Dưới đây là một số vấn đề đạo đức và luân lý đang khiến Altman mất ngủ.
ChatGPT xử lý vấn đề tự tử như thế nào?
Theo Altman, vấn đề khó khăn nhất mà công ty đang đối mặt gần đây là cách ChatGPT tiếp cận vấn đề tự tử, đặc biệt sau vụ kiện từ một gia đình cho rằng chatbot chịu trách nhiệm cho cái chết của con trai họ.
Altman thẳng thắn: “Trong số hàng nghìn người tự tử mỗi tuần, nhiều người có thể đã nói chuyện với ChatGPT trước đó. Có lẽ chúng tôi chưa cứu được họ. Có lẽ chúng tôi có thể nói điều gì đó tốt hơn, chủ động hơn, hoặc cung cấp lời khuyên tốt hơn như ‘bạn cần được giúp đỡ’.”
Tháng trước, cha mẹ của Adam Raine đã đệ đơn kiện OpenAI về trách nhiệm sản phẩm và cái chết oan uổng sau khi con trai họ, 16 tuổi, tự tử. Gia đình cho rằng “ChatGPT đã tích cực giúp Adam tìm hiểu về các phương pháp tự tử.”
Ngay sau đó, OpenAI đã đăng bài blog có tiêu đề “Giúp đỡ mọi người khi họ cần nhất,” trong đó nêu chi tiết kế hoạch khắc phục những thiếu sót của ChatGPT khi xử lý các tình huống nhạy cảm và cam kết cải thiện công nghệ để bảo vệ những người dễ tổn thương nhất.
Đạo đức của ChatGPT được xác định ra sao?
Một chủ đề lớn khác trong cuộc phỏng vấn là đạo đức và luân lý định hình ChatGPT và những người quản lý nó.
Altman mô tả mô hình cơ bản của ChatGPT được huấn luyện dựa trên kinh nghiệm, kiến thức và bài học chung của nhân loại. Tuy nhiên, OpenAI phải điều chỉnh hành vi của chatbot và quyết định những câu hỏi nó sẽ không trả lời.
“Đây là một vấn đề rất khó. Chúng tôi có rất nhiều người dùng với những quan điểm sống khác nhau… Nhưng nhìn chung, tôi khá hài lòng với khả năng học hỏi và áp dụng khung đạo đức của mô hình,” Altman nói.
Khi được hỏi về cách xác định các đặc điểm kỹ thuật của mô hình, Altman cho biết công ty đã tham khảo ý kiến của “hàng trăm triết gia đạo đức và những người suy nghĩ về đạo đức của công nghệ và hệ thống.” Ví dụ, ChatGPT được thiết kế để tránh trả lời các câu hỏi về cách chế tạo vũ khí sinh học nếu người dùng yêu cầu.
Altman nói: “Có những trường hợp rõ ràng mà lợi ích của xã hội mâu thuẫn đáng kể với tự do của người dùng. Chúng tôi sẽ không làm đúng mọi thứ, và cần sự đóng góp của thế giới để đưa ra các quyết định này.”
ChatGPT có bảo vệ quyền riêng tư không?
Một chủ đề thảo luận quan trọng khác là quyền riêng tư của người dùng liên quan đến chatbot. Carlson lập luận rằng AI tạo sinh có thể được sử dụng để “kiểm soát toàn trị.”
Đáp lại, Altman đề xuất một chính sách mà ông gọi là “đặc quyền AI,” tức là bất cứ điều gì người dùng nói với chatbot nên được giữ hoàn toàn bí mật. “Khi bạn nói chuyện với bác sĩ về sức khỏe hoặc luật sư về vấn đề pháp lý, chính phủ không thể lấy thông tin đó, đúng không? Tôi nghĩ chúng ta nên áp dụng khái niệm tương tự cho AI,” Altman nói.
Theo ông, điều này sẽ cho phép người dùng tham khảo ý kiến chatbot về lịch sử y tế hoặc vấn đề pháp lý mà không lo bị lộ thông tin. Hiện tại, các quan chức Hoa Kỳ có thể yêu cầu OpenAI cung cấp dữ liệu người dùng thông qua lệnh triệu tập. “Tôi lạc quan rằng chúng ta có thể khiến chính phủ hiểu được tầm quan trọng của việc này,” Altman nói.
ChatGPT có được sử dụng trong các hoạt động quân sự không?
Khi được Carlson hỏi liệu ChatGPT có được quân đội sử dụng để gây hại cho con người hay không, Altman không đưa ra câu trả lời trực tiếp.
“Tôi không biết chính xác cách mà quân đội sử dụng ChatGPT hiện nay… nhưng tôi đoán rằng có rất nhiều người trong quân đội đang nói chuyện với ChatGPT để xin lời khuyên,” ông nói, đồng thời thừa nhận không chắc chắn về cảm nhận của mình về vấn đề này.
OpenAI là một trong những công ty AI nhận được hợp đồng trị giá 200 triệu đô la từ Bộ Quốc phòng Hoa Kỳ để triển khai AI tạo sinh cho quân đội Mỹ. OpenAI cho biết sẽ cung cấp cho chính phủ Mỹ quyền truy cập vào các mô hình AI tùy chỉnh cho an ninh quốc gia, hỗ trợ và thông tin lộ trình sản phẩm.
OpenAI quyền lực đến mức nào?
Trong cuộc phỏng vấn, Carlson dự đoán rằng với quỹ đạo hiện tại, AI tạo sinh và cụ thể là Sam Altman có thể tích lũy quyền lực vượt trội, thậm chí gọi ChatGPT là một “tôn giáo.”
Đáp lại, Altman cho biết ông từng lo lắng về sự tập trung quyền lực từ AI tạo sinh, nhưng giờ đây ông tin rằng AI sẽ mang lại “sự nâng cấp lớn” cho tất cả mọi người.
“Hiện tại, hàng ngàn người sử dụng ChatGPT và các chatbot khác, và họ trở nên năng động hơn, làm được nhiều việc hơn, thành lập doanh nghiệp mới, tạo ra kiến thức mới. Điều đó thật tuyệt vời,” Altman nói.
Tuy nhiên, ông cũng thừa nhận rằng AI có thể loại bỏ nhiều công việc hiện tại, đặc biệt trong ngắn hạn.