Tập đoàn công nghệ Vico

CEO OpenAI cảnh báo nguy cơ lạm dụng ChatGPT trong các quyết định hệ trọng

15/08/2025
(5/5) - 146 bình chọn.
Sam Altman, CEO OpenAI, bày tỏ lo ngại trước xu hướng ngày càng nhiều người coi ChatGPT như một “nhà trị liệu”, đồng thời cảnh báo rủi ro nếu AI phát triển thiếu kiểm soát.

Giám đốc điều hành OpenAI, Sam Altman, mới đây bày tỏ lo ngại về xu hướng nhiều người sử dụng ChatGPT không chỉ để giải trí hay học tập, mà còn coi như một “nhà trị liệu” hoặc “huấn luyện viên cuộc sống”.

Trên mạng xã hội X hôm Chủ nhật, Altman cho biết: “Nhiều người đang dùng ChatGPT như một dạng nhà trị liệu, dù họ không gọi tên như vậy. Tôi có thể hình dung một tương lai nơi mọi người tin tưởng vào lời khuyên của ChatGPT cho những quyết định quan trọng nhất. Điều đó có thể tốt, nhưng cũng khiến tôi cảm thấy bất an.”

Ông cho biết OpenAI đang theo dõi sát sao mức độ gắn bó của người dùng với các mô hình AI, cũng như phản ứng của họ khi các phiên bản cũ bị ngừng hỗ trợ.

Altman cảnh báo công nghệ, kể cả AI, từng bị con người khai thác theo những cách tự hủy hoại: “Nếu một người đang ở trạng thái tinh thần mong manh và dễ hoang tưởng, chúng tôi không muốn AI củng cố điều đó.”

Theo Sam Altman, phần lớn người dùng ChatGPT vẫn nhận thức được sự khác biệt giữa “thực tế” và “hư cấu” hoặc “nhập vai”, nhưng một bộ phận nhỏ thì không.

Trong những trường hợp này, công cụ AI có thể gây tác động tiêu cực nếu khiến người dùng xa rời “lợi ích lâu dài”. Altman nhấn mạnh đây chỉ là quan điểm cá nhân, chưa phải lập trường chính thức của OpenAI.

Những chia sẻ này được đưa ra ngay sau khi GPT-5 chính thức ra mắt hôm thứ Sáu, nhận về nhiều ý kiến trái chiều. Một số người dùng bày tỏ mong muốn OpenAI khôi phục các phiên bản cũ như GPT-4o, cho rằng GPT-5 có giọng điệu “phẳng” và kém sáng tạo hơn.

Trước đó, vào tháng 4, OpenAI từng phải rút lại bản cập nhật GPT-4o vì mô hình bị nhận xét là “quá tâng bốc” và “nịnh” người dùng.

Altman trước đây nhiều lần bày tỏ lo ngại về việc ChatGPT được sử dụng như một công cụ trị liệu cá nhân, bao gồm cả rủi ro pháp lý liên quan.

Trong một podcast phát sóng tháng trước, ông cảnh báo khả năng OpenAI có thể buộc phải cung cấp các đoạn hội thoại mang tính “trị liệu” của người dùng nếu xảy ra kiện tụng: “Nếu bạn chia sẻ những điều nhạy cảm nhất với ChatGPT và rồi có một vụ kiện, chúng tôi có thể bị yêu cầu cung cấp dữ liệu đó. Điều này thật sự rất bất hợp lý”. Altman cho rằng đây là một vấn đề pháp lý mới mà chỉ cách đây một năm chưa từng được nghĩ đến.


Bài viết liên quan
đăng ký nhận bản tin
BÀI VIẾT NỔI BẬT
0918585505
Thời gian tiếp nhận:
9:00~18:00 từ Thứ Hai đến Thứ Sáu
💬
Bạn cần giúp đỡ?
Bot Avatar
Xin chào, tôi là trợ lý Vicogroup AI? Tôi có thể giúp gì cho bạn?