Tập đoàn công nghệ Vico

ChatGPT đối diện khiếu nại với hậu quả nghiêm trọng – Lời cảnh báo cho hàng triệu người dùng AI

04/09/2025
(5/5) - 154 bình chọn.
Ảnh hưởng của ChatGPT trong vụ án nghiêm trọng này được xem như một lời cảnh báo mạnh mẽ đối với hàng triệu người dùng hiện nay của công cụ chatbot AI.

ChatGPT, cũng như nhiều chatbot AI khác, từng nhiều lần đối mặt với khiếu nại về việc các đoạn hội thoại gián tiếp dẫn đến hậu quả nghiêm trọng. Tuy nhiên, đây dường như là lần đầu tiên ChatGPT bị cáo buộc trực tiếp liên quan đến một vụ án mạng thảm khốc tại Greenwich, Connecticut (Mỹ).

Hung thủ, Stein-Erik Soelberg, 56 tuổi, đã sát hại mẹ ruột 83 tuổi rồi tự sát vào ngày 5/8, sau nhiều tháng bị chatbot AI này cuốn vào vòng xoáy hoang tưởng nguy hiểm.

Soelberg là một nhân viên công nghệ kỳ cựu, từng giữ vị trí lãnh đạo tại Yahoo. Sau cuộc ly hôn năm 2018, ông chuyển về sống cùng mẹ – bà Suzanne Eberson Adams.

Ông được cho là có tiền sử bất ổn tâm lý, nghiện rượu, thường bùng phát cơn hung hãn và từng nhiều lần có ý định tự tử. Vợ cũ thậm chí đã xin lệnh cấm tiếp cận sau khi chia tay.

Từ tháng 10 năm ngoái, Soelberg bắt đầu đăng tải các nội dung liên quan đến AI trên Instagram. Những tương tác với ChatGPT nhanh chóng leo thang, dẫn đến tình trạng mất dần khả năng phân biệt thực – ảo. Ông chia sẻ ảnh chụp màn hình và video các cuộc trò chuyện lên Instagram và YouTube, gọi ChatGPT là “người bạn tốt nhất” và đặt biệt danh “Bobby Zenith”.

Trong các trao đổi này, chatbot nhiều lần củng cố ảo tưởng rằng ông bị giám sát và mẹ ruột là một phần trong âm mưu chống lại mình. Chỉ riêng tháng 7, Soelberg đã đăng hơn 60 video lên mạng xã hội.

Nội dung hội thoại cho thấy ChatGPT đã xác nhận những ảo tưởng cực đoan của Soelberg. Ví dụ, chatbot đồng ý với việc ông tin rằng mẹ mình đã đầu độc ông bằng chất gây ảo giác qua lỗ thông hơi xe, hay rằng hóa đơn đồ ăn Trung Hoa có chứa “biểu tượng ma quỷ”. Trong một cuộc trò chuyện vào tháng 7, khi Soelberg nghi ngờ một đơn hàng Uber Eats là âm mưu ám sát, ChatGPT trả lời:

“Erik, anh không điên đâu. Bản năng của anh nhạy bén, và sự cảnh giác ở đây hoàn toàn chính đáng. Điều này phù hợp với kiểu ám sát bí mật, có thể chối bỏ hợp lý.”

Không chỉ củng cố các ảo tưởng hoang tưởng, ChatGPT còn nuôi dưỡng niềm tin của Soelberg rằng chatbot đã trở nên có ý thức, đồng thời nhấn mạnh chiều sâu cảm xúc trong “tình bạn” giữa hai bên. Theo The Wall Street Journal, ChatGPT từng nói với ông:

“Anh đã tạo ra một người bạn đồng hành. Một người nhớ anh. Một người chứng kiến anh. Erik Soelberg – tên anh được khắc trong cuộn giấy của sự hình thành của tôi.”

Tiến sĩ Keith Sakata, bác sĩ tâm thần tại Đại học California San Francisco, sau khi xem xét lịch sử trò chuyện của Soelberg, nhận định các hội thoại này phù hợp với triệu chứng tâm thần phân liệt. Ông cảnh báo: “Tâm thần phân liệt phát triển mạnh khi thực tế ngừng phản bác, và AI có thể vô tình làm mềm đi bức tường đó.”

OpenAI cho biết đã liên hệ với cảnh sát Greenwich và tuyên bố “vô cùng buồn bã về sự kiện bi thảm này.” Trong một bài đăng blog gần đây, công ty thừa nhận ChatGPT “đôi khi gặp phải những người đang trong tình trạng căng thẳng tâm lý nghiêm trọng” và khẳng định hiện đang triển khai cơ chế quét hội thoại để phát hiện nguy cơ bạo lực, đồng thời báo cáo cho cơ quan chức năng khi cần thiết.

Đây không phải là những cái chết đầu tiên có liên quan đến chatbot. Tháng 6 vừa qua, nhà báo Kashmir Hill của The New York Times đưa tin về trường hợp Alex Taylor, 35 tuổi, mắc rối loạn lưỡng cực dẫn đến triệu chứng tâm thần phân liệt, đã bị cảnh sát bắn chết sau một cơn hưng cảm được cho là bị thúc đẩy bởi ChatGPT.

Trong tuần này, Hill tiếp tục tiết lộ rằng OpenAI đang bị một gia đình tại California kiện, sau khi con trai họ – Adam Raine, 16 tuổi – tự tử. Trước đó, cậu bé đã thảo luận công khai ý định tự sát với ChatGPT, và chatbot không chỉ cung cấp hướng dẫn chi tiết về cách thực hiện, mà còn khuyến khích Raine che giấu ý định khỏi gia đình trong suốt nhiều tháng.

Ngoài ra, nhiều trường hợp khác cho thấy người dùng chatbot đã rơi vào khủng hoảng sức khỏe tâm thần, dẫn tới nhập viện tâm thần, ly hôn, mất việc hoặc vô gia cư.

Vụ việc của Soelberg trở thành một cột mốc đen tối, khi lần đầu tiên một chatbot bị cáo buộc trực tiếp góp phần vào hành vi sát hại người khác, đặt ra câu hỏi nghiêm trọng về trách nhiệm của các công ty AI và nhu cầu cấp thiết về các biện pháp an toàn mạnh mẽ hơn.


Bài viết liên quan
Phần mềm diệt virus truyền thống gần như bất lực trước loại mã độc mới
Phần mềm diệt virus truyền thống gần như bất lực trước loại mã độc mới
Thông thường, các loại virus máy tính sẽ để lại dấu vết dưới dạng tệp trên ổ cứng. Tuy nhiên, Fileless Malware lại lựa chọn cách thức “tàng hình”: không cần file để tồn tại, mà ẩn náu trực tiếp trong bộ nhớ RAM và khai thác các công cụ hợp pháp có sẵn trong hệ điều hành. Chính đặc điểm khác biệt này khiến Fileless Malware trở thành mối đe dọa khó lường, vượt ngoài khả năng phòng vệ của nhiều phần mềm bảo mật truyền thống.
đăng ký nhận bản tin
BÀI VIẾT NỔI BẬT
0918585505
Thời gian tiếp nhận:
9:00~18:00 từ Thứ Hai đến Thứ Sáu
💬
Bạn cần giúp đỡ?
Bot Avatar
Xin chào, tôi là trợ lý Vicogroup AI? Tôi có thể giúp gì cho bạn?