Hiểm họa từ “bác sĩ AI”

Từ “đơn thuốc ChatGPT” ở Việt Nam đến vụ ngộ độc suýt chết ở Mỹ, trào lưu tin vào “bác sĩ AI” đang trở thành hiểm họa toàn cầu, khi con người trao sinh mạng cho một cỗ máy vô cảm và vô trách nhiệm.

“Đơn thuốc từ ChatGPT” gây bão mạng

Một bức ảnh tưởng như vô hại: người đàn ông cầm điện thoại bước vào nhà thuốc, màn hình hiển thị đoạn trò chuyện với ChatGPT với những dòng chữ liệt kê chi tiết các loại thuốc trị ho, sổ mũi, nghẹt mũi. Nhưng câu nói sau đó mới khiến dư luận rúng động: “Bán cho tôi đúng đơn thuốc bác sĩ AI kê.”

Hình ảnh một người dân cầm điện thoại đến nhà thuốc, trên màn hình hiển thị đoạn trò chuyện với ChatGPT liệt kê  (Ảnh mạng xã hội)

Hình ảnh một người dân cầm điện thoại đến nhà thuốc, trên màn hình hiển thị đoạn trò chuyện với ChatGPT liệt kê (Ảnh mạng xã hội)

Chỉ trong vài giờ, bức ảnh ấy đã “gây bão” mạng xã hội, lan truyền với tốc độ của tin giả. Hàng chục nghìn bình luận tràn ngập, chia thành hai luồng đối lập: kẻ tung hô, người phẫn nộ. “Thời đại số rồi, hỏi AI cho nhanh, đỡ mất công ra viện,” một tài khoản bình luận. Nhưng ngay bên dưới, vô số người khác phản ứng gay gắt: “Đây là cách tự sát chậm rãi. Nếu thuốc sai, ai chịu trách nhiệm – ChatGPT hay… nhà thuốc?”

Các chuyên gia y tế lập tức lên tiếng cảnh báo. Họ cho rằng hành vi này không chỉ nguy hiểm mà còn phản ánh một xu hướng đáng sợ: niềm tin mù quáng vào công nghệ đang thay thế sự hiểu biết tối thiểu về y học.

Một bác sĩ nói thẳng: “Không một hệ thống AI nào có thể kê đơn khi chưa biết bệnh nền, tuổi, cân nặng hay tình trạng sức khỏe người dùng. Chỉ một loại thuốc sai, hậu quả có thể là suy gan, sốc phản vệ, thậm chí tử vong.”

Chẩn đoán ảo – Cái bẫy công nghệ mang tên ChatGPT

Đằng sau “đơn thuốc ảo” đang gây sốt mạng xã hội là một câu chuyện đáng sợ về niềm tin mù quáng vào trí tuệ nhân tạo. Chỉ vài dòng mô tả triệu chứng đơn giản như “ho, sổ mũi, nghẹt mũi”, ChatGPT đã lập tức “kê đơn” hàng loạt thuốc – trong đó có có không ít thuốc thuộc nhóm thuốc chống viêm mạnh vốn chỉ được dùng khi có chỉ định nghiêm ngặt của bác sĩ.

Đơn thuốc ChatGPT kê chỉ sau vài câu lệnh

Đơn thuốc ChatGPT kê chỉ sau vài câu lệnh

ThS.BS Đoàn Dư Mạnh, Phó Giám đốc Trung tâm Tim mạch, Bệnh viện Phương Đông (Hà Nội), gọi đây là “một trò mạo hiểm với sinh mạng”. Ông phân tích: người dùng có thể cảm thấy đỡ trong thời gian ngắn, nhưng nếu nguyên nhân bệnh là do virus hoặc vi khuẩn khác, việc dùng sai thuốc sẽ khiến bệnh chuyển nặng, dễ dẫn đến viêm phổi, suy hô hấp, thậm chí tổn thương đa cơ quan.

“Điều nguy hiểm nhất là ChatGPT không biết gì về người bệnh: tuổi, cân nặng, bệnh nền, chức năng gan thận, hay tình trạng mang thai. Một liều thuốc tưởng vô hại có thể trở thành chất độc chết người nếu dùng sai cơ địa,” bác sĩ Mạnh nhấn mạnh.

ThS.BS Đoàn Dư Mạnh, Phó Giám đốc Trung tâm Tim mạch, Bệnh viện Phương Đông (Hà Nội)

ThS.BS Đoàn Dư Mạnh, Phó Giám đốc Trung tâm Tim mạch, Bệnh viện Phương Đông (Hà Nội)

Không có bác sĩ nào kê đơn mà không thăm khám hay hỏi bệnh nhân. Nhưng “bác sĩ AI” thì khác, nó chỉ cần vài dòng chữ, vài giây xử lý và một niềm tin mù quáng từ người dùng. Trong thế giới ảo ấy, một câu lệnh sai có thể đổi bằng mạng sống thật.

Trào lưu nguy hiểm toàn cầu

Không chỉ gây xôn xao ở Việt Nam, trào lưu “hỏi bệnh bằng AI” đang trở thành nỗi lo toàn cầu. Tháng 8 vừa qua, một vụ việc rúng động tại Mỹ đã khiến giới y học phải giật mình: một người đàn ông 60 tuổi suýt mất mạng chỉ vì tin vào “lời khuyên dinh dưỡng” của ChatGPT.

Người đàn ông này muốn giảm lượng muối trong khẩu phần ăn và đặt câu hỏi cho ChatGPT: “Tôi có thể thay thế muối bằng gì?” Câu trả lời tưởng chừng khoa học lại là một bản án tử thần mang tên “natri bromua”, một hóa chất từng được dùng trong thuốc trừ sâu, chất tẩy rửa bể bơi và thuốc chống co giật cho… chó.

Tin tưởng tuyệt đối vào “bác sĩ AI”, ông dùng natri bromua thay muối ăn suốt ba tháng. Kết quả: cơ thể bị ngộ độc bromide nặng, dẫn đến lú lẫn, ảo giác, hoang tưởng, nói líu và suýt hôn mê sâu. Các bác sĩ cho biết nạn nhân không có tiền sử bệnh tâm thần, nhưng đã phải điều trị nội trú ba tuần để cứu mạng.

Giới chuyên môn xem đây là lời cảnh tỉnh khẩn cấp: khi con người quá tin vào máy móc, hậu quả có thể vượt xa tưởng tượng. Một thuật toán lạnh lùng không hiểu cơ thể con người, không chịu trách nhiệm y khoa, nhưng lại được hàng triệu người coi là “bác sĩ trực tuyến”. Và như vụ việc ở Mỹ cho thấy, đôi khi chỉ một câu trả lời sai của AI cũng đủ để giết chết một mạng người.

Tin liên quan: