chuyên mục

2025-11-04

Khi ChatGPT kê đơn thuốc: Cái tiện của thời đại công nghệ và cái giá của sự chủ quan

Khi ChatGPT kê đơn thuốc: Cái tiện của thời đại công nghệ và cái giá của sự chủ quan

Thời gian gần đây, mạng xã hội lan truyền mạnh mẽ một tình huống thú vị nhưng cũng đầy tranh cãi:
Một người dùng nhập vào ChatGPT câu hỏi tưởng chừng vô hại - “Tôi đang bị hắt hơi, nghẹt mũi, chảy nước mũi, ngứa mũi, chảy nước mắt, mệt mỏi thì ra nhà thuốc mua những thuốc gì?”.
Chỉ vài giây sau, kết quả trả về là một danh sách “đơn thuốc” hoàn chỉnh gồm Prednisolone, Loratadine, Montelukast, xịt mũi Seasoc và Enervon, kèm lời khuyên: “Uống 5–7 ngày, nếu không giảm thì nên đi khám bác sĩ.”

Người này sau đó cầm điện thoại ra nhà thuốc, yêu cầu bán đúng đơn của ChatGPT, và câu chuyện lập tức gây xôn xao. Nhiều người trầm trồ vì trí tuệ nhân tạo (AI) “quá giỏi”, nhưng giới chuyên môn lại lo ngại: liệu người bệnh có đang giao phó sức khỏe, thậm chí tính mạng cho một công cụ máy móc vô tri?

Hãy cùng BS Kiệm bàn sâu hơn về câu chuyện này.


1. AI có thể đúng - nhưng “đúng” chưa chắc đã “an toàn”

AI, trong đó có ChatGPT, là một công cụ tuyệt vời trong việc tổng hợp thông tin. Nó đọc hàng triệu tài liệu, tổng hợp, so sánh và tạo ra câu trả lời gần như tức thì. Với tốc độ và khả năng tổng hợp như vậy, AI thực sự là “người trợ lý” đáng giá trong thời đại thông tin bùng nổ.

Tuy nhiên, tính đúng đắn của câu trả lời lại phụ thuộc hoàn toàn vào chất lượng thông tin đầu vào - tức là những gì người dùng cung cấp. Bạn có chắc rằng mình, người không chuyên sâu về y khoa, đã mô tả đầy đủ các triệu chứng, loại trừ đúng những dấu hiệu nguy hiểm, và biết mình đang mắc bệnh gì Chỉ cần một chi tiết nhỏ bị bỏ qua, ví dụ như người bệnh có tiền sử hen, bệnh tim mạch, tiểu đường hay đang mang thai, “đơn thuốc” mà AI đưa ra có thể không còn là lời khuyên vô hại. Prednisolone chẳng hạn, là thuốc có tác dụng chống viêm rất mạnh nhưng nếu dùng sai, dùng kéo dài hoặc với người đang có nhiễm trùng tiềm ẩn, có thể gây suy giảm miễn dịch, loét dạ dày, tăng đường huyết hoặc giữ nước, tăng huyết áp.

AI không biết người hỏi là ai, không nhìn thấy khuôn mặt, không nghe tiếng thở, không đo được mạch, nhiệt độ hay độ bão hòa oxy. Và chỉ với vài dòng mô tả sơ sài, làm sao nó có thể thay thế được một cuộc thăm khám thật sự? Do đó, AI chỉ nên được xem là công cụ hỗ trợ tham khảo - chứ không bao giờ là người kê đơn thực sự.


2. Khi người bệnh tin tuyệt đối vào AI - hậu quả đôi khi rất đáng tiếc

AI có thể giúp tra cứu nhanh, hiểu sơ bộ về bệnh, nhưng nếu dùng sai cách, hậu quả có thể nghiêm trọng hơn chúng ta tưởng.

Tôi từng tiếp nhận một bệnh nhân nam 55 tuổi, bị ho kéo dài và khó thở nhẹ. Người này trước đó từng đọc trên mạng rằng “ho là do viêm phế quản mạn, có thể dùng Montelukast và thuốc xịt corticoid”. Sau khi hỏi ChatGPT, anh ta làm đúng như hướng dẫn - tự mua thuốc về dùng trong 3 tháng liền, vì... thấy cũng đỡ. Khi đến bệnh viện, tình trạng ho không những không giảm mà còn tăng, người bệnh sụt 5 kg, ho ra ít máu, hình ảnh CT ngực cho thấy một khối u ở phổi phải đã xâm lấn màng phổi. Điều đáng nói là nếu đến khám sớm hơn, khối u ấy hoàn toàn có thể được phát hiện ở giai đoạn khu trú, tiên lượng điều trị tốt hơn nhiều. Nhưng việc tự tin vào “đơn thuốc AI” đã khiến anh bỏ qua giai đoạn vàng trong chẩn đoán.

Một trường hợp khác, một bệnh nhân COPD (bệnh phổi tắc nghẽn mạn tính) vào viện trong tình trạng khó thở nặng. Khi hỏi lại, người nhà cho biết họ đã tra ChatGPT để tìm “thuốc giảm ho, dễ thở”, và AI gợi ý dùng thuốc kháng histamin, kết hợp xịt mũi co mạch. Những loại thuốc này không những không có tác dụng với COPD mà còn có thể làm khô đường thở, ức chế phản xạ ho, khiến đờm ứ lại, làm tình trạng nặng hơn.

Những câu chuyện như vậy không hiếm. Và điều khiến chúng ta phải suy nghĩ đó là: Không phải AI sai, mà là con người đang dùng AI sai cách.


3. Vì sao chữa bệnh theo “đơn thuốc AI” có thể nguy hiểm?

Điều nguy hiểm nhất khi tự tra cứu và dùng thuốc theo AI là thiếu khả năng đánh giá mức độ bệnh và các yếu tố liên quan. AI không có khả năng khám, đo huyết áp, nghe tim phổi hay đánh giá phản ứng phụ. Nó chỉ suy luận dựa trên mô hình ngôn ngữ - không phải trên bằng chứng lâm sàng thực tế.

Một vài ví dụ dễ hiểu:

  • Đau ngực:
    Người bệnh mô tả “đau tức ngực trái, lan ra vai, khó thở nhẹ” - AI có thể cho rằng đây là cơn lo âu hoặc viêm cơ, gợi ý thuốc giảm đau. Nhưng với bác sĩ, đây là dấu hiệu kinh điển của nhồi máu cơ tim, cần nhập viện cấp cứu ngay.

  • Khó thở, mệt mỏi:
    AI có thể gợi ý “hen hoặc viêm mũi dị ứng”. Nhưng trong thực tế, đó có thể là tràn dịch màng phổi do ung thư, hoặc đợt cấp COPD, thậm chí thuyên tắc phổi - những tình huống đòi hỏi xử trí chuyên khoa khẩn cấp.

  • Dùng corticoid tùy tiện:
    Như trong ví dụ đầu bài, thuốc Prednisolone không phải “thuốc cảm cúm” thông thường. Chỉ vài viên dùng sai cách có thể gây mất ngủ, tăng đường huyết, loãng xương, tăng huyết áp, hay hội chứng Cushing giả.

Và nguy hiểm hơn nữa là tác hại âm thầm lâu dài khi người bệnh dùng thuốc sai, làm mờ triệu chứng, khiến bệnh tiến triển âm thầm, đến khi phát hiện thì đã muộn. Trong ung thư, sự chậm trễ vài tháng đôi khi là ranh giới giữa điều trị triệt căn và chăm sóc giảm nhẹ.


4. Lời khuyên từ bác sĩ: Hãy là người dùng AI thông minh, không phải người lệ thuộc

AI là bước tiến vượt bậc của nhân loại, và chính tôi - một bác sĩ điều trị - cũng sử dụng AI hàng ngày:
+ Tra cứu y văn
+ Học hỏi phương pháp nghiên cứu mới
+ Soạn tài liệu chuyên môn
+ Tóm tắt bài báo quốc tế
+ Và thậm chí dùng để hỗ trợ giảng dạy, giải thích bệnh cho bệnh nhân dễ hiểu hơn.

Nhưng tôi không bao giờ dùng AI để thay thế quyết định lâm sàng. Vì y học là lĩnh vực đặc biệt - nơi mỗi con người là một cá thể duy nhất, với tiền sử, cơ địa, bệnh nền, phản ứng thuốc, thậm chí cả tâm lý khác nhau.

Với người dân, BS Kiệm có vài lời khuyên ngắn gọn:

(1) AI chỉ là công cụ hỗ trợ - không phải bác sĩ.
Hãy xem nó như “người thư ký tổng hợp thông tin”, không phải “người kê đơn”.

(2) Nếu tra cứu thông tin y khoa qua AI, hãy đối chiếu ít nhất hai nguồn đáng tin cậy, ví dụ như trang của Bộ Y tế, CDC, Mayo Clinic, hay các bệnh viện lớn trong nước.

(3) Luôn hỏi ý kiến bác sĩ khi có dấu hiệu bất thường.
Đừng vì sợ tốn thời gian mà đánh đổi sức khỏe lâu dài.

(4) Nếu dùng AI, hãy học cách hỏi đúng.
Mô tả rõ ràng, trung thực, nhưng đừng mong chờ một “đơn thuốc” cụ thể. Thay vào đó, hãy hỏi: “Tôi nên đi khám chuyên khoa nào?” hoặc “Dấu hiệu nào cần đến viện ngay?” - đó mới là cách dùng AI an toàn.


Tạm kết: Hãy để công nghệ và y học cùng song hành

AI là thành tựu vĩ đại của thời đại, giúp chúng ta đi nhanh hơn, biết nhiều hơn. Nhưng trong lĩnh vực sức khỏe, sự cẩn trọng và nhân tính vẫn là điều không thể thay thế. Một cỗ máy dù thông minh đến đâu cũng không thể cảm nhận được hơi thở của người bệnh, không thể nhìn vào đôi mắt lo lắng của họ để biết điều gì đang thực sự diễn ra. Chỉ có sự thăm khám trực tiếp, sự lắng nghe và kinh nghiệm lâm sàng của bác sĩ mới mang lại chẩn đoán chính xác và an toàn nhất.

Hãy để AI trở thành người đồng hành - chứ không phải người lái tàu quyết định hoàn toàn số phận của bạn.


ThS.BSNT. Phan Hữu Kiệm – Chuyên ngành Ung thư



Không có nhận xét nào:

Đăng nhận xét