
Vừa rồi mình dành nhiều thời gian để đọc 2 cuốn sách về AI trong Y tế khá ấn tượng (chi tiết về cảm nhận cuốn sách trong link cuối bài). Trong quá trình sử dụng cũng như đào tạo cho nhân viên Y tế làm chủ AI mình cũng có một số kinh nghiệm. Đây là 5 vấn đề mà mình thấy nên cân nhắc, và tham khảo các khắc phục ở các cấp độ khác nhau.
1. Độ tin cậy và tính chính xác (Hallucination)
ChatGPT đôi khi đưa ra câu trả lời trôi chảy, tự tin nhưng lại không chính xác hoặc bịa đặt thông tin. Đây là vấn đề thường gặp nhất và cũng nguy hiểm nhất nếu người dùng không kiểm chứng.
Đây là vấn đề lớn nhất!
Thường xuyên gặp đến mức khó tin! Chỉ cần chúng ta thay đổi câu hỏi (prompt) thì đúng sẽ thành sai và sai sẽ thành đúng. Không biết đâu mà theo. AI trả lời như thật.
Trong quá trình đào tạo sử dụng AI cũng như sử dụng phần mềm thì đây là vấn đề quan trọng nhất mà team đào sâu, đào sâu khắc phục phục.
Cách khắc phục:
Cách khắc phục bài bản nhất: Kết hợp với hệ thống có truy xuất nguồn gốc rõ ràng (ví dụ: tích hợp tìm kiếm tài liệu nội bộ hoặc cơ sở dữ liệu chính thống).
Luôn luôn lưu ý kỹ thuật sử dụng prompt: Áp dụng phương pháp 5W1H 2C5M để viết prompt
Nếu tài liệu ít: có thể dùng GPT, Project. Tham khảo thêm: My GPTs - Hiểu tường tận để khai thác tối đa sức mạnh và Projects - Hiểu tường tận để triển khai kế hoạch, dự án hiệu quả
Nếu tài liệu nhiều: sử dụng hệ thống RAG: Hướng dẫn sử dụng AI từ bắt đầu đến chuyên sâu và Một số cân nhắc khi tự host các mô hình ngôn ngữ lớn (LLMs)
Sử dụng ChatGPT như một công cụ gợi ý, không phải nguồn dữ liệu cuối cùng.
Luôn kiểm tra lại thông tin từ nguồn đáng tin cậy.
2. Minh bạch và khả năng giải thích (Explainability)
ChatGPT là mô hình "hộp đen": khó hiểu được tại sao nó đưa ra kết quả như vậy. Thiếu minh bạch khiến việc kiểm chứng trở nên khó khăn, đặc biệt trong lĩnh vực y tế, pháp lý, tài chính.
Cách khắc phục:
Với các vấn đề quan trọng cần kiểm chứng, luôn luôn đưa vào prompt yêu cầu "Chỉ rõ link tham khảo, nguồn thông tin" để kiểm chứng thủ công.
Kết hợp ChatGPT với hệ thống báo cáo nguồn tham khảo (ví dụ: citation). Tức là cùng cấp tài liệu chủ động cho AI (GPT, Project như trên hoặc sử dụng NotebookLM)
Đào tạo nhân viên cách đọc, phân tích và phản biện thông tin từ AI.
Áp dụng nguyên tắc "AI hỗ trợ – con người quyết định".
3. Bảo mật và quyền riêng tư
Người dùng có thể vô tình nhập dữ liệu nhạy cảm như bệnh án, tài liệu mật, hoặc thông tin cá nhân vào ChatGPT. Nếu triển khai AI trong môi trường không kiểm soát, nguy cơ rò rỉ dữ liệu là rất cao.
Cách khắc phục:
Sử dụng ChatGPT trong môi trường nội bộ có kiểm soát. Cài đặt AI riêng với hệ thống RAG (xem mục 1 bên trên)
Thiết lập chính sách dữ liệu rõ ràng: không đưa thông tin cá nhân, tài liệu mật vào AI công cộng.
Áp dụng công nghệ mã hóa, phân quyền truy cập và kiểm tra bảo mật định kỳ.
Đặc biệt nếu chúng ta muốn tìm kiếm giải pháp tiết kiệm, đơn giản nhất là mua ChatGPT dùng chung với nhau. Mọi người có thể tham khảo giải pháp này, ngoài bảo mật, cũng chắc chắn sẽ rẻ hơn: Hướng dẫn sử dụng app HIAI Client sử dụng chung tài khoản ChatGPT trả phí - Bảo mật lịch sử chat
4. Đạo đức và sự phụ thuộc
ChatGPT có thể vô tình khuếch đại định kiến (bias) từ dữ liệu huấn luyện. Người dùng cũng có thể lệ thuộc quá mức vào AI, làm giảm năng lực tư duy độc lập. Ngoài ra, AI còn bị lạm dụng để tạo tin giả hoặc gian lận.
AI trả lời "như thật" đã nguy hiểm, nó còn "hiểu" chúng ta và trả lời cho chúng ta "vừa lòng" nhưng lại mang tính chất "khách quan". Do đó thiên kiến sẽ ngày càng thiên kiến hơn.
Có nhiều người nói, AI chỉ dành cho người giỏi/chuyên gia trong lĩnh vực của mình mà thôi. Cũng liên quan đến vấn đề này.
Cách khắc phục:
Về mặt kỹ thuật:
Nên có nhiều tài khoản AI;
Sử dụng nhiều AI;
Lại lưu ý về trích dẫn, nguồn (như vấn đề 1);
Hỏi một cách khách quan: hỏi mở rộng trước, hỏi khu trú sau (ACE chắc đều là nhân viên y tế - như chúng ta hỏi bệnh ý. Đừng ám thị người bệnh - Đừng ám thị AI!).
Đào tạo người dùng về tư duy phản biện khi dùng AI.
Xây dựng quy tắc ứng xử, đạo đức AI trong tổ chức.
Giới hạn sử dụng AI trong những kịch bản phù hợp, tránh lạm dụng.
5. Khả năng cập nhật và tính thời sự
ChatGPT có giới hạn về dữ liệu huấn luyện, vì vậy kiến thức có thể lạc hậu so với thực tế. Trong y tế, pháp luật, hay công nghệ – nơi thông tin thay đổi nhanh chóng – điều này dễ dẫn đến sai lệch.
Thật ra hiện tại các chatbot AI đang crawl dữ liệu khủng khiếp. ACE làm website sẽ thấy. Trước đây chỉ có google/bing/yandex/... Còn bây giờ thì bot AI nhảy vô crawl dữ liệu là chủ yếu. Quá nhiều chatbot AI. Nếu không cấu hình thì dễ bị treo/sập website. Nên các phiên bản gần đây của tất cả các AI phổ biến, vấn đề "lạc hậu" gần như không còn nữa.
Nhưng "lạc hậu" có thể xem xét đến các tài liệu nội bộ, thông tin nội bộ của tổ chức. Cái này thì các công cụ tìm kiếm cũng "bó tay". Và có thể xem đây là thế mạnh của AI chứ không phải là "vấn đề" thực sự.
Tuy nhiên, mình vẫn đưa vào đây, như là một thời "ám ảnh" về tính cập nhật. Đặc biệt ACE dùng phiên bản miễn phí. Vấn đề lạc hậu chắc chắn chưa thể khắc phục.
Cách khắc phục:
Sử dụng gói trả phí. Giải pháp này quá rẻ (rẻ nhất hiện nay) cho ACE rồi Hướng dẫn sử dụng app HIAI Client sử dụng chung tài khoản ChatGPT trả phí - Bảo mật lịch sử chat
Tích hợp ChatGPT với công cụ tìm kiếm thời gian thực.
Thường xuyên cập nhật và huấn luyện lại trên dữ liệu mới.
Sử dụng kết hợp với hệ thống tri thức nội bộ đã được xác thực.
ChatGPT là một công cụ mạnh mẽ, nhưng không phải hoàn hảo. 5 vấn đề lớn nhất gồm: độ tin cậy, minh bạch, bảo mật, đạo đức và khả năng cập nhật. Điều quan trọng là tổ chức và cá nhân phải biết cách khắc phục và sử dụng AI một cách thông minh, có trách nhiệm.
Nếu được triển khai đúng cách, ChatGPT không chỉ giúp tăng hiệu quả công việc mà còn trở thành một trợ lý đáng tin cậy trong kỷ nguyên số.
Giới thiệu 2 cuốn sách về AI trong y tế nên đọc:
- Sách Cuộc cách mạng AI trong y học: GPT-4 và hơn thế nữa
- Ứng Dụng AI Trong Y Tế: Học Máy, Học Sâu và Tương Lai Y Học
