Website được thiết kế tối ưu cho thành viên chính thức. Hãy Đăng nhập hoặc Đăng ký để truy cập đầy đủ nội dung và chức năng. Nội dung bạn cần không thấy trên website, có thể do bạn chưa đăng nhập. Nếu là thành viên của website, bạn cũng có thể yêu cầu trong nhóm Zalo "HI.AI Members" các nội dung bạn quan tâm.

5 vấn đề lớn nhất khi sử dụng ChatGPT và cách khắc phục

hi.ai

Vừa rồi mình dành nhiều thời gian để đọc 2 cuốn sách về AI trong Y tế khá ấn tượng (chi tiết về cảm nhận cuốn sách trong link cuối bài). Trong quá trình sử dụng cũng như đào tạo cho nhân viên Y tế làm chủ AI mình cũng có một số kinh nghiệm. Đây là 5 vấn đề mà mình thấy nên cân nhắc, và tham khảo các khắc phục ở các cấp độ khác nhau.

1. Độ tin cậy và tính chính xác (Hallucination)

ChatGPT đôi khi đưa ra câu trả lời trôi chảy, tự tin nhưng lại không chính xác hoặc bịa đặt thông tin. Đây là vấn đề thường gặp nhất và cũng nguy hiểm nhất nếu người dùng không kiểm chứng.

Đây là vấn đề lớn nhất!

Thường xuyên gặp đến mức khó tin! Chỉ cần chúng ta thay đổi câu hỏi (prompt) thì đúng sẽ thành sai và sai sẽ thành đúng. Không biết đâu mà theo. AI trả lời như thật.

Trong quá trình đào tạo sử dụng AI cũng như sử dụng phần mềm thì đây là vấn đề quan trọng nhất mà team đào sâu, đào sâu khắc phục phục.

Cách khắc phục:


2. Minh bạch và khả năng giải thích (Explainability)

ChatGPT là mô hình "hộp đen": khó hiểu được tại sao nó đưa ra kết quả như vậy. Thiếu minh bạch khiến việc kiểm chứng trở nên khó khăn, đặc biệt trong lĩnh vực y tế, pháp lý, tài chính.

Cách khắc phục:

  • Với các vấn đề quan trọng cần kiểm chứng, luôn luôn đưa vào prompt yêu cầu "Chỉ rõ link tham khảo, nguồn thông tin" để kiểm chứng thủ công.

  • Kết hợp ChatGPT với hệ thống báo cáo nguồn tham khảo (ví dụ: citation). Tức là cùng cấp tài liệu chủ động cho AI (GPT, Project như trên hoặc sử dụng NotebookLM)

  • Đào tạo nhân viên cách đọc, phân tích và phản biện thông tin từ AI.

  • Áp dụng nguyên tắc "AI hỗ trợ – con người quyết định".


3. Bảo mật và quyền riêng tư

Người dùng có thể vô tình nhập dữ liệu nhạy cảm như bệnh án, tài liệu mật, hoặc thông tin cá nhân vào ChatGPT. Nếu triển khai AI trong môi trường không kiểm soát, nguy cơ rò rỉ dữ liệu là rất cao.

Cách khắc phục:

  • Sử dụng ChatGPT trong môi trường nội bộ có kiểm soát. Cài đặt AI riêng với hệ thống RAG (xem mục 1 bên trên)

  • Thiết lập chính sách dữ liệu rõ ràng: không đưa thông tin cá nhân, tài liệu mật vào AI công cộng.

  • Áp dụng công nghệ mã hóa, phân quyền truy cập và kiểm tra bảo mật định kỳ.

  • Đặc biệt nếu chúng ta muốn tìm kiếm giải pháp tiết kiệm, đơn giản nhất là mua ChatGPT dùng chung với nhau. Mọi người có thể tham khảo giải pháp này, ngoài bảo mật, cũng chắc chắn sẽ rẻ hơn: Hướng dẫn sử dụng app HIAI Client sử dụng chung tài khoản ChatGPT trả phí - Bảo mật lịch sử chat


4. Đạo đức và sự phụ thuộc

ChatGPT có thể vô tình khuếch đại định kiến (bias) từ dữ liệu huấn luyện. Người dùng cũng có thể lệ thuộc quá mức vào AI, làm giảm năng lực tư duy độc lập. Ngoài ra, AI còn bị lạm dụng để tạo tin giả hoặc gian lận.

AI trả lời "như thật" đã nguy hiểm, nó còn "hiểu" chúng ta và trả lời cho chúng ta "vừa lòng" nhưng lại mang tính chất "khách quan". Do đó thiên kiến sẽ ngày càng thiên kiến hơn.

Có nhiều người nói, AI chỉ dành cho người giỏi/chuyên gia trong lĩnh vực của mình mà thôi. Cũng liên quan đến vấn đề này.

Cách khắc phục:

  • Về mặt kỹ thuật:

    • Nên có nhiều tài khoản AI;

    • Sử dụng nhiều AI;

    • Lại lưu ý về trích dẫn, nguồn (như vấn đề 1);

    • Hỏi một cách khách quan: hỏi mở rộng trước, hỏi khu trú sau (ACE chắc đều là nhân viên y tế - như chúng ta hỏi bệnh ý. Đừng ám thị người bệnh - Đừng ám thị AI!).

  • Đào tạo người dùng về tư duy phản biện khi dùng AI.

  • Xây dựng quy tắc ứng xử, đạo đức AI trong tổ chức.

  • Giới hạn sử dụng AI trong những kịch bản phù hợp, tránh lạm dụng.


5. Khả năng cập nhật và tính thời sự

ChatGPT có giới hạn về dữ liệu huấn luyện, vì vậy kiến thức có thể lạc hậu so với thực tế. Trong y tế, pháp luật, hay công nghệ – nơi thông tin thay đổi nhanh chóng – điều này dễ dẫn đến sai lệch.

Thật ra hiện tại các chatbot AI đang crawl dữ liệu khủng khiếp. ACE làm website sẽ thấy. Trước đây chỉ có google/bing/yandex/... Còn bây giờ thì bot AI nhảy vô crawl dữ liệu là chủ yếu. Quá nhiều chatbot AI. Nếu không cấu hình thì dễ bị treo/sập website. Nên các phiên bản gần đây của tất cả các AI phổ biến, vấn đề "lạc hậu" gần như không còn nữa.

Nhưng "lạc hậu" có thể xem xét đến các tài liệu nội bộ, thông tin nội bộ của tổ chức. Cái này thì các công cụ tìm kiếm cũng "bó tay". Và có thể xem đây là thế mạnh của AI chứ không phải là "vấn đề" thực sự.

Tuy nhiên, mình vẫn đưa vào đây, như là một thời "ám ảnh" về tính cập nhật. Đặc biệt ACE dùng phiên bản miễn phí. Vấn đề lạc hậu chắc chắn chưa thể khắc phục.

Cách khắc phục:

 

ChatGPT là một công cụ mạnh mẽ, nhưng không phải hoàn hảo. 5 vấn đề lớn nhất gồm: độ tin cậy, minh bạch, bảo mật, đạo đức và khả năng cập nhật. Điều quan trọng là tổ chức và cá nhân phải biết cách khắc phục và sử dụng AI một cách thông minh, có trách nhiệm.

Nếu được triển khai đúng cách, ChatGPT không chỉ giúp tăng hiệu quả công việc mà còn trở thành một trợ lý đáng tin cậy trong kỷ nguyên số.

 

Giới thiệu 2 cuốn sách về AI trong y tế nên đọc: