Website được thiết kế tối ưu cho thành viên chính thức. Hãy Đăng nhập hoặc Đăng ký để truy cập đầy đủ nội dung và chức năng. Nội dung bạn cần không thấy trên website, có thể do bạn chưa đăng nhập. Nếu là thành viên của website, bạn cũng có thể yêu cầu trong nhóm Zalo "HI.AI Members" các nội dung bạn quan tâm.

Server AI

Một số cân nhắc khi tự host các mô hình ngôn ngữ lớn (LLMs)

HI.AI
Mình đang dùng Ollama. Và thích dùng llama3.1 trong việc phân loại dữ liệu, RAG. Cũng thử dùng CPU và một vài card trước khi chuyển qua RTX 5060 Ti 16GB. Khá hài lòng về điện, hiệu năng, nhu cầu công việc. CPU mạnh cũng tiện dùng song song các việc khác liên quan đến data.