Bootcamp LLMs & AI Agents
Thời lượng
06 buổi
Hình thức đào tạo
Online qua Video
Học phí
600.000đ
Tổng quan
Bootcamp LLM & AI Agent được thiết kế như một hành trình thực hành chuyên sâu trong 6 buổi, giúp học viên nắm vững nền tảng LLM, thực hiện finetuning, xây dựng RAG, phát triển AI Agent có Tool & Memory và triển khai hệ thống lên web. Chương trình tập trung vào “learn-by-building”, đảm bảo học viên có thể tự tạo ra một AI Agent hoàn chỉnh từ lý thuyết đến triển khai.

Lợi ích khóa học
Học tập linh hoạt, chủ động thời gian
Khóa học được triển khai hoàn toàn qua video bài giảng đã ghi hình, học viên có thể học mọi lúc, mọi nơi, phù hợp với lịch trình cá nhân.
Nội dung kết hợp lý thuyết & thực hành
Mỗi buổi học được thiết kế theo tỉ lệ 60% kiến thức lý thuyết – 40% thực hành, đi kèm ví dụ và case study thực tế. Học viên vừa nắm được nền tảng, vừa biết cách áp dụng ngay.
Tài liệu học tập đầy đủ
Khóa học cung cấp slide, file thực hành, và hướng dẫn chi tiết để học viên dễ dàng theo dõi và thực hành song song với video.
Hỗ trợ học viên qua cộng đồng & trợ giảng
Mặc dù không học live, học viên vẫn được tham gia vào nhóm cộng đồng để đặt câu hỏi và trao đổi cùng trợ giảng, mentor và các học viên khác.
Thực hành với các project thực tế
Học viên không chỉ học lý thuyết mà còn được tự tay xây dựng dự án thực tế cuối khóa, giúp củng cố kỹ năng và tạo ra sản phẩm cuối khóa cho portfolio.
Mục tiêu học tập
Đối tượng học tập
Chuẩn đầu ra
Kiến thức nền tảng LLM & RAG
Kiến thức nền tảng LLM & RAG
Nắm vững kiến trúc LLM, Finetuning và pipeline RAG.
Kỹ năng xây dựng hệ thống RAG
Kỹ năng xây dựng hệ thống RAG
Tự tạo embedding, lưu trữ vector và triển khai RAG từ dữ liệu cá nhân.
Kỹ năng phát triển AI Agent
Kỹ năng phát triển AI Agent
Xây Agent có Tool, Memory, khả năng reasoning và multi-step answering.
Khả năng triển khai thực tế
Khả năng triển khai thực tế
Tự động đưa hệ thống lên Web/App và tạo bản demo có thể chia sẻ.
Lộ trình học tập
- Tổng quan về LLM: Kiến trúc, cách hoạt động (transformer, attention), các kiến trúc LLM (encoder-decoder, decoder only).
- Giới thiệu về Pretraining → Finetuning → Inference.
- Tổng quan RAG (Retrieval-Augmented Generation): Khái niệm và ứng dụng thực tiễn.
- Mối liên hệ giữa LLM, RAG và các ứng dụng doanh nghiệp.
- Cài đặt môi trường phát triển: Python, Jupyter Notebook, VSCode, Git, Conda.
- Cài đặt LangChain, OpenAI SDK/Gemini SDK.
- Gọi thử LLM qua API (OpenAI hoặc Gemini) bằng Curl và Python.
- Kỹ thuật Finetune: Full vs PEFT (LoRA, QLoRA).
- Giới thiệu về RLHF (Reinforcement Learning with Human Feedback).
- Cấu trúc prompt và template chat cho các LLM khác nhau.
- Các framework phổ biến: Transformers, PEFT, QLoRA, Unsloth.
- Demo finetuning mô hình LLM cơ bản sử dụng Hugging Face Transformers.
- Sử dụng LoRA để thực hiện parameter-efficient finetuning với một mô hình LLM.
- Hướng dẫn sử dụng Unslothai hoặc các framework finetuning khác (như PEFT, QLoRA) để tối ưu mô hình LLM.
- Pipeline RAG: Embedding → Vector DB → Truy xuất → LLM trả lời.
- Các công cụ lưu trữ vector phổ biến: FAISS, ChromaDB, Weaviate.
- Cách tích hợp RAG vào hệ thống AI Agent, sử dụng LangChain để dễ dàng kết nối các bước.
- Tạo Embedding từ tài liệu PDF (thư viện pháp luật).
- Lưu trữ dữ liệu vào FAISS và kết nối với LangChain.
- Xây dựng hệ thống RAG cơ bản với LangChain để truy xuất dữ liệu và trả lời câu hỏi từ tài liệu thư viện pháp luật.
- Giới thiệu về AI Agent: zero-shot, react, plan-and-act.
- Cách thức hoạt động của Agent: lập kế hoạch và thực hiện hành động (Plan-and-Act).
- Memory trong LangChain: Làm sao lưu trữ lịch sử hội thoại để cải thiện tương tác.
- Các công cụ hỗ trợ trong LangChain: Tools, Memory, Agent Types (React, Plan-and-Act).
- Xây dựng AI Agent với khả năng gọi các Tool (ví dụ: Calculator, Search Tool).
- Tích hợp Memory để ghi nhớ thông tin và lịch sử hội thoại trong LangChain.
- Xây dựng Agent thực hiện các tác vụ lập kế hoạch và phản hồi thông minh.
- Kiến trúc tổng thể: Agent sử dụng RAG như một Tool truy xuất tri thức.
- Các chiến lược thiết kế Agent: Multi-agent, Modular agent.
- Cách tích hợp RAG vào Agent như một bước trong quy trình trả lời câu hỏi thông minh.
- Giới thiệu về MCP (Model Context Protocol).
- Kết hợp hệ thống RAG và Agent: sử dụng RAG Tool trong Agent để truy xuất tri thức và thực hiện reasoning.
- Xây dựng một Agent có khả năng trả lời câu hỏi từ tài liệu PDF hoặc dữ liệu cá nhân thông qua RAG.
- Thực hiện các tác vụ phức tạp, như tìm kiếm thông tin và trả lời câu hỏi đa bước.
- Các lựa chọn triển khai AI Agent: Gradio, Streamlit, FastAPI, HuggingFace Spaces.
- Tạo giao diện chatbot sử dụng Gradio.
- Các vấn đề cần lưu ý khi triển khai AI Agent vào sản phẩm thực tế.
- Dùng Gradio hoặc Streamlit để xây dựng giao diện web cho AI Agent.
- Chia sẻ link demo hệ thống AI Agent hoạt động.
- QA về khóa học, học viên tự xây dựng và triển khai hệ thống.
Giảng viên
Thạc sĩ Khoa học dữ liệu - ĐHBKHN
Machine Learning Team Lead tại GMO Runsystem
– 5+ năm kinh nghiệm xây dựng hệ thống AI cho doanh nghiệp Nhật
– Từng công tác tại FPT Smart Cloud, Sun Asterisk
– Thành thạo: Llama-cpp, LangChain, FastAPI, HuggingFace, FAISS, Docker
– Tác giả nhiều mô hình OCR, Smart Agent, các hệ thống AI ứng dụng vào KYC, hiểu văn bản, trợ lý doanh nghiệp...
- Best Paper Award tại hội thảo MAPR 2023
- Đạt thứ hạng cao trong các cuộc thi AI như ICDAR2021, RIVF2021
Dự án học viên
Feedback học viên
Lợi ích chỉ có tại COLE
Giới thiệu việc làm sau khóa học
Học lại free
Cộng đồng chuyển đổi số 1
Câu hỏi thường gặp
Để biết thêm thông tin chi tiết đừng ngần ngại gọi cho chúng tôi.
-
Hotline
-
Email
-
Trang tin chính thức
Hoặc để lại thông tin
COLE - Lựa chọn hàng đầu cho nhân
sự về Digital Skills
5000+
Học viên theo học
30%
Thu nhập học viên tăng lên sau khi học
30+ Khóa học
Hàng đầu về ứng dụng công nghệ
50+
Chuyên gia hàng đầu về chuyển đổi số
300+ Doanh nghiệp hàng đầu lựa chọn Cole để nâng cấp kỹ năng
Hình ảnh lớp học