Konsep Kunci
- Ollama: Tools untuk menjalankan model LLM.
- Qdrant: Tools untuk RAG berbasis vektor.
- Docker: Platform untuk menjalankan aplikasi dalam container.
- Docker Compose: Tools untuk mendefinisikan dan menjalankan aplikasi multi-container.
- RAG: Retrieval Augmented Generation
Poin Utama
- Spesifikasi minimal perangkat untuk menjalankan LLM.
- Penggunaan Docker untuk instalasi tools.
- Penggunaan Ollama untuk menjalankan model.
- Penggunaan Qdrant untuk RAG berbasis vektor.
- Penggunaan Python dan PyCharm untuk development.
Ringkasan
Video ini membahas tentang spesifikasi perangkat yang diperlukan untuk menjalankan Large Language Model (LLM), dengan fokus pada penggunaan Docker untuk instalasi tools seperti Ollama dan Qdrant. Disarankan untuk menggunakan perangkat dengan minimal 4 CPU dan 8 GB RAM, meskipun demonstrasi dilakukan dengan spesifikasi minimal 4 CPU dan 4 GB RAM.
Ollama digunakan untuk menjalankan model LLM, termasuk model untuk image vision dan web search, sementara Qdrant digunakan untuk implementasi Retrieval Augmented Generation (RAG) berbasis vektor. Instalasi tools ini dilakukan menggunakan Docker dan Docker Compose, yang memungkinkan setiap tool berjalan dalam container terpisah.
Selain itu, video ini juga membahas tentang penggunaan Python dan PyCharm untuk pengembangan, dengan preferensi pada PyCharm Community Edition. Docker dijalankan menggunakan Colima, dan konfigurasi spesifik untuk kursus ini telah disiapkan dengan 4 CPU, 4 GB RAM, dan 60 GB storage. Video ini memberikan gambaran umum tentang persiapan lingkungan pengembangan sebelum memulai instalasi tools.
Daftar Isi
Klik untuk mempercepat video pada bagian-bagian ini
Spesifikasi Perangkat Spesifikasi Minimal Rekomendasi Spesifikasi Instalasi Docker Pengenalan Ollama Pengenalan Qdrant Image Vision dan Web Search Docker Container Docker Compose Qdrant Berbasis Vektor Penggunaan Python Penggunaan PyCharm Penggunaan Colima