【M4 Mac mini / 16GB】AI検証ログ #04:ローカルRAG構築・ナレッジ編
[REF]:
https://zenn.dev/dadu/articles/e7a3623c4de85d
[REF]:
https://blog.peddals.com/run-dify-and-ollama-on-separate-macs/
以前の記事で書いたんですが、ボクはローカル LLM を 32GB RAM (ユニファイドメモリ) の M2 max で使っています。精度の高い回答を得るにはなるべく大きな LLM モデル使う必要があり、大きなモデルはつま … “Dify と Ollama を別々の Mac で動かすローカル LLM 環境” の続きを読む
[REF]:
https://hack-le.com/dify-local-llm-rag/
今さらRAGやる。サクッと試すならDifyかなということで、またローカルLLMとローカルデータベースにこだわりを見せてやる。 環境 M2 Pro Mac mini 12コアCPU、19コアGPU RAM 32GB macOS Sonoma