Dify と Ollama を別々の Mac で動かすローカル LLM 環境 | Peddals Blog
[REF]:
https://blog.peddals.com/run-dify-and-ollama-on-separate-macs/
以前の記事で書いたんですが、ボクはローカル LLM を 32GB RAM (ユニファイドメモリ) の M2 max で使っています。精度の高い回答を得るにはなるべく大きな LLM モデル使う必要があり、大きなモデルはつま … “Dify と Ollama を別々の Mac で動かすローカル LLM 環境” の続きを読む