Skip to content

タグ: rag

March 1, 2026 at 01:54AM

Dify と Ollama を別々の Mac で動かすローカル LLM 環境 | Peddals Blog

[REF]:
https://blog.peddals.com/run-dify-and-ollama-on-separate-macs/

Screenshot of ift.tt

[QUOTE]:

以前の記事で書いたんですが、ボクはローカル LLM を 32GB RAM (ユニファイドメモリ) の M2 max で使っています。精度の高い回答を得るにはなるべく大きな LLM モデル使う必要があり、大きなモデルはつま … “Dify と Ollama を別々の Mac で動かすローカル LLM 環境” の続きを読む