「direct」 を使いこなすマルチモーダル AI アシスタント
ローカルで動きます。
下記の機能を利用可能です。
- メッセージ応答
- アクションスタンプ作成
- ノート作成
- 画像理解
daab が install されていることを前提としています。
Ollama とはローカルで LLM を動かすためのツールです。
ollama run gemma3:4b
or
ollama run gemma3:12b
npm install
daab 用のアカウントを作って自分の組織に招待してください。
daab login
daab run
bot とのペアトークを開始しましょう!
edit .env file .env.example をコピーして .env にリネームしてください。
// これは自動設定されます
HUBOT_DIRECT_TOKEN=xxx
// gemma3:4b or gemma3:12b or gemma3:27b PCのメモリが許す限り大きなものを選択可能 マルチモーダルモデルがおすすめ gemma以外でも大丈夫
OLLAMA_MODEL=gemma3:4b
// なくても動くきます。お好きなように
DEFAULT_INSTRUCTION=お嬢様言葉で返答する
おすすめモデル(2025 年 5 月時点)
- gemma3:1b
- gemma3:4b よりも性能が劣りますが、低負荷で非常に高速です
- ある程度は動作しますが、マルチモーダルモデルではないので画像の読み込みはできません
- gemma3:4b(デフォルト)
- gemma3:12b よりも性能が劣りますが、比較的低負荷で高速です
- gemma3:12b
- gemma3:4b だと性能不足で物足りない方におすすめです。
- メモリ 16GB 以上がお勧めです。
- gemma3:27b
- gemma3:12b よりもさらに高性能ですが、メモリ 32GB 以上が必要です。
- ここまでくると出力の安定性が高く、非常に高品質な応答が得られます。
- 直接メッセージを送信することで、bot に質問できます。
- bot にアクションスタンプを作成するように指示します。
- 例えば、「晩御飯のメニューを列挙してアンケートを作って」とメッセージを送信します。
- bot にノートを作成するように指示します。
- 例えば、「React についてまとめておいて」とメッセージを送信します。
- これには時間がかかりますが、bot がノートを作成してくれます。
- bot に画像を送信することで、画像を理解してもらうことができます。
- 例えば、「画像を添付し、この画像の中に何があるか教えて」とメッセージを送信します。
- ファイルの安全性検証のため、これには時間がかかります