ComfyUI LLM Party
C
Comfyui LLM Party
簡介 :
ComfyUI LLM Party旨在基於ComfyUI前端開發一套完整的LLM工作流節點集合,使用戶能夠快速便捷地構建自己的LLM工作流,並輕鬆地將它們集成到現有的圖像工作流中。
需求人群 :
目標受眾包括需要構建自定義AI助手、行業知識庫管理、複雜代理互動模式構建、社交APP接口訪問、流媒體工作、學術研究和模型適配的個人和企業。
總訪問量: 474.6M
佔比最多地區: US(19.34%)
本站瀏覽量 : 70.4K
使用場景
使用API調用LLM的示例工作流
使用本地模型的示例工作流
使用ollama管理本地模型的示例工作流
知識庫RAG搜索的示例工作流
代碼解釋器的調用示例
產品特色
支持多種API調用和本地大型模型集成
模塊化實現工具調用
支持角色設置和快速構建個人AI助手
支持行業特定詞向量RAG和GraphRAG,實現行業知識庫管理
支持從單一代理流程到複雜代理間輻射和環形互動模式的構建
支持訪問個人社交APP(QQ、飛書、Discord)所需的接口
支持流媒體工作者所需的一站式LLM + TTS + ComfyUI工作流
支持普通學生所需的第一個LLM應用的簡單啟動
支持科研人員常用的各種參數調試接口和模型適配
使用教程
將工作流拖入ComfyUI中,然後使用ComfyUI-Manager安裝缺失的節點
使用API調用LLM:start_with_LLM_api
使用ollama管理本地LLM:start_with_Ollama
使用本地分佈式格式LLM:start_with_LLM_local
使用本地GGUF格式LLM:start_with_LLM_GGUF
使用本地分佈式格式VLM:start_with_VLM_local
使用本地GGUF格式VLM:start_with_VLM_GGUF
如果是使用API,請在API LLM加載節點中填寫你的base_url(可以是中繼API,請確保以/v1/結尾)和api_key
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase