ComfyUI LLM Party
C
Comfyui LLM Party
简介 :
ComfyUI LLM Party旨在基于ComfyUI前端开发一套完整的LLM工作流节点集合,使用户能够快速便捷地构建自己的LLM工作流,并轻松地将它们集成到现有的图像工作流中。
需求人群 :
目标受众包括需要构建自定义AI助手、行业知识库管理、复杂代理互动模式构建、社交APP接口访问、流媒体工作、学术研究和模型适配的个人和企业。
总访问量: 474.6M
占比最多地区: US(19.34%)
本站浏览量 : 72.3K
使用场景
使用API调用LLM的示例工作流
使用本地模型的示例工作流
使用ollama管理本地模型的示例工作流
知识库RAG搜索的示例工作流
代码解释器的调用示例
产品特色
支持多种API调用和本地大型模型集成
模块化实现工具调用
支持角色设置和快速构建个人AI助手
支持行业特定词向量RAG和GraphRAG,实现行业知识库管理
支持从单一代理流程到复杂代理间辐射和环形互动模式的构建
支持访问个人社交APP(QQ、飞书、Discord)所需的接口
支持流媒体工作者所需的一站式LLM + TTS + ComfyUI工作流
支持普通学生所需的第一个LLM应用的简单启动
支持科研人员常用的各种参数调试接口和模型适配
使用教程
将工作流拖入ComfyUI中,然后使用ComfyUI-Manager安装缺失的节点
使用API调用LLM:start_with_LLM_api
使用ollama管理本地LLM:start_with_Ollama
使用本地分布式格式LLM:start_with_LLM_local
使用本地GGUF格式LLM:start_with_LLM_GGUF
使用本地分布式格式VLM:start_with_VLM_local
使用本地GGUF格式VLM:start_with_VLM_GGUF
如果是使用API,请在API LLM加载节点中填写你的base_url(可以是中继API,请确保以/v1/结尾)和api_key
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase