Farfalle
F
Farfalle
简介 :
Farfalle是一个开源的AI驱动搜索引擎,它允许用户运行本地大型语言模型(LLMs)或使用云模型。它是基于Perplexity克隆的,可以与多种技术栈集成,如Next.js前端、FastAPI后端、Tavily搜索API等。它还提供了自定义设置的文档和演示视频,以帮助用户快速开始。
需求人群 :
Farfalle适合开发者和技术人员,特别是那些对AI驱动搜索技术感兴趣的人。它提供了一个开源的解决方案,使得个人和企业能够利用大型语言模型来增强搜索能力,无论是本地还是云端部署。
总访问量: 2.5K
本站浏览量 : 77.6K
使用场景
开发者可以利用Farfalle创建个性化的AI搜索引擎。
企业可以部署Farfalle来提供内部搜索服务,提高员工的工作效率。
教育机构可以利用Farfalle作为教学工具,帮助学生更好地获取信息。
产品特色
支持本地运行大型语言模型如llama3、gemma、mistral。
支持云模型,如Groq/Llama3、OpenAI/gpt4-o。
提供Docker部署设置,方便用户部署。
集成了Tavily搜索API,无需外部依赖。
使用Logfire进行日志记录。
使用Redis进行速率限制。
提供详细的自定义设置文档。
使用教程
首先,确保安装了Docker和Ollama(如果运行本地模型)。
下载支持的模型之一:llama3、mistral或gemma。
启动Ollama服务器:ollama serve。
获取Tavily、OpenAI(可选)和Groq(可选)的API密钥。
克隆Farfalle仓库到本地。
在.env文件中添加必要的环境变量。
使用Docker Compose运行容器。
访问http://localhost:3000来查看应用程序。
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase