# 长文本处理

GPT-4.1
GPT 4.1
GPT-4.1 是一系列新模型,提供了显著的性能提升,特别是在编码、指令跟随和处理长文本上下文方面。它的上下文窗口扩大到 100 万标记,并且在真实世界的应用中表现出色,适合开发者创建更高效的应用程序。此模型的价格相对较低,且具有快速响应能力,使其在开发和执行复杂任务时更加高效。
AI模型
100.5K
Jamba 1.6
Jamba 1.6
Jamba 1.6 是 AI21 推出的最新语言模型,专为企业私有部署而设计。它在长文本处理方面表现出色,能够处理长达 256K 的上下文窗口,采用混合 SSM-Transformer 架构,可高效准确地处理长文本问答任务。该模型在质量上超越了 Mistral、Meta 和 Cohere 等同类模型,同时支持灵活的部署方式,包括在本地或 VPC 中私有部署,确保数据安全。它为企业提供了一种无需在数据安全和模型质量之间妥协的解决方案,适用于需要处理大量数据和长文本的场景,如研发、法律和金融分析等。目前,Jamba 1.6 已在多个企业中得到应用,如 Fnac 使用其进行数据分类,Educa Edtech 利用其构建个性化聊天机器人等。
AI模型
57.4K
AI21-Jamba-Large-1.6
AI21 Jamba Large 1.6
AI21-Jamba-Large-1.6 是由 AI21 Labs 开发的混合 SSM-Transformer 架构基础模型,专为长文本处理和高效推理而设计。该模型在长文本处理、推理速度和质量方面表现出色,支持多种语言,并具备强大的指令跟随能力。它适用于需要处理大量文本数据的企业级应用,如金融分析、内容生成等。该模型采用 Jamba Open Model License 授权,允许在许可条款下进行研究和商业使用。
模型训练与部署
58.8K
QwQ-32B
Qwq 32B
QwQ-32B 是 Qwen 系列的推理模型,专注于复杂问题的思考和推理能力。它在下游任务中表现出色,尤其是在解决难题方面。该模型基于 Qwen2.5 架构,经过预训练和强化学习优化,具有 325 亿参数,支持 131072 个完整上下文长度的处理能力。其主要优点包括强大的推理能力、高效的长文本处理能力和灵活的部署选项。该模型适用于需要深度思考和复杂推理的场景,如学术研究、编程辅助和创意写作等。
AI模型
78.4K
优质新品
Gemini 2.0 Flash-Lite
Gemini 2.0 Flash Lite
Gemini 2.0 Flash-Lite 是 Google 推出的高效语言模型,专为长文本处理和复杂任务优化。它在推理、多模态、数学和事实性基准测试中表现出色,具备简化的价格策略,使得百万级上下文窗口更加经济实惠。Gemini 2.0 Flash-Lite 已在 Google AI Studio 和 Vertex AI 中全面开放,适合企业级生产使用。
AI模型
58.5K
MoBA
Moba
MoBA(Mixture of Block Attention)是一种创新的注意力机制,专为长文本上下文的大语言模型设计。它通过将上下文划分为块,并让每个查询令牌学习关注最相关的块,从而实现高效的长序列处理。MoBA 的主要优点是能够在全注意力和稀疏注意力之间无缝切换,既保证了性能,又提高了计算效率。该技术适用于需要处理长文本的任务,如文档分析、代码生成等,能够显著降低计算成本,同时保持模型的高性能表现。MoBA 的开源实现为研究人员和开发者提供了强大的工具,推动了大语言模型在长文本处理领域的应用。
模型训练与部署
54.1K
ModernBERT-base
Modernbert Base
ModernBERT-base是一个现代化的双向编码器Transformer模型,预训练于2万亿英文和代码数据,原生支持长达8192个token的上下文。该模型采用了Rotary Positional Embeddings (RoPE)、Local-Global Alternating Attention和Unpadding等最新架构改进,使其在长文本处理任务中表现出色。ModernBERT-base适用于需要处理长文档的任务,如检索、分类和大型语料库中的语义搜索。模型训练数据主要为英文和代码,因此可能在其他语言上的表现会有所降低。
AI模型
54.4K
EXAONE 3.5
EXAONE 3.5
EXAONE 3.5是LG AI Research发布的一系列人工智能模型,这些模型以其卓越的性能和成本效益而著称。它们在模型训练效率、去污染处理、长文本理解和指令遵循能力方面表现出色。EXAONE 3.5模型的开发遵循了LG的AI伦理原则,进行了AI伦理影响评估,以确保模型的负责任使用。这些模型的发布旨在推动AI研究和生态系统的发展,并为AI创新奠定基础。
AI模型
49.1K
Aria-Base-64K
Aria Base 64K
Aria-Base-64K是Aria系列的基础模型之一,专为研究目的和继续训练而设计。该模型在长文本预训练阶段后形成,经过33B个token(21B多模态,12B语言,69%为长文本)的训练。它适合于长视频问答数据集或长文档问答数据集的继续预训练或微调,即使在资源有限的情况下,也可以通过短指令调优数据集进行后训练,并转移到长文本问答场景。该模型能够理解多达250张高分辨率图像或多达500张中等分辨率图像,并在语言和多模态场景中保持强大的基础性能。
AI模型
45.5K
Qwen2.5-Coder-0.5B-Instruct-GGUF
Qwen2.5 Coder 0.5B Instruct GGUF
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,Qwen2.5-Coder-32B已成为当前最先进的开源代码语言模型,其编码能力与GPT-4o相匹配。该模型在实际应用中,如代码代理等,提供了更全面的基础,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
代码推理
45.8K
中文精选
Qwen2.5-Turbo
Qwen2.5 Turbo
Qwen2.5-Turbo是阿里巴巴开发团队推出的一款能够处理超长文本的语言模型,它在Qwen2.5的基础上进行了优化,支持长达1M个token的上下文,相当于约100万英文单词或150万中文字符。该模型在1M-token Passkey Retrieval任务中实现了100%的准确率,并在RULER长文本评估基准测试中得分93.1,超越了GPT-4和GLM4-9B-1M。Qwen2.5-Turbo不仅在长文本处理上表现出色,还保持了短文本处理的高性能,且成本效益高,每1M个token的处理成本仅为0.3元。
高性能
59.6K
Qwen2.5-Coder-3B-Instruct-GPTQ-Int4
Qwen2.5 Coder 3B Instruct GPTQ Int4
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专为代码生成、推理和修复而设计。该模型基于Qwen2.5,扩展了训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等。Qwen2.5-Coder-32B是目前开源代码LLM中的佼佼者,其编码能力与GPT-4o相匹配。此模型为GPTQ-量化的4位指令调优3B参数Qwen2.5-Coder模型,具有因果语言模型、预训练和后训练阶段、transformers架构等特点。
代码推理
49.7K
Qwen2.5-Coder-32B-Instruct-GPTQ-Int8
Qwen2.5 Coder 32B Instruct GPTQ Int8
Qwen2.5-Coder-32B-Instruct-GPTQ-Int8是Qwen系列中针对代码生成优化的大型语言模型,拥有32亿参数,支持长文本处理,是当前开源代码生成领域最先进的模型之一。该模型基于Qwen2.5进行了进一步的训练和优化,不仅在代码生成、推理和修复方面有显著提升,而且在数学和通用能力上也保持了优势。模型采用GPTQ 8-bit量化技术,以减少模型大小并提高运行效率。
长文本处理
53.8K
Qwen2.5-Coder-32B-Instruct-GPTQ-Int4
Qwen2.5 Coder 32B Instruct GPTQ Int4
Qwen2.5-Coder-32B-Instruct-GPTQ-Int4是基于Qwen2.5的代码生成大型语言模型,具有32.5亿参数量,支持长文本处理,最大支持128K tokens。该模型在代码生成、代码推理和代码修复方面有显著提升,是当前开源代码语言模型中的佼佼者。它不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
代码推理
49.4K
Qwen2.5-Coder-32B-Instruct-AWQ
Qwen2.5 Coder 32B Instruct AWQ
Qwen2.5-Coder是一系列针对代码生成优化的大型语言模型,覆盖了0.5、1.5、3、7、14、32亿参数的六种主流模型尺寸,以满足不同开发者的需求。Qwen2.5-Coder在代码生成、代码推理和代码修复方面有显著提升,基于强大的Qwen2.5,训练令牌扩展到5.5万亿,包括源代码、文本代码接地、合成数据等,成为当前最先进的开源代码LLM,其编码能力与GPT-4o相匹配。此外,Qwen2.5-Coder还提供了更全面的基础,适用于现实世界中的代码代理等应用场景。
代码推理
50.0K
Qwen2.5-Coder-32B
Qwen2.5 Coder 32B
Qwen2.5-Coder-32B是基于Qwen2.5的代码生成模型,拥有32亿参数,是目前开源代码语言模型中参数最多的模型之一。它在代码生成、代码推理和代码修复方面有显著提升,能够处理长达128K tokens的长文本,适用于代码代理等实际应用场景。该模型在数学和通用能力上也保持了优势,支持长文本处理,是开发者在进行代码开发时的强大助手。
代码助手
47.2K
Mistral-Small-Instruct-2409
Mistral Small Instruct 2409
Mistral-Small-Instruct-2409是由Mistral AI Team开发的一个具有22B参数的指令式微调AI模型,支持多种语言,并能够支持高达128k的序列长度。该模型特别适用于需要长文本处理和复杂指令理解的场景,如自然语言处理、机器学习等领域。
AI模型
49.7K
Reader-LM
Reader LM
Reader-LM是Jina AI开发的小型语言模型,旨在将网络中的原始、杂乱的HTML内容转换为清洁的Markdown格式。这些模型特别针对长文本处理进行了优化,支持多语言,并能够处理高达256K令牌的上下文长度。Reader-LM模型通过直接从HTML到Markdown的转换,减少了对正则表达式和启发式规则的依赖,提高了转换的准确性和效率。
AI文本转语音
58.2K
优质新品
AI21-Jamba-1.5-Mini
AI21 Jamba 1.5 Mini
AI21-Jamba-1.5-Mini是AI21实验室开发的最新一代混合SSM-Transformer指令跟随基础模型。这款模型以其卓越的长文本处理能力、速度和质量在市场上脱颖而出,相较于同类大小的领先模型,推理速度提升高达2.5倍。Jamba 1.5 Mini和Jamba 1.5 Large专为商业用例和功能进行了优化,如函数调用、结构化输出(JSON)和基础生成。
AI模型
49.1K
国外精选
Jamba 1.5 Open Model Family
Jamba 1.5 Open Model Family
Jamba 1.5 Open Model Family是AI21公司推出的最新AI模型系列,基于SSM-Transformer架构,具有超长文本处理能力、高速度和高质量,是市场上同类产品中表现最优的。这些模型专为企业级应用设计,考虑了资源效率、质量、速度和解决关键任务的能力。
AI模型
53.5K
InternLM-XComposer2.5
Internlm XComposer2.5
InternLM-XComposer2.5是一款专注于文本图像理解与合成应用的大型语言模型,具有7B参数的后端支持,能够处理长达96K的长文本上下文,适合需要广泛输入输出的复杂任务。
AI模型
54.9K
InternLM2.5-7B-Chat-1M
Internlm2.5 7B Chat 1M
InternLM2.5-7B-Chat-1M 是一个开源的70亿参数的对话模型,具有卓越的推理能力,在数学推理方面超越了同量级模型。该模型支持1M超长上下文窗口,能够处理长文本任务,如LongBench等。此外,它还具备强大的工具调用能力,能够从上百个网页搜集信息进行分析推理。
AI模型
57.4K
InternLM2.5-7B-Chat
Internlm2.5 7B Chat
InternLM2.5-7B-Chat是一个开源的7亿参数的中文对话模型,专为实用场景设计,具有卓越的推理能力,在数学推理方面超越了Llama3和Gemma2-9B等模型。支持从上百个网页搜集信息进行分析推理,具有强大的工具调用能力,支持1M超长上下文窗口,适合进行长文本处理和复杂任务的智能体构建。
AI聊天机器人
57.4K
Qwen2
Qwen2
Qwen2是一系列经过预训练和指令调整的模型,支持多达27种语言,包括英语和中文。这些模型在多个基准测试中表现出色,特别是在编码和数学方面有显著提升。Qwen2模型的上下文长度支持高达128K个token,适用于处理长文本任务。此外,Qwen2-72B-Instruct模型在安全性方面与GPT-4相当,显著优于Mistral-8x22B模型。
AI模型
156.2K
优质新品
GLM-4-9B-Chat-1M
GLM 4 9B Chat 1M
GLM-4-9B-Chat-1M 是智谱 AI 推出的新一代预训练模型,属于 GLM-4 系列的开源版本。它在语义、数学、推理、代码和知识等多方面的数据集测评中展现出较高的性能。该模型不仅支持多轮对话,还具备网页浏览、代码执行、自定义工具调用和长文本推理等高级功能。支持包括日语、韩语、德语在内的26种语言,并特别推出了支持1M上下文长度的模型版本,适合需要处理大量数据和多语言环境的开发者和研究人员使用。
AI模型
61.8K
优质新品
GLM-4-9B-Chat
GLM 4 9B Chat
GLM-4-9B-Chat是智谱AI推出的新一代预训练模型GLM-4系列中的开源版本,具备多轮对话、网页浏览、代码执行、自定义工具调用和长文本推理等高级功能。支持包括日语、韩语、德语在内的26种语言,并且推出了支持1M上下文长度的模型。
AI模型
65.1K
Llama-3 70B Gradient 524K Adapter
Llama 3 70B Gradient 524K Adapter
Llama-3 70B Gradient 524K Adapter是一个基于Llama-3 70B模型的适配器,由Gradient AI Team开发,旨在通过LoRA技术扩展模型的上下文长度至524K,从而提升模型在处理长文本数据时的性能。该模型使用了先进的训练技术,包括NTK-aware插值和RingAttention库,以高效地在高性能计算集群上进行训练。
AI模型
50.0K
Llama-3 70B Instruct Gradient 1048k
Llama 3 70B Instruct Gradient 1048k
Llama-3 70B Instruct Gradient 1048k是一款由Gradient AI团队开发的先进语言模型,它通过扩展上下文长度至超过1048K,展示了SOTA(State of the Art)语言模型在经过适当调整后能够学习处理长文本的能力。该模型使用了NTK-aware插值和RingAttention技术,以及EasyContext Blockwise RingAttention库,以高效地在高性能计算集群上进行训练。它在商业和研究用途中具有广泛的应用潜力,尤其是在需要长文本处理和生成的场景中。
AI模型
55.8K
Unichat-llama3-Chinese
Unichat Llama3 Chinese
Unichat-llama3-Chinese是中国联通AI创新中心发布的业界首个基于Meta Llama 3模型的中文指令微调模型。该模型通过增加中文数据进行训练,实现了高质量的中文问答功能,支持长达28K的上下文输入,并计划发布支持长度64K的版本。模型的微调指令数据经过人工筛查,确保了数据的高质量。此外,该模型还计划陆续发布700亿参数的中文微调版本,包括长文本版本和加入中文二次预训练的版本。
AI聊天机器人
63.8K
Llama-3 8B Instruct 262k
Llama 3 8B Instruct 262k
Llama-3 8B Instruct 262k是一款由Gradient AI团队开发的文本生成模型,它扩展了LLama-3 8B的上下文长度至超过160K,展示了SOTA(State of the Art)大型语言模型在学习长文本操作时的潜力。该模型通过适当的调整RoPE theta参数,并结合NTK-aware插值和数据驱动的优化技术,实现了在长文本上的高效学习。此外,它还基于EasyContext Blockwise RingAttention库构建,以支持在高性能硬件上的可扩展和高效训练。
AI模型
57.7K
精选AI产品推荐
中文精选
NoCode
Nocode
NoCode 是一款无需编程经验的平台,允许用户通过自然语言描述创意并快速生成应用,旨在降低开发门槛,让更多人能实现他们的创意。该平台提供实时预览和一键部署功能,非常适合非技术背景的用户,帮助他们将想法转化为现实。
开发平台
101.3K
优质新品
ListenHub
Listenhub
ListenHub 是一款轻量级的 AI 播客生成工具,支持中文和英语,基于前沿 AI 技术,能够快速生成用户感兴趣的播客内容。其主要优点包括自然对话和超真实人声效果,使得用户能够随时随地享受高品质的听觉体验。ListenHub 不仅提升了内容生成的速度,还兼容移动端,便于用户在不同场合使用。产品定位为高效的信息获取工具,适合广泛的听众需求。
音频生成
82.8K
国外精选
Lovart
Lovart
Lovart 是一款革命性的 AI 设计代理,能够将创意提示转化为艺术作品,支持从故事板到品牌视觉的多种设计需求。其重要性在于打破传统设计流程,节省时间并提升创意灵感。Lovart 当前处于测试阶段,用户可加入等候名单,随时体验设计的乐趣。
AI设计工具
103.2K
FastVLM
Fastvlm
FastVLM 是一种高效的视觉编码模型,专为视觉语言模型设计。它通过创新的 FastViTHD 混合视觉编码器,减少了高分辨率图像的编码时间和输出的 token 数量,使得模型在速度和精度上表现出色。FastVLM 的主要定位是为开发者提供强大的视觉语言处理能力,适用于各种应用场景,尤其在需要快速响应的移动设备上表现优异。
AI模型
84.5K
国外精选
Smart PDFs
Smart PDFs
Smart PDFs 是一个在线工具,利用 AI 技术快速分析 PDF 文档,并生成简明扼要的总结。它适合需要快速获取文档要点的用户,如学生、研究人员和商务人士。该工具使用 Llama 3.3 模型,支持多种语言,是提高工作效率的理想选择,完全免费使用。
文章摘要
52.2K
KeySync
Keysync
KeySync 是一个针对高分辨率视频的无泄漏唇同步框架。它解决了传统唇同步技术中的时间一致性问题,同时通过巧妙的遮罩策略处理表情泄漏和面部遮挡。KeySync 的优越性体现在其在唇重建和跨同步方面的先进成果,适用于自动配音等实际应用场景。
视频编辑
79.5K
AnyVoice
Anyvoice
AnyVoice是一款领先的AI声音生成器,采用先进的深度学习模型,将文本转换为与人类无法区分的自然语音。其主要优点包括超真实的声音效果、多语言支持、快速生成能力以及语音定制功能。该产品适用于多种场景,如内容创作、教育、商业和娱乐制作等,旨在为用户提供高效、便捷的语音生成解决方案。目前产品提供免费试用,适合不同层次的用户。
音频生成
651.1K
中文精选
LiblibAI
Liblibai
LiblibAI是一个中国领先的AI创作平台,提供强大的AI创作能力,帮助创作者实现创意。平台提供海量免费AI创作模型,用户可以搜索使用模型进行图像、文字、音频等创作。平台还支持用户训练自己的AI模型。平台定位于广大创作者用户,致力于创造条件普惠,服务创意产业,让每个人都享有创作的乐趣。
AI模型
8.0M
AIbase
智启未来,您的人工智能解决方案智库
© 2025AIbase