📰 正文

AI21 发布了 Jamba 1.6开源模型,特别适用于企业私有部署。Jamba 1.6 在模型质量、长上下文处理能力、部署灵活性等方面超越Mistral Large 2、Llama 3.3 70B、Command R+,同时可支持完全私有部署,确保企业数据安全。

优势特点

✅ Jamba 1.6 = 开放 LLM + 长上下文支持 + 最高数据安全性 ✅ 适合希望在本地或 VPC 内运行 LLM,确保数据安全的公司 ✅ 适合 需要处理 海量文档 的企业(法律、金融、医疗、科研),比 Mistral、Llama 更适合 ✅ ,确保文档分析 & 复杂问答任务准确无误 ✅ 可私有部署,数据安全性 100% 受控

与其他模型对比

image

领先的模型质量

Jamba Large 1.6 在模型质量上超越 Mistral Large 2、Llama 3.3 70B、Command R+。

Jamba Mini 1.6 领先于 Mistral 8B、Llama 3.1 8B、Command R7B。

在多个基准测试中,Jamba 1.6 甚至接近 封闭大模型(如 GPT-4o) 的表现。

image

主要技术特点

  1. 超长上下文支持(256K Tokens)

领先业界:相比其他开源模型,Jamba 1.6 具备最长的上下文窗口(Mistral 仅 32K,Llama 3.3 仅 128K)。

实际应用:

法律:AI 阅读数千页 M&A(并购)文件,自动提取关键条款,并提供来源引用。

金融:解析 多个季度的财报,推测市场趋势。处理 大量财报、市场数据,用于构建风险模型,不会遗漏关键信息。

医疗:分析 几十年研究数据,辅助药物研发,并减少幻觉现象。

image

  1. 混合 SSM-Transformer 架构

结合 State Space Model(SSM)与 Transformer,实现:

高效的长文本处理(相比标准 Transformer,不容易丢失上下文)。

更快的推理速度(低延迟,适用于企业级任务)。

  1. 领先的 RAG(检索增强生成)能力

其他开源模型在长上下文任务上容易出错,而 Jamba 1.6 在长文本任务上更精准:

在 R&D(研究开发)领域,可以检索并准确整合大规模文档,不会生成错误信息(“幻觉”)。

例如:

Educa Edtech 用 Jamba 1.6 训练 AI 教育助手,问答正确率 >90%,确保答案准确。

image

  1. 数据私有部署,确保安全

企业可本地部署(On-Prem)或 VPC 内运行,避免数据泄露风险。

适用于对数据安全要求极高的行业(如 银行、保险、政府、医疗、科研)。

相比 Mistral、Llama 等 只能云端运行的模型,Jamba 完全掌控数据,不暴露给第三方。

  1. 低延迟 & 高速推理

通过优化架构,推理速度比 Mistral、Llama 更快。

高效的批量处理 API

新推出 Batch API,可同时处理大量请求,相比单独请求,提高处理速度。

测试案例:Fnac(大型零售商)使用 Jamba 1.6 + Batch API 减少了 90% 等待时间,将 数万条请求的等待时间从数小时缩短至 <1 小时。

在文本生成、数据检索等任务上表现优异,例如:

数字银行 用 Jamba 1.6 提高客户助手的回答精度,超越前代模型 21%。

电商平台 用 Jamba 1.6 自动生成产品描述,减少手动工作,提高一致性。

教育科技公司 Educa Edtech采用 Jamba 1.6 进行问答,检索准确率超过 90%,确保答案可靠。

image

官方介绍:https://www.ai21.com/blog/introducing-jamba-1-6

在线体验:AI21 Studio

模型下载:Hugging Face


来源:AI21 发布 Jamba 1.6 适合私营企业部署的开源模型 高效 RAG能力和超长 256K 上下文