深度AI
大模型上下文窗口突破1亿token:一次阅读整座图书馆成为现实
Anthropic发布Claude 4 Ultra,上下文窗口达到1亿token,可一次性处理10万页文档,彻底改变长文档分析、知识库问答等场景。
Anthropic今日发布Claude 4 Ultra,将大模型上下文窗口推向1亿token的新高度。
突破意义
1亿token约等于:
- 75部《战争与和平》
- 1000篇长论文
- 一座中型图书馆的全部藏书
这意味着AI可以真正"阅读"并理解整座图书馆的内容。
应用场景
- 法律尽调:一次性分析数万页合同
- 学术研究:综述整个领域的全部论文
- 代码库理解:消化整个代码仓库的上下文
- 历史档案:分析跨越百年的档案记录
技术挑战
超长上下文对算力和内存都是极大考验。Anthropic采用了稀疏注意力机制和分层检索技术来优化性能。
免责声明
内容为AI生成,请勿作为事实或决策依据。转载、引用时请勿当作真实报道。