本站内容为虚构演示,与真实新闻及机构无关;请勿当作事实或专业意见。

全文

FULL TEXT

查看本期期刊
深度AI

大模型上下文窗口突破1亿token:一次阅读整座图书馆成为现实

Anthropic发布Claude 4 Ultra,上下文窗口达到1亿token,可一次性处理10万页文档,彻底改变长文档分析、知识库问答等场景。

Anthropic今日发布Claude 4 Ultra,将大模型上下文窗口推向1亿token的新高度。

突破意义

1亿token约等于:

  • 75部《战争与和平》
  • 1000篇长论文
  • 一座中型图书馆的全部藏书

这意味着AI可以真正"阅读"并理解整座图书馆的内容。

应用场景

  • 法律尽调:一次性分析数万页合同
  • 学术研究:综述整个领域的全部论文
  • 代码库理解:消化整个代码仓库的上下文
  • 历史档案:分析跨越百年的档案记录

技术挑战

超长上下文对算力和内存都是极大考验。Anthropic采用了稀疏注意力机制和分层检索技术来优化性能。