新智元报道
新智元报道
【新智元导读】月初刚测了GPT-4 Turbo上下文真实实力的大神Greg Kamradt又盯上了Anthropic刚更新的Claude 2.1。他自己花了1016刀测完之后显示,Claude 2.1在上下文长度达到90K后,性能就会出现明显下降。
Claude 2.1 200K上下文大考:头尾最清楚,中间几乎记不住
自掏200刀,首测GPT-4 128K
当上下文超过73K token时,GPT-4 的记忆性能开始下降。 如果需要回忆的事实位于文档的7%到50%深度之间,回忆效果通常较差。 如果事实位于文档开头,无论上下文长度如何,通常都能被成功回忆出来。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...