1、DeepSeek官方的API提供了文件上传并让大模型阅读文件的能力, 其它第三方,比如阿里云、华为云都阉割了这一功能。 这个功能的意义是很大的,比如:我需要提供三篇优质的教案让大模型阅读并且依照这三篇 内容写一份新的教案,但三篇教案的字符数量可能就在50K左右了,直接用prompt是行不通的。 作为 DeepSeek-V3,我的上下文窗口支持 128K tokens,这意味着我可以处理非常长的输入和输出。具体来说: 输入限制:单次输入的 prompt 最长可以支持 128K tokens。 输出限制:单次输出的内容最长也可以支持 128K tokens。 关于 Tokens 的说明: 1 token 大约等于 0.75 个英文单词,或者 1.5 个中文字符。 128K tokens 大约相当于: 英文:96,000 个单词。 中文:192,000 个汉字。 适用场景: 长文档处理:可以一次性输入很长的文本(如书籍、论文、报告等)进行分析或总结。 复杂任务:可以处理需要大量上下文的任务,例如长代码分析、多轮对话、复杂逻辑推理等。 生成长内容:可以生成较长的文章、故事、代码等。 注意事项: 虽然我的上下文窗口很大,但过长的输入可能会导致处理速度变慢。 如果输入内容超过 128K tokens,需要分段处理。