2024 年 3 月 18 日,通用人工智能创业公司——月之暗面(Moonshot AI)宣布在大模型长上下文窗口技术上取得新的突破,Kimi 智能助手已支持 200 万字超长无损上下文,并于即日起开启产品「内测」。对大模型超长无损上下文能力有需求的用户,可到 Kimi 智能助手网页版 kimi.ai 首页申请抢先体验。
2024 年 3 月 18 日,通用人工智能创业公司——月之暗面(Moonshot AI)宣布在大模型长上下文窗口技术上取得新的突破,Kimi 智能助手已支持 200 万字超长无损上下文,并于即日起开启产品「内测」。对大模型超长无损上下文能力有需求的用户,可到 Kimi 智能助手网页版 kimi.ai 首页申请抢先体验。
据了解,Kimi 智能助手是月之暗面(Moonshot AI)基于自研千亿参数大模型打造的对话式 AI 助手产品,在 2023 年 10 月发布时支持约 20 万汉字无损上下文输入,创造了消费级 AI 产品所支持的上下文输入长度纪录。2023 年 11 月,Kimi 智能助手正式面向全社会开放服务,出色的长上下文处理能力,帮助用户解锁了很多新的使用场景,包括专业学术论文的翻译和理解、辅助分析法律问题、一次性整理几十张发票、快速理解 API 开发文档等,获得了良好的用户口碑。
不到半年时间,月之暗面将 Kimi 智能助手的无损上下文长度提升了一个数量级,从 20 万字到 200 万字。由于没有采用常规的渐进式提升路线,月之暗面团队遇到的技术难度也是指数级增加的。为了达到更好的长窗口无损压缩性能,月之暗面的研发和技术团队从模型预训练到对齐、推理环节均进行了原生的重新设计和开发,不走「滑动窗口」、「降采样」等技术捷径,攻克了很多底层技术难点,才取得了新的突破。
媒体沟通会现场,月之暗面「抛砖引玉」,展示了一些超长无损上下文的使用场景示例。例如,用户上传几十万字的经典德州扑克长篇教程后,让 Kimi 扮演德扑专家为自己提供出牌策略的指导。
上传一份完整的近百万字中医诊疗手册,让 Kimi 针对的用户问题给出诊疗建议。
上传英伟达过去几年的完整财报,让 Kimi 成为英伟达财务研究专家,帮用户分析总结英伟达历史上的重要发展节点。
上传一个代码仓库里的源代码,可以询问 Kimi 关于代码库的所有细节,即便是毫无注释的陈年老代码也能帮助你快速梳理出代码的结构。
过去要 10000 小时才能成为专家的领域,现在只需要 10 分钟,Kimi 就能接近任何一个新领域的初级专家水平。用户可以跟 Kimi 探讨这个领域的问题,让 Kimi 帮助自己练习专业技能,或者启发新的想法。有了支持 200 万字无损上下文的 Kimi,快速学习任何一个新领域都会变得更加轻松。
快速整理大量的资料是很多用户在工作中经常遇到的挑战。现在 Kimi 能够一口气精读 500 个,甚至更多数量的文件,帮助用户快速分析所有文件的内容,并且支持通过自然语言进行信息查询和筛选,大大提高了信息处理效率。例如,公司 HR 可以基于业务需求,快速从最近的 500 份简历中,让 Kimi 快速找出有某个行业从业经历,同时从计算机类专业毕业的求职者,更加高效地筛选和识别合适的候选人。
从长篇小说、故事或剧本中,重新发现值得玩味的蛛丝马迹,进行深层细节的挖掘,是很多影视娱乐 IP 的爱好者热衷的事情。如果将甄嬛传全集几十万字的剧本传给 Kimi,然后提问剧本中有哪些细节表明甄嬛的孩子是果郡王的。Kimi 能在不同时间段、各个场景的故事情节中,深入挖掘甄嬛、果郡王的情感线以及和他们孩子的真相,堪比一个看了好几十遍电视剧的「甄」学家。
「我们相信,大模型无损上下文长度的数量级提升,也会进一步帮助大家打开对 AI 应用场景的想象力,包括完整代码库的分析理解、可以自主帮我们完成多步骤复杂任务的智能体 Agent、不会遗忘关键信息的终身助理、真正统一架构的多模态模型等等。」月之暗面工程副总裁许欣然在媒体沟通会上表示,「无论是内存、算力还是网络带宽,历史上每一次基础技术的升级,都会解锁新的产品形态和应用场景。我们对 200 万无损上下文的 Kimi 可以带来哪些超出想象力的创新机遇充满期待。」
「通往通用人工智能(AGI)的话,无损的长上下文将会是一个很关键的基础技术。从 word2vec 到 RNN、LSTM,再到 Transformer,历史上所有的模型架构演进,本质上都是在提升有效的、无损的上下文长度。」月之暗面创始人杨植麟博士此前在接受采访时表示,「上下文长度可能存在摩尔定律,但需要同时优化长度和无损压缩水平两个指标,才是有意义的规模化。」
从很多 Kimi 智能助手用户的反馈来看,20 万字的无损长上下文帮助他们打开了新的 AI 应用世界,带来了更大的价值,但随着他们尝试更复杂的任务、解读更长的文档,依然会遇到对话长度超出限制的情况。这也是大模型产品的无损上下文长度需要继续提升的一个直接原因。
此外,Kimi 智能助手的智能搜索,更是离不开大模型的无损长上下文能力。Kimi 主动搜索得到的多篇资料,会作为上下文的一部分交给模型去推理。正是因为 Kimi 大模型支持的上下文窗口足够长,窗口内的信息损失足够低,Kimi 智能助手才能输出高质量的结果,为用户带来截然不同的搜索体验——Kimi 可以根据用户的问题,主动去互联网上搜索、分析和总结最相关的多个页面,生成更直接、更准确的答案。例如,用户可以让 Kimi 主动去搜索和对比两家同领域上市公司的最新财报数据,直接生成对比表格,节省大量的资料查找时间。而传统的搜索引擎通常只能根据用户的问题,返回一些参杂着广告信息网页链接。
另一项与大模型的无损上下文能力息息相关的指标是指令遵循(Instruction Following)能力。指令遵循能力主要体现在两个方面:第一,模型在多轮对话中是否能够始终遵循用户的指令,理解用户的需求;第二,模型是否能够遵循复杂指令,有时候复杂指令可能长达几千、上万字。从产品推出以来的用户反馈来看,Kimi 智能助手的多轮交互和超长指令遵循能力,也同样具备显著优势。
伴随模型能力的每日升级,iOS 应用、Android 应用、小程序、Web 等多端平台的上线,Kimi 智能助手已成为越来越多用户工作和生活离不开的 AI 小助手。3 月 18 日启动 200 万字超长上下文的内测申请后,月之暗面会逐步开放更多用户来体验具备超长无损上下文能力的 Kimi 智能助手,期待与更多用户共创智能。
来源:互联网