首页 > 新闻媒体 > 界面新闻 > 详情
印象笔记CEO唐毅:大模型竞争未到下半场,成本下降是行业共识

大模型的火爆不仅让众多大型互联网公司纷纷跟进,一批在AI领域有所积累的中小型公司也在探索适合自己的应用方向。

“从有监督学习到无监督学习,从GPT-2到GPT-3与GPT-3.5,对企业来说,重要的不是看见某一阶段性成果的惊艳瞬间,而在于从头到尾关注技术迭代的路径。当到达合适的进入节点时就可以自然而然地做出决断——OK,Let’s give it a try(让我们试试吧)。”印象笔记董事长兼CEO唐毅近日接受界面新闻专访时这样表示。

2018年从Evernote正式分拆独立为中方控股企业后,印象笔记同期便成立了印象研究院,进行自然语言处理的前沿技术探索。

围绕文档笔记这一核心产品应用场景,印象笔记团队最早开始沿着深度学习的监督式学习路径,利用知识图谱等技术构建模型来做智能推荐、自动标签、自动摘要。等到强化学习面世、OpenAI开始快速迭代GPT系列模型后,印象笔记也跟进改造自家生成式模型产品。

2018年至今,印象笔记前后做了近四年研究,共进行过三次大的模型迭代升级。最新的“大象GPT”是基于开源大模型BLOOM开发的百亿参数轻量级模型,今年4月正式发布。印象笔记依托自有的“APP+PC端”公开数据作基础,经过加工和混合,建立起垂直领域数据库,通过预训练和精调来做针对解决特定行业问题的专用模型(Domain Expertise)。

对于一款会聊天、可回答脑筋急转弯的对话机器人能否进入特定领域或行业、完成更专业的工作,大模型的应用前景分通用与专用两条不同路线。印象笔记选择专用而非通用,一方面考虑到基座通用大模型动辄上亿美元的训练成本,另一方面是出于公司以知识管理作为大模型核心落地场景的商业化战略。

按照专用模型的理念,专业领域的问题要靠专用而非通用模型来解决。近期的一篇由Google Brain前科学家Maithra Raghu、Databricks CTO Matei Zaharia、Google前CEO Eric Schmid合写的论文《一个通用大模型可以统治一切吗?》总结道,诸如法律、金融、医疗这些高价值、特定领域的工作流程依赖丰富的专有数据集,通用模型要完成这一类工作,在工程(多样化的微调方法、链接API调用、使用不同的AI组件)、成本(大型模型的适应成本很高)和安全性(参数泄露、数据共享)方面挑战极大。

针对专用模型的数据安全与隐私保护,印象笔记在训练、优化“大象GPT”时全程做好数据区分与隐私保护。用于模型训练的数据均来自印象笔记自有的公共数据集和第三方公开渠道信息,在持续优化过程中贯穿使用用户授权、数据脱敏及最新隐私保护技术。

据悉,移植“大象GPT”的印象AI功能后,印象笔记的应用使用频次、留存率等运营数据均有显著提升。首月AI上线后,45%的付费用户每周使用超过50次AI相关功能;新用户的次日留存率和7日留存率较之前分别提升131%、103%;免费老用户和付费老用户留存率较之前分别提升32%、24%;大量低频活跃用户回流,活跃频次有所提升。

印象笔记最开始因办公笔记为外界熟知,但其AI布局的野心并不止步于一款应用,而是要成为办公协作领域的知识管理工具。目前,已经上线的现有产品包括智能写作、智能书写、智能总结、智能文档处理、文档对话功能构成了第一代AI智能助理。未来即将上线的第二代产品定位于“Knowledge Copilot”,能够在多模态场景下完成知识的处理、回忆、获取、搜索和链接,并能够自动生成内容。

随着国产大模型的扎堆上马,唐毅认为,大模型还处于定义市场的阶段,竞争远未达到“下半场”。在他看来,有三大趋势现阶段已成为共识,分别是:第一,随着通用与专用模型的绝对数量增多,模型训练成本将大幅下降;第二,模型的参数数量并不直接与智能成正比。参数越多并不意味着越容易训练,产生的涌现能力也并非如此;第三,成本的降低是与模型的推理方式与使用场景有关,训练与部署环节上的效率提升必然会大幅降低综合成本。

“未来各家竞争拼到最后还是考验工程能力,包括训练工程、部署工程,例如模型训练中的数据清洗与指令数据集的优化,模型部署中的模型压缩与量化等等。工程化能力可以实质性地降低成本、加快商业化落地,也是各家的功夫所在。”

来源:界面新闻

使用印象笔记

高效记录一切

使用印象笔记 高效记录一切

支持所有设备,随时随地保持高效