2023异想大会|印象笔记乔迁:AI模型不是“越大越好”|环球热讯
时间:2023-05-22 12:46:07
5月18日,由《财经天下》周刊、「市界」和《博客天下》联合主办的“2023异想大会”在北京召开。大会间隙,「市界」与印象笔记高级副总裁乔迁进行深入交流,探讨AI大模型的未来商业化图景。
(资料图片)
在ChatGPT掀起的全球大模型热潮中,作为效率软件企业代表的印象笔记也踏上了自研大模型之路。3月初,印象笔记公布了自研轻量化大语言模型“大象GPT”。4月18日,基于大象GPT的AI服务功能“印象AI”在印象笔记旗下全线产品上线。
不同于部分大模型采用了千亿级别的训练参数规模,大象GPT是一个“轻量化”的模型。乔迁告诉「市界」,“轻量”既体现在大象GPT采用了百亿级的参数规模,也体现在相较于更大参数规模的模型,大象GPT的算力成本得到了相对优化。(注:ChatGPT的参数规模达到了1750亿。)
乔迁称,之所以采用这种轻量化的技术路线,是因为印象笔记认为在具体的商业化场景中,AI模型的发展方向并不是“越大越好”。
他讲道:“有关于什么才是一个‘好模型’这个问题,答案其实很难定义。难道参数规模越大就越好?还是说迭代越快就越好?这些标准都是片面的。参数规模极大的模型,也可能因为不了解细分领域的知识而无法满足客户需求。因此我们倾向于认为越适合用户使用场景的模型才是越好的。”
而这考验的是将大模型“plug in(外挂)”到具体使用场景中的能力。乔迁认为:“在具体的、多样的使用场景中,可能更适合使用‘混合模型’,可以将其理解为大模型叠加小模型,就是在通用的大模型基础上引入行业的数据资产,两者深度对接。”
异想大会召开当天,正是印象AI“面世”一个月的日子。乔迁告诉「市界」,经过用户的深度使用与反馈,印象笔记总结出了现阶段在效率软件市场中AI大模型应用还面临的三大挑战。
首先是提升用户与模型的交互效率,具体来说是用户编写Prompt(提示词)的效率。针对具体的写作需求,通用的大模型往往无法仅凭几个词就准确生成内容,需要用户进行多次、细致地描述。
这就需要应用企业预设固定的写作模版,来减少用户与模型的沟通成本。
其次,则是满足用户的客制化需求,也就是针对用户个人习惯进行模型调优。某些情况下,统一、固定的模版难以满足千人千面的写作需求。
在提供统一标准服务的基础之上,模型还需要“学会”理解不同用户的独特需要,提供调整的空间。
最后则是数据确权与数据隐私的问题。模型不仅要为客户提供贴心服务,还必须明确法律的边界。这需要整个社会共同探索和规划出数据使用的尺度。
(作者|董温淑,编辑|董雨晴)