第四范式发布式说大模型,官方称将定位为基于多模态大模型的新型开发平台_世界快播
蓝鲸TMT频道4月26日讯,第四范式首次向公众展示其大模型产品「式说3.0」,并首次提出AIGS战略(AI-Generated Software):以生成式AI重构企业软件。
据官方介绍,式说将定位为基于多模态大模型的新型开发平台,提升企业软件的体验和开发效率,实现「AIGS」。
(资料图片)
第四范式创始人兼CEO戴文渊表示:“C端产品已经逼近用户体验的上限,而B端的企业级软件往往是个十分复杂的执行系统,堆砌十几层菜单和成千上万功能也不算多。”
戴文渊认为,目前这些B端软件极为复杂的交互体验,以及复杂性带来的极低开发效率,恰恰为生成式AI留下足够大的重构和改造空间。
“过去很难通过人类语言(自然语言)的方式去调用企业软件的功能,现在当我们有更强的语义理解和生成能力,再加上GPT任务翻译、任务分发和推理的能力,就可以通过更好的「对话框式」交互方式实现功能的调用,不再需要找到某个位于十几级的菜单目录之下的功能。”
这背后还是大模型的能力。第四范式现场拔网线,展示了式说大模型的图片理解、多轮对话、写小说、迅速画图等能力。(基础能力demo另附)
此外,现场展示了式说通过推理能力完成更加复杂的“装箱”操作,以及其现场编写代码的能力。(装箱和写代码demo另附)
在戴文渊看来,要做到AIGS,大模型未必需要是知识广博、十项全能冠军的通才,更重要的在于模型具备Copilot(副驾舱),和思维链CoT(chain of thoughts,多步推理)的能力。
“要去改造企业软件,大模型不能只有语言能力。式说2.0就加入了多模态和Copilot,因为很多企业软件里的数据是多模态的,而Copilot能把人的指令翻译成要调用后台的哪个API。”此前发布的式说2.0的Demo中,门店员工通过语音、文本等交互方式向式说发起指令,式说理解后,联网门店监控软件调出后厨未戴口罩的图片,并直接将图片以对话框的形式输出给员工。
大模型去调用软件内置的一个个功能、数据来「对话框式」完成任务,已经能产生巨大价值。但员工用企业软件时也会面临复杂任务,需要人按照顺序执行一个个功能。
因此,第四范式称,式说3.0强调的是Copilot加上思维链CoT,具有更强的推理能力,在学习大量数据和“攻略”后,能形成中间的逻辑推理步骤,从而做到拆分并执行复杂工作。
第四范式将AIGS的路径总结为三个阶段:第一阶段,Copilot调动不同的信息、数据、应用,作为助手完成用户的指令。相当于在所有企业级软件系统里,配备一个指挥官。指挥官听用户的指挥,比如“把照片亮度调亮20%”。第二阶段,Copilot+基于企业规则的“知识库”,AI能够参照规则做复杂工作,进一步丰富了「对话框」的能力。比如AI查询了“人像美化”知识库后,能执行把照片修好看的步骤。第三阶段,Copilot+CoT(思维链)。软件系统的使用行为最终会被大模型学会,形成AI针对这个领域的思维链,意味着“把照片处理得更好看”这种复杂指令,AI能自动地按照步骤完成。
据官方介绍,第四范式的AIGS战略,就是指基于式说大模型背后的Copilot+COT能力,把企业软件改造成新型的交互范式,并在新型交互上不断地学习软件的使用过程,形成领域软件的“思维链”。
关键词: