解析ChatGPT更新Enterprise版:看AI顶流如何应对大模型在企业应用的挑战

chatGPT网址2024-02-18279

chatgpt 欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:



点击上方蓝字关注我们

昨日,OpenAI公司又放大招,正式宣布推出ChatGPT Enterprise,即企业版本的ChatGPT,号称“至今为止最强大的ChatGPT版本”(话说,难道不是每个新版本都应该是“至今为止最强大”?)。名字就揭示了一切,这显然是ChatGPT针对企业客户领域的一次重大更新。当然,本文的目的不是介绍新特性,更多的是来看看OpenAI这样的AI顶流公司在应对LLM在企业应用面临挑战的努力,及其带来的启示。

在ChatGPT Enterprise之前,企业客户使用ChatGPT与个人客户并没有本质区别,企业客户更多借助API,个人客户更多的直接使用UI工具,但两者只是使用形式上的区别。OpenAI一直都意识到大模型在企业应用领域有着非常明显的不同诉求,也通过与Microsoft的合作在Azure上推出Azure OpenAI服务,面向行业场景与企业业务场景进行增强,帮助实现企业的AI应用创新。但显然,这次的ChatGPT Enterprise更加直接的反应了OpenAI对大模型在企业客户应用的思考。

安全与隐私保护

大语言模型的使用方式是使用提示词(Prompt)进行直接交互获得结果,而这些交互过程中的提示和输入又可能成为模型下一次训练与迭代的“养料”。而因为通用大模型的共享特性,一个很容易被企业用户关注并担心的问题就是数据安全与隐私问题。(不同于在线SaaS软件,企业虽然也会在线输入和获得各种信息,但这种数据限定在一个租户的“沙箱”内,其他租户正常无法访问)比如,你可能会担心你交给chatGPT进行数据分析的数据会被chatGPT泄漏或者用于其他训练,这对于一些具有高度数据安全与合规要求的企业是无法接受的。

不仅是大语言模型领域,专注于图像生成的MidJourney与Stable Diffusion前段时间也遭遇到了艺术家们的集体诉讼,起诉他们采集了艺术家们大量的原创作品用于训练,然后进行商业的AI作品输出,并能够模仿特定艺术家作品的风格,他们认为这涉及到作品侵权。虽然AI的创作并不是简单的把原作品打碎重组,但无法打消类似的顾虑。

针对这个担心,当然最好的解决方案是类似于SaaS厂家的私有化部署方案,但是对于chatGPT这样的千亿级模型,私有化部署的成本、管理和后续的更新都不是普通企业能够承受的(当然,不排除以后chatGPT会推出面向小企业的低参数的可私有化部署的版本)。所以,在本次ChatGPT企业版本中做了如下针对性的增强:

  • 确保客户发送给chatGPT的提示(prompt)与数据不会用于模型训练。也就是说,你的提示与输入只会用于本次对话。

  • 静态数据加密以及数据传输过程中的加密。确保数据存储与传输的安全。

  • SOC2标准遵循(SOC2是美国会计师协会制定的一套信息安全审计标准。主要针对云服务提供商和IT服务提供商等机构的信息安全控制进行审计,具有相当严苛的要求,包含安全性、机密性、完整性、可用性、隐私性五个方面的审计标准要求)。能够通过SOC2审计标准,至少能够让绝大部份企业吃下定心丸。

可伸缩的部署能力

企业客户一个可以想象的场景是用企业的名义把大语言模型的能力接入,或者构建一个自有类似chatGPT的工具,用来开放给部门员工或者客户使用。比如有的营销企业希望有这样的工具开放给自己的员工进行辅助的内容创作;数据分析部门需要有这样的工具给分析员做辅助分析。但同时企业管理员也希望能够对使用者的身份、权限、登录进行管理,并有对应的数据仪表盘进行对话分析。或者说,这时候的大模型是一个专注于语言生成与对话的企业共享SaaS应用

针对这种场景,一种方案是私有化构建,即在企业内部构建这样一个共享的AI助手应用,一方面API接入商业的或者开源的大语言模型,另一方面向员工或者客户开放,实现身份、对话甚至产品管理等。

ChatGPT Enterprise本次的更新显然也具有针对性,很好的解决很多企业类似的需求,这对于国内的大语言模型的厂家也提供了一个很好的参考:即大语言模型作为一个端到端企业应用的SaaS化:

  • 允许企业把ChatGPT能力开放给自己的员工或者客户,并进行管理

  • 专有的管理控制台,可以轻松的管理使用的成员账号,比如客户或者员工

  • SSO与域认证的支持,实现与企业应用的单点登录

  • 提供数据分析仪表盘,如统计用户数、对话数量等

性能与限制的提升

相对于个人应用,企业应用在使用类似GPT这样的大语言模型过程中有着更高的输入输出上下文和调用频率等性能要求。比如在做数据分析、辅助代码编写、或者输入私有企业知识的过程中,都需要支持更大的输入输出的上下文窗口,否则很容易面临记忆丢失、输出中断甚至直接报错的窘境。之前Claude的10万个token上下文带来的欢呼就说明了大家对更大的上下文窗口的迫切性。此外,企业流程中的多角色参与带来的内部协作要求等,也对大模型工具提出了更高的要求。

ChatGPT Enterprise针对这些问题做了如下增强:

  • 无限制的访问GPT-4,2倍以上的访问速度

  • 无限制的高级数据分析功能,即之前的Code Interpreter功能

  • 32K的token上下文,具有更长的数据与记忆

  • 共享的对话模板,方便企业内部的协作

  • 无限制的API使用

未来的更新展望

其实在前段时间OpenAI公司还做了一次更新:开放chatGPT-3.5 Turbo大语言模型的微调功能(即Fine-Tunning,也是企业或行业应用大语言模型的主要方法之一,即使用自己的数据来做增强训练,让大语言模型更“懂”你所在的行业或者企业)。其面向的对象不言而喻仍然是企业场景,让企业可以结合自身需要构建自己专属的ChatGPT模型,让回答更聚焦自,更安全并减少错误。

而在这次更新中,OpenAI就预告未来将继续在“连接企业私有数据与知识”这一功能上继续进行增强,同时也有一些其他的新特性:

  • 通过与企业应用的连接,使用企业数据来安全的扩展chatGPT的知识

  • 面向更小型团队的ChatGPT Business产品

  • 针对场景优化的更强大的AI高级数据分析功能

  • 针对特定企业内角色的工具,比如数据分析师、营销人员、客户服务等


结束语

针对大模型在行业场景与企业应用中面临的挑战、以及可能的一些方案的探讨,我们在之前的文章也进行过详细的阐述。

【上篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构

【下篇】深度解析AI大语言模型(LLM)在企业应用的关键技术与典型架构

我们相信,只有当大语言模型的能力在行业场景与企业应用中广泛应用并帮助实现业务创新与效率提升,其真正的价值才得以充分展现。而为了应对大模型在企业应用中的私有化知识、数据安全、应用集成、更高性能等复杂要求,作为大语言模型的头部厂家的OpenAI,已经在不断的尝试完善与进化。所以,我们也期待其他的商业大模型,特别是国内的厂家们能够在企业应用领域的特性与工具上有更多的跟进与创新,让生态链更加完善与强大。


END




点击下方关注我,不迷路




点击下方体验AI助手

本文链接:https://gptwangzhi.top/chatgpt/313.html

相关文章

网友评论