欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:
华为版ChatGPT将于7月初发布,名为“盘古Chat”。
华为盘古Chat将于7月7日举行华为云开发者大会 (HDC.Cloud 2023) 上对外发布以及内测,产品主要面向To B/G政企端客户。
这意味着,在国产大模型军备竞赛中,继阿里、百度之后,又一重要科技巨头入局。基于华为的技术能力,盘古Chat有望成为国内技术能力最强的ChatGPT产品,同时华为生态产业链企业也将因此受益。
对于盘古大模型定位,华为内部团队确立了三项最关键的核心设计原则:一是模型要大,可以吸收海量数据;二是网络结构要强,能够真正发挥出模型的性能;三是要具有优秀的泛化能力,可以真正落地到各行各业的工作场景。
根据华为云高管的演讲PPT信息,目前华为“盘古系列 AI 大模型”基础层主要包括NLP大模型、CV大模型、以及科学计算大模型等,上层则是与合作伙伴开发的华为行业大模型。
华为云人工智能领域首席科学家田奇今年4月称,盘古NLP大模型覆盖的智能文档检索、智能 ERP、小语种大模型等落地领域,2022年华为刚交付了一个阿拉伯语的千亿参数大模型。
在应用方面,盘古大模型可以应用于智能客服、机器翻译、语音识别等多个领域,提供AI技术支持。
去年华为将盘古大模型在垂直产业领域落地应用。有个案例:基于盘古 AI 大模型,华为在矿山领域打造了首个“基于大模型的人工智能训练中心”,实现Al应用“工业化” 开发,不仅降低成本(比人工核查节省80%+)、每吨成本降低8元(年产能260万吨),而且增加效益(防冲御压比人工核查节省80%+),提升效率(智能客户效率提升30%。)
与其他厂商相比,华为的优势或在于拥有完整的产业链和较强的算力调配能力。
据浙商证券此前披露,在训练千亿参数的盘古大模型时,华为团队调用了超过2000块的昇腾910芯片,进行了超2个月的数据训练能力。华为内部称,每年大模型训练调用GPU/TPU卡超过4000片,3年的大模型算力成本高达9.6亿元人民币。
华为盘古大模型产业链概念股一览(供参考,非推荐)
网友评论