GPT-4之竞品分析助理 --工具用的好,下班时间早

chatGPT网址2024-02-20359

chatgpt 欢迎访问chatgpt中文教程网,学习chatgpt相关知识,以下是正文内容:

 我们的使命是给系统提供额外的信息。--控制论之父诺伯特·维纳


01

需求背景


竞品分析是产品经理的日常工作,涉及产品功能、客户案例、解决方案、定价策略等多个维度。通常产品经理定期会对竞品做系统性的梳理,来明确当前行业的竞争态势,但这种定期的分析通常会有一定的滞后性。

对于连接器产品来说,产品能力、应用场景日新月异,我们需要周粒度甚至天粒度来捕捉业界动态并同步到团队成员。而要满足这样的频率更新要求,数据采集、分析、汇总,各个过程耗时费力,只靠人工收集和整理,显然有些力不从心。

有没有可能通过 AI 来优化这个事情?

当然可以!


02

实操步骤


1)实现方式

这里重点是介绍场景方案和实现思路,至于实现方式,大致有两条路径:

    • 零代码路径:ChatGPT Plus + Link Reader Plugin
      • 优势:图形化操作门槛低,不懂代码也能搞定
      • 劣势:自动化程度低,需要手动抓取公众号链接进行数据投喂学习
    • 全代码路径:AutoGPT or LangChain + RPA(用于公众号页面链接抓取)
      • 优势:理论上可以做到100%自动化
      • 劣势:开发配置过程繁琐,需要做一定的调试工作

鉴于笔者时间限制,本文重点介绍「零代码路径」的实现方式和亲测效果。

2)环境准备

零代码路径需要用到 ChatGPT Plugin,因此需要 ChatGPT Plus 会员,可以通过美区 Apple ID 购买礼品卡的方式充值流程还比较顺畅,建议采用这种方式来配置,目前已知最安全最可靠的充值方式了。

如果觉得 ChatGPT Plus 会员门槛还是太高,钉钉目前在白名单一个机器人的功能,可以投喂材料学习,进行交互对话,同样也能达到相关的效果。但前提是要钉钉的白名单。

ChatGPT 目前还无法直接从 URL 链接中进行学习,因此这里需要安装一个「Link Reader」,来解决数据投喂的问题。

在 ChatGPT Plugin store 中找到「Link Reader」插件,安装即可。


3)提示工程

提示语是重点,首先我给他指定了一个角色(Role):竞品分析助理。同时告知它什么时候学习输入材料,什么时候分析输出结果。

需要明确的一点,考虑到 GPT 的正儿八经瞎说的问题,这里我显示将 temperature 设置成0(少胡诌),同时明确说明要从学习材料中提内容进行分析,而不是模型先前学习的语料。

你现在是我的竞品分析助理,我持续将竞品动态链接发送给你,然后你提取、保存并学习链接中内容以及文章的发布时间,接着我们通过对话的方式,来帮我整理、汇总竞品信息。 
当我输入: 学习:{http url} 的时候,你要提取、保存并学习{http url}中的内容,在完成这个步骤后,生成相关摘要,以及文章的发布时间。 
当我输入: 分析:请输出竞品的近期发布的功能的时候,你要结合先前从{http url}中学习到的知识,按照我的分析要求,给我汇总分析后的答案。
需要注意的是,将temperature设置成0,学习和分析过程都要以尊重连接内容的真实性为前提。如果学习的内容还不足以回答分析的问题,请你诚实的告诉我你需要学习更多的内容才能回答这个问题。明白了吗?

回复还不错,GPT 知道 URL 得用 Link Reader 进行提取,同时向我「保证」它会「诚实」。


3)投喂学习资料

GPT 说的话当然不可全信,来个题目先验证下。


这里我先是让 GPT 学习了一篇公众号的文章,同时问了一个公众号中没有提到的信息:腾讯轻联产品发布时间。

GPT 回答看起来是靠谱的,至少没有胡诌。(考虑轻联产品品牌是今年升级的,模型本身没有相关的素材,这里验证效果可能会有失真,读者可以用其他产品做相关的验证)。

后续就是繁琐的人工投喂,GPT 学习的过程了。将产品公众号上的近一个月的推文和产品动态页发给 GPT 进行学习,摘要生成得还不错,但是文章发布时间还是有小 BUG,没有正确提取到文章的发布时间。


4)分析效果

接下来就是分析效果了。

先来个简单的问题:腾讯轻联新增了哪些产品能力?


结果符合预期,而且还告知内容出处,便于后续进一步验证。

接着问:腾讯轻联近期新增了哪些连接器?


这里给到的引用链接就不太正常了,这些内容实际上是来自于几篇公众号的推文,而不是产品官方文档。而且发布的时间线也不太对。

不过在这个例子中,有被 GPT 的「思维链」和强大的推理能力惊艳到。

我对投喂的学习材料进行了确认,原文中并没有明确说明“腾讯广告、巨量引擎、百度营销 ”是连接器,仅仅只有下面截图的简短说明。


但是 GPT 通过极少样本的学习和归纳,得出它们仨是连接器的结论,并且还是对的。

至于 GPT 的真实性问题,目前其实有比较多的解决方案,现阶段可以结合结合 embedding + 向量数据库的能力,做到有据可查是完全没有问题的。

例如我之前在体验 ChatDOC 的 PDF 分析能力的时候,AI 在答案下方,给到一个引用出处的链接,可以直接定位到原始内容,在一些严谨的分析报告中(论文分析、财报分析、竞品分析),给人类一个 double check 的交互,这也不失为一种好的解决方案。


接着问:腾讯轻联近期在生态建设方面有哪些具体的动作?

效果一般,部分产品能力和客户案例严格意义上不算是生态部分的内容。

瑕不掩瑜,连接器部分还是比较满意的。


最后让 GPT 整理了下近期的客户案例和应用场景,这个效果还不错。


这里可以延伸一下,作为产品的自身的知识库,后续售前同事想要一些客户案例、应用场景这些信息,完全可以自取了。

最后的最后,打个小广告:



03

总结


整体体验下来,还有不少人工操作的地方,尤其是在数据采集这里,受限于公众号平台的限制,这里无法做到自动更新同步,要定期增量同步呢,需要一个类似抓包工具甚至 RPA 才能实现。

从当年淘宝对搜索引擎的爬虫的封杀,到现在 Stackoverflow 对 OpenAI 的控诉,难的不是 API 实现技术,难的是其中入口流量、商业模式和利益分配。

LLM 大模型目前已经一项基础设施,上层应用要想构建自己的护城河,「数据」将显得尤为重要。这个数据既是链家中的房源、交易这种私有数据,也是应用沉淀下来的场景数据。

本文链接:https://gptwangzhi.top/chatgpt/61.html

相关文章

网友评论