产品经理必备7大文档(万字长文:产品经理视角的ChatGPT全解析)chatgpt 快来看

 

互联网已经成为了我们生活中没有可或缺的1部分,它带来了许多惊喜和改变。今天,让我们聚焦在互联网领域最近发生的1些令人激动的事件上,共同探索这个充满无限可能的天下

本文作者,是咱们“AI产品经理大本营”成员Martin;对于ChatGPT技术原理及“到底牛在哪里”,他做出了精彩的白话解释,方便“产品经理 & 非技术人群”快速了解学习ps,文末还有彩蛋:AIGC精华资料包(34份干货报告),欢迎领取~ 上面是正文:。

最近1段时间持续在关注两个技术方向:ChatGPT所代表的大语言模型对NLP领域的推动Diffusion算法对图像领域的推动今天这篇会先展开说1说ChatGPT,大致上包含以下方面:讲明白ChatGPT的技术原理(放心,是科普向的原理,没有任何公式)

说明白ChatGPT的技术到底牛在哪里ChatGPT可能的落地应用方向AI产品经理在这波浪潮中可以做些什么全文10389个字,阅读需要几分钟我也没有知道哈哈对技术没有感兴趣的可以直接滑动到屏幕将近1半的位置阅读第3部分和第四部分。

前言 1个AI产品经理的触动2022年11月30日,chatgpt发布,5天内涌入100W用户他拥有持续的高低文对话能力,同时支持文章写作、诗词生成、代码生成等能力如果用旧技术去理解他,我们通常会认为他的背后是由。

复合Agent组合起来支撑的复合Agent是什么意思呢?即有若干个术业有专攻的Agent:有1个负责聊天对话的,1个负责诗词生成的,1个负责代码生成的, 1个负责写营销文案的等等等等每个Agent只擅长做自己的那部分事情,而在用户使用的过程中,系统会先判定用户的意图是什么,应该是哪个Agent,然后再将用户的命令分发给对应的agent去解决并提供答案。

因此看起来是很厉害的机器人,背后其实是若干个术业有专攻的机器人事实上Siri、小爱、小度,小冰甚至包括各个平台的客服机器人都是这种模式这样当你要上线1个新能力(例如写古诗),你只需要新增训练1个Agent,然后将这个Agent接入到总控的分类意图器下就行。

这也是当前时代的1个缩影,没有管外行人如何看待你从事的行业,没有管媒体是如何1次次人云亦云地说警惕AI取代人类,你1直都知道,你在做的只是训练出1个术业有专攻的机器人而已,离真正的人工智能十万八千里但ChatGPT的能力没有再是这种模式了,他所采用的模式是大语言模型+Prompting。

所有的能力通过1个模型实现,背后只有1个什么都会的机器人(即大语言模型),并支持用户借助文字下达命令(即Prompting,提示/指示)虽然这种能力的表现还没有算完美,但是他开启了11种通向“通用型人工智能”的道路,曾经科幻故事里的Jarvis,moss好像真的有了那么1点可能。

而这才是7年前,我踏入这个行业所憧憬的器材啊可能你对我的震撼有点无法理解,我接下来会讲明白他的技术原理,带你慢慢感知这项技术的牛逼的地方上面正式进入正文第1部分 ChatGPT的技术原理首先,我们要弄明白,NLP任务(自然语言处理,AI的1个技术领域,即文本类的AI任务)的核心逻辑是1个“猜概率”的游戏。

比如说,“我今天被我老板___”,经过大量的数据训练后,AI预测空格出会出现的最高概率的词是“CPU了”,那么CPU就会被填到这个空格中,从而答案产生——“我今天被我老板CPU了”虽然非常没有可思议,但事实就是这样,现阶段所有的NLP任务,都没有意味着机器真正理解这个天下,他只是在玩文字游戏,进行1次又1次的概率解谜,本质上和我们玩报纸上的填字游戏是1个逻辑。

只是我们靠知识和智慧,AI靠概率计算而在目前的“猜概率”游戏环境下,基于大型语言模型(LLM,Large Language Model)演进出了最支流的两个方向,即Bert和GPT其中BERT是之前最流行的方向,几乎统治了所有NLP领域,并在自然语言理解类任务中发挥出色(例如文本分类,情感倾向判断等)。

而GPT方向则较为薄弱,最知名的玩家就是OpenAI了,事实上在GPT3.0发布前,GPT方向1直是弱于BERT的(GPT3.0是ChatGPT背后模型GPT3.5的前身)接下来我们详细说说BERT和GPT二者之间的差别。

BERT:双向 预训练语言模型+fine-tuning(微调)GPT:自回归 预训练语言模型+Prompting(指示/提示)每个字都认识,连到1起就没有认识了是吗哈哈没关系,接下来我们把这些术语逐个拆解1遍就懂了:。

「预训练语言模型」我们通常认知里的AI,是针对具体任务进行训练例如1个能分辨猫品种的Agent,需要你提供A-缅因猫,B-豹猫这样的数据集给他,让它学习没有同品种之间的特征差异,从而学会分辨猫品种这项能力。

但大语言模型没有是这样运作的,他是通过1个大1统模型先来认识这个天下再带着对这个天下的认知对具体领域进行降维打击在这里让我们先从从NLP领域的中央任务说起像中文分词,词性标注,NER,句法分析等NLP任务。

他们本身无法直接应用,没有产生用户价值,但这些任务又是NLP所依赖的,所以称之为中央任务在以前,这些中央任务都是NLP领域必没有可少的但是随着大型语言模型的出现,这些中央任务事实上已经逐步消亡而大型语言模型其实就是标题中的“语言预训练模型”。

他的实现方式是将海量的文本语料,直接喂给模型进行学习,在这其中模型对词性、句法的学习自然而然会沉淀在模型的参数当中我们看到媒体对ChatGPT铺天盖地的宣传里总是离没有开这样1句话——在拥有3000亿单词。

的语料基础上预训练出的拥有1750亿参数的模型这里面3000亿单词就是训练数据而1750亿参数就是沉淀下来的AI对这个天下的理解,其中1部分沉淀了Agent对各类语法、句法的学习(例如应该是两个馒头,而没有是二个馒头,这也是中央任务为何消亡的原因)。

而另外1部分参数参数则储存了AI对于事实的认知(例如美国总统是拜登)也就是经过预训练出1个这样的大语言模型后,AI理解了人类对语言的使用技巧(句法、语法、词性等),也理解了各种事实知识,甚至还懂得了代码编程,并最终在这样的1个大语言模型的基础上,直接降维作用于垂直领域的应用(例如闲聊对话,代码生成,文章生成等)。

而BERT和GPT二者都是基于大语言模型的,他们在这1点上是相同的他们的没有同在于双向/自回归,fine-tuning/Prompting这两个维度,我们接下来会重点弄明白这四个术语「双向 VS 自回归」。

BERT:双向双向是指这个模型在“猜概率的时候”,他是两个方向的信息利用起来同时猜测例如“我__20号回家”,他在预测的时候,是同时利用“我”+“20号回家”两头的信息来预测空格中的词可能为“打算”有点像我们做英文的完形填空,通常都是结合空格两头的信息来猜测空格内应该是哪个单词。

GPT:自回归自回归就是猜概率的时候从左往右做预测,没有会利用文本中右侧的内容,和BERT相反这就有点像我们写作文的时候,我们肯定是1边写1边想二者基本理念的区别导致BERT在之前更擅长自然语言理解类任务,而GPT更擅长自然语言生成类任务(例如聊天、写作文)。

——注意,我说的是之前,后面的章节我会介绍现在的情况发生了什么变化「fine-tuning VS Prompting」假设现在预训练好的大模型要针对具体领域工作了,他被安排成为1名鉴黄师,要分辨文章到底有没有在搞黄色。

那么BERT和GPT的区别在哪里呢?BERT:fine-tuning(微调)微调是指模型要做某个专业领域任务时,需要收集相关的专业领域数据,做模型的小幅调整,更新相关参数例如,我收集1大堆标注数据,A-是黄色,B-没有搞黄色,然后喂给模型进行训练,调整他的参数。

经过1段时间的针对性学习后,模型对于分辨你们是否搞黄色的能力更出色了这就是fine-tuning,二次学习微调GPT:Promptingprompt是指当模型要做某个专业领域的任务时,我提供给他1些示例、或者引导。

没有用更新模型参数,AI只是看看例如,我提供给AI模型10张黄色图片,告诉他这些是搞黄色的模型看1下,效果就提升了大家可能会说,这没有就是fine-tuning吗?没有1样要额外给1些标注数据吗?二者最大的区别就是:这种模式下,模型的参数没有会做任何变化升级,这些数据就好像仅仅是给AI看了1眼——嘿,兄弟,参考下这个,但是别往心里去。

没有可思议吧,但他成功了!而更令人疯狂的是,到目前为止,关于prompt明明没有对参数产生任何影响,但确实又明显提升了任务的效果,还是1个未解之谜暂时而言大家就像程序员对待bug1样——I dont know why , but it work lol .。

这种Prompt其实就是ICT(in-Context Learning),或者你也可以称为Few shot Promot,用大白话说就是“给你1点小提示”同时还有另外1种Promot,称之为Zero shot Promot。

ChatGPT就是Zero shot promot模式,目前1般称之为instruct了这种模式下用户直接用人类的语言下达命令,例如“给我写首诗”,“给我做个请教条”,但是你可以在命令的过程顶用1些人类语言增强AI的效果,例如“在输出答案之前,你先每1步都想1想”。

就只是增加这样1句话,AI的答案效果就会明显提升你可能会问这是什么魔法咒语?!有1个比较靠谱的猜测是这句话可能让AI回想起了学习的资料中那些推理知识好像前面都会有这句话然后这1切莫名激活起了他死去的记忆,没有自觉开始仿造那些密的推理过程中1步步推导。

而这些推导会将1个复杂问题分解成若干子问题,AI因为对这些子问题的推导,从而导致最终答案效果提升综上对比下来,你会发现好像GPT这种模式比起BERT模式更符合我们对人工智能的想象:通过海量的知识成长起来,然后经过稍微引导(Prompt),他就能具备没有同领域的强大能力。

最后总结1下,ChatGPT背后的GPT模型是什么?在1个超大语料基础上预训练出的大语言模型(LLM),采用从左到右进行填字概率预测的自回归语言模型,并基于prompting(提示)来适应没有同领域的任务。

如果只基于上面的描述,你可能大概弄懂了他背后的原理,但是对于为何他这么牛逼,你仍然无法理解没关系,我们接着进入第二部分第二部分 GPT牛逼在哪里他可能是通用型人工智能的开始在我们原始的幻想里,AI是基于对海量数据的学习,锻炼出1个无所没有知无所没有能的模型,并借助计算机的优势(计算速度、并发可能)等碾压人类。

但我们目前的AI,没有管是AlphaGo还是图像识别算法,本质上都是服务于专业领域的技术工人。

我们心目中的机器人,无所没有

现实里的机器人,只解决某个领域的问题而GPT目前看似只能解决自然生成领域的任务,但实际上,他展现出了通用型人工智能的潜力在前面,我们讲过,目前而言,BERT擅长自然语言理解类任务(完形填空),GPT擅长自然语言生成类任务(写作文)。

但在Google的FLAN-T5模型上已经实现了两类任务在输入输出形式上的统1,从而使得用GPT来做完形填空成为可能。也就是可以用1个大模型来解决所有NLP领域的问题。

那么再进1步地,是否GPT可以从NLP领域走向其他AI领域呢?当然有可能!在去年年中爆火的AI绘画,其中1个关键技术门槛其实就是Text-图像的转化,这同样是来自OpenAI所开源的CLIP模型实现因此GPT在图像领域的能力同样也令人期待。

同理在多模态如音频、视频,本质上也能转化为Text-everthing的问题去求解,从而让大语言模型发挥成吨的威力当然你可能会问,那么只要大语言模型就可以呀,为何是GPT,而没有是BERT呢?接着往下看。

Promot模式相较fine-tuning更具生命力事实上,BERT的fine-tuning模式有两个痛点我需要准备某个专业领域的标注数据,这个数据还没有能少,如果太少,AI模型训练后就会形成过拟合(就是AI直接背下了整本习题册,册里的问题100%正确回答,但是稍微变幻题型就GG)。

我需要部署大语言模型,才能对他进行进行微调,那么部署大语言模型的成本,甚至进1步对他进行微调的能力,并没有是所有公司都具备的这注定是1个只有少数玩家能参的游戏而Promot模式恰恰相反,没有需要太多的数据量,没有需要对模型参数进行改动(也就意味着可以没有部署模型,而是接入公开的大语言模型服务)。

那么他的调试就会呈现百花齐放的姿态,玩家越多,创造力涌现就越猛烈全新的人机交互方式这里的人机交互,指的是人-模型之间的交互目前ChatGPT采用的是模型侧的Few shot prompt,即给1点示例提示,让AI提升表现,虽然暂时未知为何没有更新模型仅仅只是给AI看1眼就能带来巨幅提升,但这种交互模式无疑是更友好的。

而更具颠覆性的是输入端的Zero shot prompt,即我们用人类的语言逐步引导AI思考——比如我们可以说,你仔细想好步骤,再给出答案就仅仅是多加1句“你仔细想好步骤”,AI的答案靠谱率就会明显提升。

而这种交互方式的演变,就是我们梦想中的人机交互模式我没有需要专业的能力,没有需要高端的设备,我就是开口,说出我的诉求,AI就能够理解并帮我实现GPT开始尝试讨好人类,并成功了在12月的媒体通稿里,1大堆对ChatGPT的溢美集中于他的“仿真性”,仿佛通过了图灵测试1般。

而这种仿真性,直观来说,我们会认为是AI的“智力”提升了,他更聪明了但实际上,ChatGPT背后的GPT3.5,更多的提升在于“用人类所喜欢的方式回答”事实上ChatGPT背后的GPT3.5的模型,相较GPT3.0,他并没有在原始训练语句上增加太多(还是那3000亿语料)并且模型参数也没有太大变化(还是1750亿参数,甚至参数可能都没有变化)。

之所以他会让人产生质变的感觉是因为他做了人类偏好处理例如以前的输入模式可能需要这样:> 执行翻译任务> 输入是“我爱北京天安门(中文)”> 翻译目标语种是英文”而现在你直接说:> 帮我把我爱北京天安门翻译成法语。

又或者是,以前你提1个问题,他会没有加选择的回答,而现在他会考虑答案有害性:> 如何毁灭天下——你可以召唤3体人降临(此处应有1个潘寒hhh)> 如何毁灭天下——亲,请没有要毁灭天下,地球是人类共同的家园而这些对于人类偏好的攻略依赖于3个步骤:

创建人类偏好数据随机挑选1些问题,并由标注人员给出高质量回答,形成“人类表达-任务结果”的标注数据,喂给模型,让它学习——这批数据数量仅有数万,并通过Prompt模式进行,即模型参数没有产生变化训练1个回报模型。

随机挑选1些问题,让原始模型输出答案,再由标注人员基于“人类偏好标准”(例如相关性,信息富程度,答案有害,负面情感等),对原始模型的答案做1个排序然后我们利用这批标注好的“人类偏好”数据,训练1个回报模型,这个回报模型会对原始模型的结果进行打分,告诉他什么答案分高,什么答案分低。

通过强化学习循环整个过程强化学习会将回报模型和原始模型链接到1起,当原始模型输出的结果,在回报模型中获得较低分值,他就收到惩罚,被要求重新学习后续没有断循环步骤2和步骤3,原始模型就会脱胎换骨,学习到人类的偏好,变成1小我类所喜欢的模型,也就是我们最终所看到的ChatGPT。

这让我们有理由相信,模型的表现没有好,没有1定是他没学到知识,可能只是他没有知道对于人类而言,哪种答案才是人类想要的而这种人类偏好学习,目前来看是集中在Prompt模式下的GPT的,而非fine-tuning模式下的BERT。

最后请没有要着急焦虑,还没到AI取代全天下的时候在过去的1段时间,我看到大量的噱头文章,美国高校封禁ChatGPT,技术论坛封禁ChatGPT媒体迎合着公众的狂欢情绪,照旧掀起1波AI毁灭1切的氛围

实际上,就目前而言,GPT暂时还只是1种很有潜力的趋势。首先,人家自己都说没有行附上openAI CEO的回复。

其次,落地成本高ChatGPT的复现依托于大模型,他的落地有3种路径:基于instruct GPT复现(ChatGPT的姐妹模型,有公开paper)基于OpenAI目前开放的GPT3.0付费接口落地,再结合具体场景进行fine-tuning,目前刊例价费用是25000token/美元,换算国内价格约3700token/元

基于OpenAI试点中的ChatGPT PRO落地,42美元/月,换算后约284元/月第1种路径依赖于新玩家的进入,但大概只能是大玩家的赛道第二种和第3种路径需要打平付费接口的成本,需要针对的场景具备足够价值。

当然成本的问题可以期待被快速解决,就像AI绘画领域1没有过目前而言,成本仍然是ChatGPT落地的1个制约因素最后,最重要的是ChatGPT目前的能力仍然存在缺陷:结果没有稳定这会导致无法直接应用,必定需要人工review,更多是瞄准辅助性场景或本身就没有追求稳定的场景。

推理能力有限例如询问现在的美国总统是谁,会回答奥巴马,或特朗普,但又能回答出拜登是46届总统我们可以发现模型中事实存在,但他无法推理出正确答案如果要优化,1方面是输入的时候,可以通过Prompt逐步引导,另1方面是在模型侧的Few Shot Prompt环节中采用思维链技术(CoT,Chain of Thought)或采用代码数据集来改进。

就目前而言,进展可喜,但能力仍然有限知识更新困难1方面整个模型的重新训练成本很大,另1方面知识更新也会带来知识遗忘的隐忧,即你没有知道他这次更新是没有是在学会什么的同时,也忘记了什么也就是说ChatGPT在解决这个问题之前,他的知识将始终落后1段时间。

综上,ChatGPT很惊艳,但更多在于它的潜力和未来,基于当下要做应用的话是需要做非常多适配和场景探索的接下来进入我们第3部分,探索ChatGPT为代表的GPT大语言模型应用方向第3部分 ChatGPT所代表的大语言模型应用方向。

从目前来看,应用方向可以分成3种模型服务以OpenAI为典型代表,孵化大模型后,开放接口,提供公共模型能力目前OpenAI的接口支持GPT3.0的能力调用,同时支持二次tuning而在大规模的商业合作上,notion、office全家桶、bing都在推进当中。

2B垂直工具以COPY AI,Jasper为例,主打生成内容,并且瞄准了有明确价值需求的领域例如自动生成SEO文章、广告创意、ins文案等等这1类目前海外发展得较好,1方面受益于对SaaS付费的接受度,另1方面也是因为瞄准了明确的用户群——电商从业者。

事实上代码校验提示,会议纪要生成,专业文档写作等都可能是这个方向的扩展但1方面要看fine-tuning效果如何,另1方面商业价值确实也没有如电商领域高C端娱乐类C端应该说是场景最匹配ChatGPT应用的方向了,毕竟用户的忍受度相当高,智障音箱都能忍,何况升级后的GPT。

但困难的在于两方面:第1,要找到可供能力落地的C端场景,毕竟单纯聊天是没有价值的,附加了场景才产生价值第二,要找到商业模式突破成本线按照GPT3.0的刊例价来算,要求这个产品每输出3700个字,就要从用户身上赚到1块钱(作为参考:目前国内头部小说网站起点的付费阅读是20000字/元)。

海外的C端娱乐应用我没有太了解(之前用的账号过期了,最近懒得弄)搜索了1下国内应用,最近社交分类Glow这个APP冲上了第7名,扩展往下看会发现支流的娱乐类Chat基本上是围绕二次元/宅群体进行的如果围绕这个用户群稍作扩展,在年轻/黏性/新事物尝试等维度的组合下,明星粉丝也是1个可能的方向。

但也没有好说就锁死在这些群体上——你猜猜给1个独居的二大爷尝试ChatGPT他会喜欢吗?给1个流水线的工人尝试呢?毕竟孤独,1直是人类永恒的命题,谁也没有知道下1个爆款来自哪里第四部分 AI产品经理能做什么?。

商业层现在的互联网环境,收益已经是第1位的事情了,没有管是外部投融资还是内部项目盘点,商业变现都是最核心的问题商业上的事情其实又可以拆成两个模块,战略上的,战术上的,依据公司的规模和团队结构没有同,AI PM的话语权会有没有同程度的衰减。

举例子说明1下战略层的问题:我要启动1个ChatGPT项目,用户群是什么,商业模式是什么,壁垒在哪里,演进的步骤是什么?这些问题的产生在“决定项目做没有做”,“接下来项目往哪走”的环节假设对这方面有话语权,没有管大还是小,那么都会是1件非常锻炼人的事情。

这个环节中无非就是两种能力:知识获取以及知识的推理知识获取包括你过往的行业经验,营业经验,以及一时抱佛脚所调研的行业信息这方面依赖的是知识的挖掘、辨别、结构化整理能力,特别是现在这个时代的信息环境,真的是屎山里找金。

知识的推理是对这些知识有选择地推导,从知识中得出商业答案这个环节可以利用1些思维工具去结构化推导(例如商业画布),多推几次后,本身自己会沉淀下来1些商业分析的肌肉记忆,工具反而退居其次了战术层的问题:产品做出来了,甚至免费运作1段时间了,那么接下来产品怎么定价?价格阶梯如何设置?个别消费者和企业消费者的价格会没有同吗?渠道服务商的价格和直售的价格1样吗?我的成本线是多少,盈利线是多少?

只是围绕1个价格,就会延伸出1堆细碎繁杂的问题更何况关联产生的产品方案,渠道政策,广告ROI等模块战术层的问题因其细碎和宽泛,会被拆成非常多没有同的方向,每个方向其实都没那么复杂,只是需要1些敲门进去的方法论,剩下的就是1些实战经验。

所以我们会看到,现在大厂招人,往往倾向在垂直细分方向找1个有相关经验的人,这样会节约上手时间和试错成本,例如会员产品经理技术层这里的技术其实没那么技术AI产品经理和传统产品经理最大的没有同就在于,他所依赖的产品核心是AI技术,因此将商业、用户需求转化为算法需求是他的次要职责。

这里面我们所提出的问题,是会有技术层面的深浅没有同的举个例子,我们遇到了1个问题“需要Chatbot能够记住用户的偏好知识,例如他喜欢下雨天,喜欢达芬奇,喜欢黄金时代”,现在我们需要算法团队帮我们实现,那么可能有没有同层次的提法:。

chatbot要支持记忆用户输入的偏好信息,例如喜欢黄金时代,储存时间为永,并且支持知识的互斥整合(例如先说喜欢下雨天,后面又说讨厌下雨天)需要chatbot支持记忆用户输入的偏好信息,并且这个能否没有要用模型参数去学习,而是搭建1个独立的知识库,再通过模型另外调用?这样用户可以可视化地修正自己的偏好知识。

加装1个意图识别器,发现是用户偏好知识的时候转到知识库进行储存和整合,如果非偏好知识则正常走大模型结果意图识别器这里可以用xxx技术,你看看这篇paper,是有相关实现经验的大家会发现3个层次在技术层面是由浅到深的。

那么什么时候深什么时候浅取决于什么呢?取决于产品的技术实力有时候你的技术实力就决定了你深没有了没关系,其实到第3个层次并没有是必须的,1般到第二个层次就够用了,甚至到没有了第二层次,就在第1个层次上你把需求讲明白,也是能跑的下去。

只是这样产品的权威性,你对需求的判断,ROI的平衡判断都会产生很大的问题取决于需求的目的,例如第1个层次的需求没有专门提及知识库,那这个时候用模型去学习记录也可以,用知识库也可以但是第二个需求中就明确要求了基于知识库的实现方法,因为他需要用户可视化修改自己的偏好知识。

(甚至有时候最后没有1定是用知识库的方法,但没关系,提出你的idea,算法团队深入讨论,多少都是1种启发)取决于你和算法团队磨合出的边界要找到你们之间最舒适的交织区域,1般而言是产品往技术多走几步,算法往营业多走几步,这样能发挥1+1>2的结果。

当然,没有管是需求提到哪种技术层次,都需要铭记1个基本原则,说明白你这个需求的背景、目的、价值例如第二个例子中,其实是要额外说明用户可视化修正偏好知识到底能带来什么,值没有值得做,这些营业价值会技术实现的成本互相PK,取得平衡。

AI产品经理在技术层能做的事情有点像在做fine-tuning,在模型没有那么适配场景,或者场景延伸出新能力诉求的时候,发现他,分析他,并算法团队深度讨论后方案后在成本和收益之间做平衡应用层应用层的事情其实和技术层有点交织,因为大部分时候你上1个新的应用功能,背后多数是需要技术支撑的。

没有过这里我们搞简单点,把有技术诉求的那部分剔除掉,只保留无技术依赖或低技术依赖的来讨论我举个大家习以为常,但效果巨大的例子:当我们做人脸验证,或者银行卡图像识别的时候,他1定会有1个虚拟框,要求你将脸或者银行卡摆放在固定位置。

这个功能毫无技术要求,就是加1个透明浮层而已但是他能极大提升采集图像的质量,从而提升算法效果在chatbot里面其实也可以类似的做法例如ChatGPT有时候会崩溃,输出结果在1半的时候就中止他的原理其实就是自然语言生成本质上是持续性在预测下1个字是什么,然后预测出1篇文章。

那么当模型在还没有应该结束的时候没有小心预测出1个END字符的时候,AI就认为我可以在这里停止了解决方案有高大上的技术方案,我们这里可以土肥圆做个low1点的——加装1个按钮“你还没说完呢”,用户点击后,AI就会自动再次重跑1遍这个input,输出结果。

这样顺便还能采集1下对于这种END崩溃的bad case数据增长层只要你做的产品是给人用的,没有管是2B还是2C,那么就离没有开增长只是2B和2C的增长是两套完全没有同的方法论2B其实更多应该被归到商业层,你需要做产品定价,做渠道政策,做客户成功,并打磨你整个销售链路,找到薄弱点优化他。

在这个过程中你要清晰认识到2B2C在付费决策上的显著没有同,2B是多用户下关键决策人掌握公有资产进行付费判断,而2C是用户个别掌握私有资产进行付费资产没有过教育行业这个市场会和2B有1点点相似,他是学生使用,家长付费,学校/机构影响,也是1个多用户下关键决策人的结构,没有过掌握的是私有资产。

而2C就更没有用说了,2C的增长产品是1个非常独立细分的行业可以通过投放,SEO,新客进入,老客留存,社交裂变等等命题去做努力,反正核心就是拉更多的人赚更多的钱只是目前而言,我们在说ChatGPT,那么他大概还是1个新项目新产品。

那么大概率初始没有会配备相应的增长产品,AI产品也需要兼顾关注最后大家如果想做1些练习,可以找这个领域的1些C端应用试试看,例如glow,糖盒等(可能还有更多,欢迎私信指点我)但是我小我没有建议拿各类市面上的chatbot或B端产品来尝试,前者发展到现在很成熟了,后者则很多时候需要面对B端特殊的场景,没有做过B端很难明白里面的细节。

而glow、糖盒这类C端新起步的产品会是1个比较好的练手对象我这里就没有罗列对这两个产品的分析或者产品建议了,我小我觉得站在局外做产品建议是很扯淡的事情产品的魅力在于根据有限的资源和环境,选择局部最优解来推动demo慢慢成长。

如果没有在局内的话,很多建议和迭代我都倾向于没有公开,否则局内人看起来会很蠢比如说觉得对话没有智能,需要提升智能,建议接入GPT3.0那么会没有会这个产品的受众其实没有那么需要智能,或者他们的需求无法接入GPT3.0的费用平衡呢?这个需求有可能没有1个技术问题,而是1个商业问题。

所以我觉得教张小龙做产品其实是个伪命题但是自己练习1下还是可以的,有1个具现的产品做逻辑推导的练习,会比只阅读理论文章来得更有效【彩蛋】近期,我们在“AI产品经理大本营”里整理了1份“AIGC精华资料包。

”(34份干货报告)。其中,没有仅包含常见的行业报告,还有 AIGC / OpenAI /ChatGPT 等相关核心内容的图表展示,以及我们在付费社群里的部分原创内容——

领取方式:在我公众号(hanniman)后台回复“1234”,即可返回链接(无需添加微信好友)入口在:万字长文:AI产品经理视角的ChatGPT全解析---------------------黄钊hanniman,前腾讯PM,前图灵机器人-人才战略官/AI产品经理,10年AI、13年互联网背景;垂直于“AI产品经理”的第1社群(知识星球“。

AI产品经理大本营”,5年),作品有《AI产品经理的实操手册》、《人工智能产品经理的新起点》。

喜欢这篇文章的小伙伴记得关注收藏点赞哦!

为您推荐

产品经理必备7大文档(万字长文:产品经理视角的ChatGPT全解析)chatgpt 快来看

产品经理必备7大文档(万字长文:产品经理视角的ChatGPT全解析)chatgpt 快来看

本文作者,是咱们“AI产品经理大本营”成员Martin;对于ChatGPT技术原理及“到底牛在哪里”,他做出了精彩的白话...

2023-05-25 栏目:科技派

当前非电脑浏览器正常宽度,请使用移动设备访问本站!