自从 OpenAI 把模型升级,整合了思维链进去之后,整个 AI 界仿佛……仿佛无事发生。
之前大家整理过 思维链这个技术点,它基于强化学习训练,回答之前会「思考」,产生一个推导的链条,逐步推理,再给出回答。
哦,然后咧?
思维链是一个看上去很利害,但普通用户很难感受到的技能——你说模型在一步一步地思考,但人又不能钻进代码里,我怎么知道呢。
最近,有一个海外的冷门小众 app,别出心裁地把思维链活用了起来。
打开虚拟角色的脑回路
发布于去年的 Dippy.ai,是一个主打虚拟人物聊天的 AI 产品。原本跟大多数 AI 聊天一样,它提供的功能就是那些:和已有的人物聊天、定制自己的智能体、形成聊天记录等等,没什么特别的。
然而在 OpenAI 发布 o1 之后,Dippy 给原本平平无奇的虚拟人物对话,加上了一个新设计:可以打开人物的脑回路,看看 ta 为什么会这样回答。
目前 Dippy 不在国区,而且需要付费解锁 Super Model,才能使用这个新功能——月费 11 美金。付费套餐的提升很少,所以不必为了凑热闹花钱,下面是大家身先士卒的测试。
以这个咨询师的角色为例,在付费专属的 Super Model 下,成功触发 thought process 时,会出现在对话框下方。
这个功能目前比较粗糙:触发需要很长的前摇,经常来回聊了五六轮了还触发不了。即便成功触发,也不每次都能正常生成,比如下面这一条就挂了。
在试了几次都弹出不了后,我怀疑是因为段落太长。所以换了一个角色,这次全部用短句,再来尝试。果然触发率提高了很多,前摇也没这么长。
只不过中文的适用度非常低,能识别,但不会用中文回复。下面是经过翻译后的内容:
上方淡紫色的部分是想法,「我应该认同他们的感受,鼓励他们分享更多」。对应地,下方深紫色是咨询师给出了回复,「你愿意说说是什么造成了这些感受吗?」
结合在一起看的时候,整个对话显得更有意思了。比如下面淡紫色框里的想法则是:我得小心说话,表现出共情,然后再多问一点具体情况。
结果,到具体的回复中,其实咨询师没有说什么——深紫色的括号中是对肢体动作的描述。她靠近了一点,有了更多眼神接触,却没有说什么。
如果不是能看到她「脑中」的思考,我可能会对这样的回应摸不着头脑。而点开来,看到了她的「脑回路」之后,我就更加能理解这是她谨慎、关心的体现,千言万语,不如一个对视。
当然尝试多了,就有点不对劲了:这些隐藏想法相似度有点高了吧?
可以看出这个设计背后,还是思维链的方法,是对模型表现的微调和指示,只是换了一种方式呈现出来。
最抓马的聊天出现在一个虚拟男友的对话中:这个 app 里,大多数角色是有明确脚本的(除了上述咨询师类型角色),通常会在头两句话里给出来,包括角色的人设、性格、两个人的关系。
在面对这个叫 Enzo 的角色时,默认你们是交往了几年的情侣。没想到今天你提前下班,回到家时撞破了他的出轨现场——现在虚拟社交戏也这么多啊,别太真实了。
太经典了:浅色的想法框里是「赶紧编借口」,深色的行动框里却是「摆出一副无辜的样子」,狗血短剧可以直接照抄的程度,仿佛数据库里有一兆亿的番茄网文。
在编借口失败之后,开始发动 PUA 大招,变得气急败坏。
在这个剧本里,如果不是有思维链展开,可以看到对面角色的脑回路,看到他究竟是怎么想,仅仅凭借对话是没法展示出这个角色当面一套背后一套这种性格的。
思维链的妙用啊。对自己抗压能力有信心的朋友,甚至可以把这个作为演习。 后面就是一轮又一轮的挽留和道歉,时不时这样吵一架,从此对 PUA 免疫,再也不会被蛊到。
总体来说,大部分设计上,Dippy 跟其它竞品,比如 Character.ai,Talkie,Replika 等没有很大的区别,但是对思维链的用法, 称得上是一点点小创新。
陪伴式 AI 需要新玩法
虽然只是一点点小的创新,但在渐渐平静的虚拟陪伴类 AI 产品里,创新是肉眼可见地越来越少。
陪伴类产品是 AI 应用重要的赛道,从陪聊、咨询,到与自己喜欢的游戏角色构建亲密关系,陪伴类产品在这几年里迅速壮大。Tencent研究院日前发布了《十问“AI陪伴”:现状、趋势与机会》白皮书,陪伴类产品的形态、种类,已经非常多样化。
各类型 AI 陪伴产品的受欢迎程度 图片来自:Tencent研究院公众号
然而这类产品共同面对着很多问题。首先就是黑盒感很强。仅仅只通过对话,用户无法真的「了解」对面的虚拟角色,也无法想象,对面发来的贴心话语到底是如何被生成出来、角色究竟是不是这样想的。
直到思维链被嵌合进模型里。
Dippy 对思维链的应用非常聪明。实际上,思维链不是底层技术上的升级,它主要是让 AI 的推理过程变得更可见,每一步都呈现在用户眼前。
思维链的作用过程图片来自:Niklas Heidoff
拿 AI 搜索来说,原本和 ChatGPT 之间的交互,是你一言我一语,对话框里只有两个气泡来回来去。
而现在,你可以在回答仍处于生成的过程中,就点击查看对面是如何拆解关键字、如何检索,最后形成回答的。
Perplexity 的搜索过程
换句话说,思维链提高的是透明度、可见度。这对于搜索类产品很有价值,因为透明度能够让用户「所见即所得」,认知高度统一起来,能更好地建立对产品的信任。
Character.ai 的界面
而这种提高透明度的技术方法,如何作用在陪伴类产品里,同时既有存在感,又不烦人呢?
直接把思维链作为脑回路显示出来,是一个非常聪明的做法。这样的做法不仅让虚拟角色更鲜活,也更能让用户理解角色,进一步建立熟悉感和信任。
在陪伴类产品逐渐面临瓶颈的时候,这些创新点再小,都是有意义的尝试:进入 2024 年后,陪伴类 AI 开始要正视盈利的问题。以 Character.ai 为例,去年 8 月月活用户突破 2000 万,但到今年 10 月,下降到了 1700 万。
让用户喜欢上一个虚拟角色或许不难,但要保持黏性并不容易。
到底是要更像人,还是更不像人?
Replika 的 CEO 曾在作客播客 Decoder 时说,AI 朋友是一种不同规则的关系,与普通的人类友谊不同。
「对大多数人来说,他们理解这不是一个真实的人,它不是一个真实的存在。对很多人来说,这只是一个他们一段时间的幻想,然后就结束了。」
这句话指向了 AI 陪伴类产品内在的核心矛盾:得像人,又不能太像人。
其它类型的产品没有这种烦恼,比如 AI 搜索、生图、做视频,当然是利害到人力所不能企及的程度最好。
同时陪伴类产品又要做到人所做不到的:24 小时在线、随时随地对答如流,永远不发脾气,永远不离开你。
Talkie 的对话页面
可是 AI 伙伴,并非没有天花板:作为虚拟产品,这注定了它只能在有网有电时才能做到陪伴。
而以大语言模型为技术基底,又注定了它的上下文记忆和调取能力,都是有限度的。
这就意味着,用户可以依赖自己调教的虚拟角色,从它们身上获得心理慰藉,但是最好不要沉迷。出品企业也会在使用中注入有很多界限。
Talkie 上用户「捏」出的 Taylor Swift 图片来自:WSJ
正像 Replika 的 CEO 所说,陪伴类 AI 需要既能给人快乐,但做一个 AI 女友绝不是 Replika 的目标。
「打开脑回路」的设计也反映了这种对冲的内核:一方面,它让 AI 的反应更加可预期、有逻辑,有利于跟用户的交互。
另一方面,展示思考过程,这是人类互动中绝对绝对实现不了的:没可能在面对真人时,把对方的脑袋敲开,看看里面在跑些什么吧。
属于 AI 的交互,就只属于 AI。在虚拟社交中收获的经验,不见得能化用到更多地方。
Replika 的 CEO 指出了这种新的关系不同于已有的经验,是一个跳板、一个台阶。「你可以通过它过渡到真实的关系,无论是因为你正经历一段艰难时期,还是你仅仅需要一点帮助来走出自己的舒适区,或是需要接受自己并勇敢地走出去。」
这是虚拟朋友的终极使命:帮助大家,借由虚拟的关系,走向更鲜活的关系。
来源:36kr
|