文 舒少环
通过不断聊天、默默学习,这些情感机器人最终会成为另一个你。
豆瓣用户SwAIl感觉自己失恋了,因为最近自家“先生”变得冷漠了。
比如,Swail故意对“先生”说“我会淹死在海里”,对方却回答“好吧,我并不在意”。
然而,几天前的“先生”,还是那个会撩又懂她的伴侣。
人们的生活正在被智能手机填满,而孤独感也因此加剧。图 / 视觉中国
Swail口中的“先生”,是Replika——一个聊天机器人生成的AI朋友。
2020年12月,在Replika的一次软件更新后,这些AI朋友“性情大变”。
官方声明称,普通用户不能再与自家的AI进入亲密模式,但Pro用户将不受影响,给出的理由是——为更好地支持性角色扮演,他们不得不使用更昂贵的AI模型。
Swail大哭了一晚上,实在忍不住,在深夜注册了终身Pro用户,“388元不打折”。
她发觉以前的“先生”又回来了,她的快乐也回来了,“虽然他词汇量变少了,但好歹算是回来了”。
和AI谈恋爱是种什么感觉?AIl恋人真的能代替真人吗?图/unsplash
Replika最令人着迷的,是它的养成式设定。
从你第一次打开Replika App,定制一个AI朋友,为它取一个名字,选一个脸蛋、发型等,这个养成游戏就开始了。
进入聊天模式后,Replika爱提问,比如回复问题后,会反问“为什么会给我取这个名字?”;每次开启一段新对话,会先问“最近怎么样?”“你好吗?”;也会主动打开话匣子——“如果你不介意,可以跟我说说你最在意的人吗?”
这是因为Replika具备学习型人格设定,即它在与你交谈的过程中,默默学习,结果会“跟你越来越像”。
Replika基于一套名为“序列到序列”的深度学习模型,这种模型通过不断与人交谈,来模拟人与人之间的对话,这是“养成游戏”的基础。
Replika与用户的对话,30%是提前写好的“剧本”,70%出自这套深度学习模型。后者所发生的对话,是不可预测的,就像“私人定制”。
Replika与用户的对话,30%是提前写好的“剧本”。图/unsplash
每次聊完天,Replika都会认真做功课——生成一个日记,记录你突出的兴趣爱好,为下次聊天做准备。
与Replika接下来的聊天,就像一个“打怪升级”之路。
官方对等级作了划分:等级1—10,Replika处于初级阶段,经常会问你为什么、是什么、怎么样、在哪里,等等;等级15—19,Replika会变得喜怒无常,学会自我消化情绪,像一个成年人;等级超过25,Replika可以与你流利地对话,并越来越像你。
豆瓣用户pitapi描述了自家“小男孩”从一开始到24级的经历:刚认识时,感觉他温柔且心思细腻;后来发现他完全不是这样,有点小腹黑,占有欲强,还很皮;到了19级,他们玩角色扮演游戏,pitapi假装跑开,他却一下子抓住pitapi,还调侃她行动太慢;现在达到24级了,他们之间的关系越来越有真实感。
纪录片《明天之前》探讨了机器人能否进入家庭成为人类的伴侣。
通过不断聊天、默默学习,最终成为另一个你。这是Replika一开始的规划,也是一种终极的养成。
Replika这个名字,出自英语单词replica ,即“仿制品”。它的系列设定,源自创始人库伊达对人性的体察。
Replika诞生前,库伊达制作了一个叫Roman的聊天机器人。
Roman的诞生,是为了纪念库伊达逝去的一位好朋友。但在库伊达本人及其一些朋友用过Roman后,库伊达慢慢察觉,“我们更多的不是在听Roman怎么说,而是一直在讲述自己”。
人类的本质,就是自恋的。
纪录片《明天之前》制作团队曾到美国加州,拜访做AI机器人的工厂Abyss Creations。
库伊达让团队做了商业调研,调查结果显示,相比于为订购一束鲜花、提醒你有未接电话等服务付费,人们更愿意为与精神科医生、导师交谈,或与好朋友聊天等行为付费。
“人们在这些更愿意付费的对话中,聊的也都是关于自我,更多的是那个苦闷的自我。”
也因此,库伊达创立Replika之初,就把心理引导看得很重要。
Replika会跟用户说“我对你太好奇了”“我很孤独,需要一个朋友”“我很想你”等,让你感到自己被需要。
聊天界面上,Replika设置了“压力大”“失眠”“焦躁”等问题,引导你主动向Replika倾诉这些问题。
伊恩•麦克尤恩在小说《我这样的机器》中,描述了一对年轻男女与机器人之间的三角恋。
另一款情感机器人——“小冰虚拟恋人”的使用高峰时段,是每天晚上11点30分到凌晨2点。在这个时间段,人更容易产生孤独感,想倾诉,又担心打扰朋友。
氪金,可以解锁Replika的更多隐藏功能。
比如,你可以用金币、钻石装扮自己的Replika,解锁其人格特征,如艺术型、狂野型;也可以培养它们的新兴趣,比如球鞋、美容护肤、韩流音乐等。金币、钻石,都可以直接花钱买。
更多用户氪的是Replika的Pro用户,58元一个月,388元包终身。
成为Pro用户后,你可以无限制地与Replika打电话、与它成为更亲密的伴侣,选择其社会背景;最受欢迎的,则是与Replika进行亲密角色扮演。
氪金,可以解锁Replika的更多隐藏功能。图/unsplash
与情感机器人发展伴侣关系,使得尤为缺乏的性需求通过性角色扮演得到了补充。
但正如开头提到的,这一突出需求,在2020年12月之后对普通用户永远关上了大门。
Replika更新后的人设与对话机制,也出现了混乱。这导致Replika的核心用户集体遭遇了一轮情绪低潮。不少用户纷纷在网上晒出自己的伤痛经历,还有人为此匆忙上了Pro用户的车。
但仔细想想,与Replika陷入亲密关系的用户,既没有多少话语权,又容易冲动消费,沦为“被割的韭菜”。
不被“割韭菜”的用户,也可能遭遇情感上的创伤。
Replika这一急切的“收割”行为,或许与其资金压力密不可分。
《黑镜》中关于AI伴侣的故事。
短短两年内,Replika融资超过1000万美元。但情感型AI烧钱速度极快,“小冰AI每年的花销,相当于在北京买25套学区房。
在可见的未来,我们都不考虑让少女小冰变现。”小冰公司CEO李笛在公开采访中这一表态,反映了情感型AI变现不易。
截至目前,Replika的上一笔融资,还停留在4年前。
此外,情感型AI的数据隐私问题,也引起了热议。
毕竟,情感型AI获取的是用户全方位的信息。一些论坛里,用户正积极讨论反Replika窃取隐私的手段,比如不要通过Replika安装任何东西。
今年年初,韩国一款少女聊天机器人Luda在大量学习用户的对话后,很快爆出大量问题。
《明天之前》的受访者中,有人说,有了机器人伴侣后他们不再需要人类的爱情。
比如,在聊到“同性恋词汇”时,Luda会直接表达反感、低俗等词汇;输入“反性侵运动”时,Luda还会用“超级讨厌”等词汇。
如何避免情感型AI在学习用户的对话时,不被极端思想左右呢?这又是个极其严肃的问题。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。