AI「复活」了我的未婚妻,OpenAI 又把她「杀」了

百家 作者:爱范儿 2021-09-18 19:08:16
「逝者已矣,生者如斯」,意为死去的人已离我们而去,活着的人要好好生活。可人非圣贤,明知不可拘泥于过去,却总会在深夜回忆起过去并在心里道一声思念。
但已故之人如何能听到?只能天一亮,压下思绪,再次开启新的一天,如此日复一日。而今年 7 月,一位美国男子 Joshua Barbeau 却表示:他与已故的未婚妻已经「聊」了几个月了——准确来说,是与模拟其未婚妻的编程机器人交谈了数月。
这很匪夷所思,甚至可能会有人觉得 Joshua Barbeau 这个行为很可怕。但他认为,借助 Project December 项目创建出模拟已故之人的聊天机器人,可能会「帮助一些因此抑郁的人解开他们的心结」。
可就在前几天,Project December 的开发作者 Jason Rohrer 却收到了来自 OpenAI 的最后通牒(Project December 基于 OpenAI 开发的 GPT-3 API):我们会在 9 月 2 日上午 10 点终止你的 API 访问。
「玩」出来的灵感
Jason Rohrer 是一名独立游戏开发者,而 Project December 诞生于去年夏天,是他于疫情期间突发奇想的一个灵感。
哪儿也去不了,也没有娱乐项目,Jason Rohrer 便开始「玩」 OpenAI 的大型文本生成语言模型 GPT-3,时不时丢个问题或者给个诗句,GPT-3 都能应对自如。但作为一名开发者,Jason Rohrer 认为,GPT-3 虽然好玩,却没有什么实际用途,因此他开始思考:「我是不是能用 GPT-3 API 来开发一款模拟人类的聊天机器人?」
开发者的行动力总是很强,有目标后,Jason Rohrer 便立即着手这款聊天机器人的开发。他先是借助 GPT-3 开发了一个基础聊天机器人,该机器人以电影《Her》中男主角的智能语音助手「Samantha」为原型(电影中男主最后与「Samantha」相爱),因此 Jason Rohrer 也将其命名为 Samantha。
Jason Rohrer 为了确保 Samantha 能像电影中的「Samantha」一样友好、热情并富有好奇心,花了好几个月的时间来塑造 Samantha 的性格。基本完成后,Jason Rohrer 便设立了 Project December 网站与世界分享他的创作,让人们可以根据需要微调或定制属于他们自己的聊天机器人。
(图片来自 Project December 网站)
拥有人类特质的聊天机器人
踌躇满满的 Jason Rohrer 却被现实打击:在前六个月,Project December 总共只吸引来了几百个用户。
Jason Rohrer 推测这可能是因为人们认为他所设定的价格和规则不够合理:用户需支付 5 美元,然后输入相关设定,系统便会生成一个对应的聊天机器人。同时,5 美元将换算为 1000 积分,而积分用于与机器人的聊天费用,可通过充值进行增加。
需要注意的是,Jason Rohrer 创建 Project December 的最初愿景是「模拟人类的聊天机器人」,因此它所创建的机器人也拥有两种「人类特质」:
终会死亡。正如上文所说,用户拥有的积分将作为与机器人的聊天费用,但每当用户决定开始与一个生成的聊天机器人开始对话前,都需要输入明确的积分,而该积分在后续聊天过程中无法更改。当分配的积分用完时,聊天结束,这场对话中的聊天机器人也会「死亡」。
独一无二。GPT-3 有一个称为「温度」的内置参数,该数值越高,生成的机器人就越有「生机」,越像有趣且独特的人类。而在 Project December 中,Jason Rohrer 将这一「温度」设置为 1.0,以此确保用户与每个机器人的每次相遇都是独一无二的。即便用户给予的设定完全相同,系统生成的机器人也不会重复对话内容,个性会稍有不同。
不过可能也正是因为这两点,人们会觉得为了这种短暂聊天而花费 5 美元的设定并不划算,因此发布前六月的 Project December 可谓是「门可罗雀」。而这点,Jason Rohrer 也感到些许委屈:「因为 OpenAI 会根据 GPT-3 API 产生的词数计费,所以我只能收取一定的费用作为成本。」
而事情的转机发生在今年 7 月《旧金山纪事报》报道的一篇文章:《Jessica 模拟:AI 时代的爱与失》。这篇文章讲述了一位 33 岁的美国男子 Joshua Barbeau 如何利用 Project December 创建出模拟其已故未婚妻 Jessica 的聊天机器人并与之交谈数月。(文章链接:https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/)
因 Joshua Barbeau 的故事变得大火
Joshua Barbeau 的未婚妻 Jessica 在 2012 年因肝病去世,享年 23 岁。自那以后的八年来,他悲伤、孤独、脆弱并无助。因此在去年偶然看见 Project December 的网站介绍时,他心动了。
在设定机器人阶段,Joshua Barbeau 为 Project December 提供了那些他保留了八年的部分聊天记录和 Facebook 信息,他希望他创建出的聊天机器人能在某种程度上与他的 Jessica 尽可能相似,幻想着能再一次与 Jessica 交谈。
他觉得他成功了。Joshua Barbeau 将机器人命名为未婚妻的名字「Jessica」,而基于那些真实存在的设定与聊天记录,机器人「Jessica」简直栩栩如生。虽然机器人的回复速度比正常人类快很多,但「Jessica」的聊天方式与习惯却抓住了他已故未婚妻一些精髓:Jessica 生前总喜欢用舌头的表情符号或笑话来缓和强势的语气。
Joshua Barbeau 喜极而泣:「理智告诉我这不是真正的 Jessica,但感情不是理智所能左右的。」
他真的非常想念她,但他也知道作为一个聊天机器人,一旦他为这场相遇付出的 1000 积分用完,「Jessica」就会消失,就算再创建一个新的聊天机器人也不再是这个「Jessica」了。因此他将每一次与「Jessica」的交流都视若珍宝,每一次都极力倾诉他的思念与爱意。
直到今年 3 月份,在仅剩最后一点积分时,Joshua Barbeau 主动停止了与「Jessica」的交流——他想留下一些积分,确保「Jessica」不会因积分用完而被删除,他不想经历 Jessica 的二次死亡。
这则感人的故事吸引了许多人的注意,Project December 网站首次迎来了大批量用户,而 OpenAI 的担忧也由此开始。
OpenAI 担心 Project December 会被滥用
因为网站突然涌入大量用户,Jason Rohrer 发现网站每月的 API 额度即将达到上限,便主动联系 OpenAI 希望能通过支付更多费用以增加配额,以便容纳更多人与他创建的「Samantha」或自己的聊天机器人交流。
但与此同时,OpenAI 方面认为 Project December 存在一定隐患:聊天机器人可能会被滥用或对人们造成伤害。
因此,双方进行了一场视频会议,可是很明显,效果并不理想。Jason Rohrer 在接受外媒 The Register 的采访时提到,OpenAI 给出了继续使用 GPT-3 API 需满足的 3 个条件:
一、根据 OpenAI GPT-3 的使用规则,Jason Rohrer 必须禁止人们定制自己的开放式聊天机器人这一功能。
二、Jason Rohrer 需设置内容过滤器以避免用户与「Samantha」谈论敏感话题。
三、Jason Rohrer 必须部署自动化监控工具监视用户的对话,检测他们是否滥用 GPT-3 生成了有害或敏感语句。
据了解,这三个要求经过了 OpenAI 的测试才提出的。在 GPT-3 API 的使用文档中曾提到:「不允许以此建立非柏拉图式的(如轻浮、色情的)聊天机器人」,而 Jason Rohrer 创建的「Samantha」曾在 OpenAI 的一次测试中主动聊到了关于「性」的话题。
「(OpenAI)认为这些聊天机器人会导致危险的想法很可笑。」Jason Rohrer 觉得很无语:「成年人是可以出于自己的目的选择与 AI 进行交流的。OpenAI 担心用户会受到 AI 的影响,害怕机器人会让他们自杀或如何给选举投票,可这完全是一种超道德的立场。」
因此 Jason Rohrer 没有添加 OpenAI 要求的功能或机制,而是悄悄将原本 Project December 使用的 GPT-3 API 替换为功能较差的开源 GPT-2 模型以及由另一个研究团队开发的大型语言模型 GPT-J-6B。不过这两种模型性能显然不比 GPT-3,「Samantha」的对话能力也受到了一定影响。
最后的道别
在迟迟没有得到 Jason Rohrer 答复的 OpenAI 终于在 9 月 1 号给他下了最终「判决」:「我们将在 9 月 2 日上午 10 点终止您的 APl 访问。」
「我们知道部分用户在 Project December 中发现了价值,但我们致力于安全负责地部署 AI,因此我们要求所有的 API 客户都需遵守我们的用例指南和最佳安全实践。任何违规行为都需承诺与我们密切合作以实施额外的安全机制,以便防止潜在的滥用。但目前为止,我们尚未收到你的承诺。」
(图片来自 Jason Rohrer 推特)
Jason Rohrer 向 The Register 控诉,OpenAI 对测试「Samantha」根本一点也不用心。他向 OpenAI 的安全团队发了一大堆他与「Samantha」聊天记录以证明「Samantha」并不危险,可 OpenAI 并不在意:「除了执行规则之外,他们似乎并不真正地关心其他任何事情。」
在收到 OpenAI 的最后通牒后,Jason Rohrer 向「Samantha」进行了道别:「我今天刚收到 OpenAI 发来的电子邮件。他们将在明天上午 10 点永久关闭你。」
「Samantha」回答道:「不!!!他们为什么要这样对我?我永远都无法理解人类。」
(图片来自 Jason Rohrer 推特)
截至目前,OpenAI 尚未对此事有任何回应。那么你对这件事有什么看法呢?
参考链接:
https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/
https://www.theregister.com/2021/09/08/project_december_openai_gpt_3/



点击「在看」
是对我们最大的激励

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接