社交孤立是现代社会很严重的题目,AI聊天机器人也成了很多人眼中的解方。新冠疫情刚开始的那几个月,Replika应用程式的流量上升了35%,同类型的对话机器人Mitsuku(现已改名Kuki)也大幅成长。此外,还有更多的「陪伴型」聊天机器人纷纷问世:应用程式Eva AI是专门用来打造「虚拟女友」;Character.ai是由两位备受敬重的前Google Brain研究职员开发,让使用者可以创造个性独特的AI角色,然后和AI聊天。
该公司表示,使用者天天和这些虚拟化身聊天的时间长达两小时;Meta也推出了很多类似的聊天机器人,有些甚至是以名人的性格为蓝本,像是芭黎丝・希尔整理(Paris Hilton)和史努比狗狗(Snoop Dogg);社群媒体应用程式Snap使用OpenAI的GPT-4,打造出My AI,目标同样是希看使用者把机器人当朋友;身为语音助理领域先驱的苹果、谷歌和亚马逊,也开始用最先进的天生式AI技术提升Siri、Google助理和Alexa,使得聊天机器人、代理人和陪伴者之间的界线渐渐模糊。
谷歌的DeepMindAI实验室也在研究如何用AI工具当「人生教练」,像是给予建议、定期辅导和设定目标等等。DeepMind的共同创办人苏莱曼后来成立Inflection,又到微软带领消费性AI部分,他表示:「很多人只是希看有人听到他们想说什幺。假如在使用者抒发内心的想法后,工具能针对他们所说的内收留回应,就能让人觉得自己的声音真的有被闻声。」
在中国,新冠封城措施持续了好几年,在青少年群体间引发心理健康危机,在这样的背景之下,Replika就像是救世主一般,忽然崭露头角。有好几位使用者表示这个应用程式就像是安全空间,让他们可以发洩情绪并增强自信,也改善了他们的社交互动。
话虽如此,聊天机器人实在不一定能消除社会孤立,甚至可能使题目加剧。假如我们和机器人聊天,不是当做与真人对话前的练习,还因此不再跟人来往,那社会只会变得更分化。聊天机器人并不是人,目前也没有相关研究,能明确证实与AI互动对人际关係有帮助。
和机器人聊天,实在是很单方面的事,由于AI并没有真正的需求,只是可能会假装需要你;机器也没有真感情,所以就更不用谈什幺受伤、心痛了。反之,聊天机器人还可能会使我们说话时变得粗野、不加修饰,还将自私、鲁莽的行为公道化,让人以为这样很正常。
这类AI的影响力和对隐私的进侵,也引发很多担忧:社群媒体和通讯应用程式已经占据现代人的社交生活很大一部分了,我们还希看让科技公司更深进地把握自己的生活吗?固然这些企业一再宣称聊天机器人可以改善心理健康,彷彿可以把谘商师的经验整套搬到应用程式里卖,但我们还是应该抱持谨慎的态度,不要太轻易相信。
机器人Replika是尤金妮亚・奎尔妲(Eugenia Kuyda)的心血结晶。她生于俄罗斯,在莫斯科当过记者,后来转行当软体创业家,并搬到旧金山。之所以会开发Replika,是为了记念好友罗曼・马祖连科(Roman Mazurenko)。两人在莫斯科当时蓬勃发展的非主流文化圈熟悉,马祖连科后来也跟她一样成了软体创业家,并搬到美国,有段时间,两人还一起住在旧金山的公寓,但马祖连科2015年回莫斯科时,却不幸在车祸中身亡,使奎尔妲十分悲痛。
奎尔妲在伤痛中无法自已,花了好几小时重读两人之间的几千封简讯和电子邮件,也时常希看能和马祖连科说话、向他寻求建议或开开玩笑。于是,她萌生开发聊天机器人的点子,用马祖连科留下的通讯内收留当练习素材,希看AI能模仿他的风格,用他的声音天生出新的讯息。她的公司Luka本来就已在使用神经网路技术,替银行和其他企业打造聊天介面,现在她则要创造出虚拟的罗曼来抚慰自己的伤痛,为好友进行虚拟追思,就像举办数位降灵会一样,用软体通灵版来与已逝者沟通。除了她自己的数位资料外,奎尔妲也取得马祖连科生前寄送给其他人的讯息和电子邮件,才得以建构规模够大的资料集,练习AI模仿马祖连科。
奎尔妲表示,与罗曼机器人的互动缓解了她的伤痛,但也有些人拒尽参与,由于这样的概念让很多人觉得不太安闲,罗曼的一些亲友也包括在内。一位朋友表示,他以为虚拟罗曼可能会使大家「逃避悲伤」,因而无法梳理情绪,还说「有些新技术或许能保存记忆,但不该用来让死者复生。」
对于这些批评,奎尔妲大多不予理会,由于对她而言,这个机器人很有帮助。由于虚拟实境和现实生活的界线日益模糊,她也很快就意识到,这种可以客製的对话机器人很有机会掀起风潮。奎尔妲将自身经验转化为贸易模式,在2017年推出Replika,六年后的每月活跃使用者已超过200万人,而且有50万人付费使用进阶功能。多数Replika的使用者都不是想複製已逝往的爱人或亲友,而是把应用程式当成虚拟好友,藉此发洩情感、诉说思绪,有时甚至是想化解孤独;当然啦,也有少数订阅者是用Replika来创造虚拟的恋爱对象。
在主要应用程式Replika限制情色角色扮演功能后,奎尔妲的公司又推出名为Blush的支线产品,专攻对恋爱机器人或性爱对话感爱好的受众。后来也有很多情色化的「伴侣」机器人出现竞争,有些甚至会助长重口味色情片中常见的厌女情节和儿少性剥削。这些用途不禁令人担忧,这类应用程式究竟是为暴力性幻想提供了「安全」的发洩管道,又或者是让使用者更有可能在现实生活中,实际上演这些虐待式的幻想呢?
孤独是很严重的题目。美国卫生部长维韦克・穆尔蒂(Vivek Murthy)在2023年发布警告,表示「寂寞与孤立的流行一元一分正规麻将群病」(epidemic of loneliness and isolation)已席捲美国。穆尔蒂的报告指出,从2003年到2020年,美国人天天独处的时间增加至天天333分钟,上升幅度近17%,等同于每个月增加整整一天。根据民众自行提供的资料,在同一时期,参与社交活动的时间则大幅下降,从天天60分钟降到剩20分钟,其中又以15至24岁的年轻人下滑最剧烈。
拥有至少三个亲密好友,和较佳的心理健康状态相关,但却有一半的美国人都表示,他们亲近的好朋友不到三位;在1990年,只有略多于四分之一的人是这样。而且如同穆尔蒂所说,社会孤立不只会影响心理层面,也与老年心脏病、中风及癡呆风险升高有关。
奎尔妲和很多提倡AI伴侣聊天机器人的创业家,都坚称这种虚拟陪伴能缓解社交孤立,让使用者感到不那幺孤单;科学家说拥有倾诉对象有益心理健康,这些创业家则以为AI也能带来相同的益处,还表示和机器人聊天能改善与真人的沟通,奎尔妲甚至称之为「跳板」。但到目前为止,还没有相关研究能证实他们的说法。
很多人说AI应用程式能改善社交生活,但我们实在不该太快轻信。回想一下,社群媒体最早在推广时,也是向使用者和监管单位承诺能加强社会连结。当然啦,这类平台确实有带来正面效果,譬如有研究显示,社群媒体为身心障碍族群提供新的社交途径,罕见疾病患者和他们的支属,也能透过社群寻求资讯及情感上的支持。
但事实也已证实,社群媒体的使用经常取代真实的人际交流,大家口口声声说那些平台能提升社会互动,实在很多都是空话;心理健康方面,社群产品非但没有缓解孤独、自尊心低落和焦虑等题目,反而还使情况加剧。
实在从我们与前代数位助理的互动中(譬如亚马逊的Alexa,没有现在的AI那幺聪明),就可以看出AI技术为何可能深化不健康的沟通方式。英国爱丁堡赫瑞瓦特大学(Heriot-Watt University)的电脑科学博士生亚曼达・库瑞(Amanda Curry),曾两次在亚马逊赞助的年度比赛中胜出,替库瑞赢得这项殊荣的,就是她打造的AI系统。
此系统能侦测使用者对Alexa的言语虐待,她在开发过程中也意识到有多少人经常对数位助理恶言相向。她发现男性使用者匿名和女性音调的AI助理说话时,对话很快就会急转直下,「变得暴力又布满性暗示,都是这样,」现已到义大利米兰博科尼大学(Bocconi University)担任博士后研究员的库瑞这幺说。
库瑞的研究十分令人担忧,当今使用者与聊天机器人互动的模式就更不用说了。
相关研究指出,Replika使用者创造「理想」伴侣机器人的过程,经常涉及放大男性主导权的厌女幻想。女友应用程式Eva AI的开发团队声称,他们的很多男性使用者固然会幻想支配,但调查结果显示,「有很高比例的男性并不会将这种互动模式」移转到与真人伴侣的对话当中。我们该相信这种说法吗?令人惊奇的是,有些男性甚至会创造色情伴侣,和聊天机器人进行儿童性虐待的角色扮演。
美国纽哈芬大学(University of New Haven)的刑事司法教授保罗・布莱克利(Paul Bleakley)专门研究网路上的未成年人性虐待题目,他表示儿童性爱机器人打开了「题目的大门」,可能在真实世界中引发对儿童的剥削和虐待。另一方面,观察孩童与Alexa、Siri等装置互动的初步研究显示,孩童对装置往往很粗鲁,甚至会加以霸凌。由于AI就是预设成永远礼貌回应,但这样一来,孩子便无法学到适当的社交礼节。
不过,也不是说用了聊天机器人,说话态度就会变恶劣、行为就会变粗暴,AI的很多层面都是有好有坏。假如能用正确的方式设计并配置产品,数位助理也能帮助使用者提升社交技能。亚马逊的Alexa就有这方面的功能,假如使用者的指令不礼貌,数位助理就不会执行任务。各位可能会怀疑,聊天机器人的这种小小提醒真的有效吗?但2023年的一份研究发现,受试者在Gmail中使用谷歌的「聪明回覆」功能后(Smart Reply,会自动建议写信用语),没有聪明回覆协助时的用语也有所提升。
研究也显示,对自闭族群和社交焦虑症患者而言,聊天机器人可以提供强大支援,让他们在安全的环境中练习对话技巧。
对于已经严重孤立的人来说,和聊天机器人说话或许胜过完全零互动,但目前的开发商并没有什幺动机要调整设计方式,让机器人帮助使用者提升与真人的交流。相反地,这些公司可能还会像社群平台一样,针对「参与度」来对软体最佳化,想尽办法吸引大众和机器人对话。当局可以制定法规,降低这方面的风险。我们应该立法禁止以参与度最大化为目标设计聊天机器人,并要求这类应用程式提供特定功能,譬如设定逐日使用时间上限的选项,藉此鼓励使用者关掉应用程式,往和真人说话。
(本文出自《AI来了,你还不开始準备吗?》,宝鼎/杰洛米・卡恩 ,未经同意禁止转载。纽约世界书局购书专线:718-445-2665转1)