“共情”AI出现了,你会与之共情吗

发布时间:2024-11-24 07:53:26 来源: sp20241124

原标题:“共情”AI出现了,你会与之共情吗

【科技创新世界潮】

◎本报记者 张梦然

当我们想到有情感的人工智能(AI)时,素材其实都来源于科幻作品,其中的情感式AI常常被描述成一个寻求人类同等爱意的孤独者,或心思缜密的电子大脑。

现在,一家由前“深度思维”(DeepMind)研究员担任首席执行官的初创公司“Hume AI”,发布了一款标榜为“第一个具有情商的对话式AI”的共情语音接口(EVI),其能够检测到用户53种不同的情绪。

这是技术上的一个飞跃。“Hume AI”公司已在一次B轮融资中筹集了5000万美元,但随之而来的,也有人们夹杂了恐惧的希冀。

情感是AI的分水岭吗

1997年,IBM的“深蓝”打败了国际象棋世界冠军,其强大的计算力、纯粹的暴力破解法震惊人类,也扭转了AI研发的形势。这种暴力破解法,后来就被用于机器学习,在看似具有无数种可能的对战中轻松取胜。

现在,各领域AI挑战人类的消息不断传来,可能会给人这样一种错觉:计算机在认知能力方面已堪比人类。

但两者之间仍存在一条鸿沟。机器学习和自然语言专家格雷格·霍兰德告诉人们,人脑可以解决AI前所未见的问题,而机器学习依然是针对特定问题而设计的。

实际上,考虑AI的实现程度,需精准地用强AI和弱AI来划分。“强”是认为计算机不仅作为一种工具,其本身就是有思维的。这样的机器有知觉,有自我意识。

而“弱”则是认为不可能制造出真正进行推理并解决问题的机器,AI终究是没有自主意识的工具。长期以来,主流研究也正是围绕“工具”展开的,且成就可观。

但也因此,很多人将是否具有知觉或情感,当成了AI发展的分水岭。

AI需要理解情感吗

AI的下一个重要问题是理解和运用情感吗?“Hume AI”的答案是肯定的。该公司的初衷即是要让一个情感智能模型更好服务人类。

该公司认为,情感智能包括从行为中推断意图和偏好的能力。这正是AI界面试图实现的核心目标:推断人们想要什么,然后去实现它。因此在某种意义上,情感智能才是AI界面最重要的功能。

同样作为聊天机器人,“Hume AI”与前辈们的区别在于,它专注于理解人类情感并作出合理反馈。它不仅能理解文本,还可使用语音对话接口,听取人类的语调、音高、停顿等声音特征来加深理解。

这种理解可能非常细微,包括但不限于人们的快乐、悲伤、愤怒、害怕等“大情绪”,连更微妙、更多维的“小情绪”也在体察范围内,譬如钦佩、崇拜、沉迷、讽刺、羞耻等,“Hume AI”在其网站上总共列出了53种不同的情绪。

不得不说,像讽刺这种常常带有反意的情感表达方式,连人类也不是每每都能察觉到的。

你害怕有情感的AI吗

其实,人们害怕的不仅仅是能感知情感的AI。近年来,在AI迅猛发展的同时,反思和提醒的声音一直存在。

业界著名公众人物的警告也有可能放大恐惧。如被评为“爱迪生的合法继承人”的美国科学家库兹韦尔推断:在2045年,AI将超越人类大脑,促进社会剧烈转型,跨入高智能机器时代。此外,“钢铁侠”埃隆·马斯克也曾说过,AI或许很快会强大到能统治世界的地步。

但普通人会觉得,在到达那一步之前,AI需要再多点什么——感知情感,可能就是缺失的那一环。

“Hume AI”演示之后反响十分热烈。但网络上已开始有人担心,用户会以一种不健康的方式沉迷于它的“魅力”,同时滋生一些不良用途,譬如诱导、操纵、欺诈等。

人类的情感并不只有正面情绪。当AI试着了解甚至学习人们的情感行为时,是否会主动或被动地利用其来达到某些目标?譬如诱导购买、养成恶习、心理折磨等。

当缺少伦理限制与法律红线时,被当作工具的,可能是人们自己的情感。

(责编:杨曦、陈键)