“共情”AI出現(xiàn)了,你會共情嗎?如何約束使用成為難點

2024年04月09日 16:41  科技日報

  當(dāng)我們想到有情感的人工智能(AI)時,素材其實都來源于科幻作品,其中的情感式AI常常被描述成一個尋求人類同等愛意的孤獨者,或心思縝密的電子大腦。

圖片來源:VentureBeat網(wǎng)站 

  現(xiàn)在,一家由前“深度思維”(DeepMind)研究員擔(dān)任首席執(zhí)行官的初創(chuàng)公司“HumeAI”,發(fā)布了一款標(biāo)榜為“第一個具有情商的對話式AI”的共情語音接口(EVI),其能夠檢測到用戶53種不同的情緒。

  這是技術(shù)上的一個飛躍!癏umeAI”公司已在一次B輪融資中籌集了5000萬美元,但隨之而來的,也有人們夾雜了恐懼的希冀。

  情感是AI的分水嶺嗎 

  1997年,IBM的“深藍”打敗了國際象棋世界冠軍,其強大的計算力、純粹的暴力破解法震驚人類,也扭轉(zhuǎn)了AI研發(fā)的形勢。這種暴力破解法,后來就被用于機器學(xué)習(xí),在看似具有無數(shù)種可能的對戰(zhàn)中輕松取勝。

  現(xiàn)在,各領(lǐng)域AI挑戰(zhàn)人類的消息不斷傳來,可能會給人這樣一種錯覺:計算機在認知能力方面已堪比人類。

  但兩者之間仍存在一條鴻溝。機器學(xué)習(xí)和自然語言專家格雷格·霍蘭德告訴人們,人腦可以解決AI前所未見的問題,而機器學(xué)習(xí)依然是針對特定問題而設(shè)計的。

  實際上,考慮AI的實現(xiàn)程度,需精準(zhǔn)地用強AI和弱AI來劃分!皬姟笔钦J為計算機不僅作為一種工具,其本身就是有思維的。這樣的機器有知覺,有自我意識。

  而“弱”則是認為不可能制造出真正進行推理并解決問題的機器,AI終究是沒有自主意識的工具。長期以來,主流研究也正是圍繞“工具”展開的,且成就可觀。

  但也因此,很多人將是否具有知覺或情感,當(dāng)成了AI發(fā)展的分水嶺。

  AI需要理解情感嗎 

  AI的下一個重大突破是理解和運用情感嗎?“HumeAI”的答案是肯定的。該公司的初衷即是要讓一個情感智能模型更好地服務(wù)人類。

  該公司認為,情感智能包括從行為中推斷意圖和偏好的能力。這正是AI界面試圖實現(xiàn)的核心目標(biāo):推斷人們想要什么,然后去實現(xiàn)它。因此在某種意義上,情感智能才是AI界面最重要的功能。

  同樣作為聊天機器人,“HumeAI”與前輩們的區(qū)別在于,它專注于理解人類情感并作出合理反饋。它不僅能理解文本,還可使用語音對話接口,聽取人類的語調(diào)、音高、停頓等聲音特征來加深理解。

  這種理解可能非常細微,包括但不限于人們的快樂、悲傷、憤怒、害怕等“大情緒”,連更微妙、更多維的“小情緒”也在體察范圍內(nèi),譬如欽佩、崇拜、沉迷、諷刺、羞恥等,“HumeAI”在其網(wǎng)站上總共列出了53種不同的情緒。

  不得不說,像諷刺這種常常帶有反意的情感表達方式,連人類也不是每每都能察覺到。

  你害怕有情感的AI嗎 

  其實,人們害怕的不僅僅是能感知情感的AI。近年來,在AI迅猛發(fā)展的同時,反思和提醒的聲音一直存在。

  業(yè)界著名公眾人物的警告也有可能放大恐懼。如被評為“愛迪生的合法繼承人”的美國科學(xué)家?guī)炱濏f爾推斷:在2045年,AI將超越人類大腦,促進社會劇烈轉(zhuǎn)型,跨入高智能機器時代。此外,“鋼鐵俠”埃隆·馬斯克也曾說過,AI或許很快會強大到能統(tǒng)治世界的地步。

  但普通人會覺得,在到達那一步之前,AI需要再多點什么——感知情感,可能就是缺失的那一環(huán)。

  “HumeAI”演示之后反響十分熱烈。但網(wǎng)絡(luò)上已開始有人擔(dān)心,用戶會以一種不健康的方式沉迷于它的“魅力”,同時滋生一些不良用途,譬如誘導(dǎo)、操縱、欺詐等。

  人類的情感并不只有正面情緒。當(dāng)AI試著了解甚至學(xué)習(xí)人們的情感行為時,是否會主動或被動地利用其來達到某些目標(biāo)?譬如誘導(dǎo)購買、養(yǎng)成惡習(xí)、心理折磨等。

  當(dāng)缺少倫理限制與法律紅線時,被當(dāng)作工具的,可能是人們自己的情感。