“I see you rocking in a OpenAI hoodie, nice choice.”(我看到你穿著 OpenAI 的衛(wèi)衣,很棒的選擇。) 其做作的語調(diào)和拖音女聲來自 OpenAI 發(fā)布的新旗艦模型 GPT-4o 的 Demo 片段。畫面中,GPT-4o 通過攝像頭的視覺識別對研究員的穿著作出點評,就像熟人許久未見一樣。 對此,網(wǎng)友直呼:“這不是卡戴珊的腔調(diào)嗎?聽起來也太像人了,真恐怖! 事實上,的確有相當一部分人并不喜歡GPT最新的聲音。據(jù)彭博社報道,一些用戶在體驗了 GPT-4o 后感到不適,認為其聲音過于性感和挑逗。而喜歡的人卻深陷其中,認為和人談戀愛不如和聲音性感的 AI 搞曖昧香。 對此,過于擬人的 AI 語音引發(fā)了一個問題:當機器開始向你表達情感時,你會害怕嗎? AI 也會玩情感操控? 能躲過老板畫的大餅,對職場 PUA 說 NO,但一部分人卻不可避免陷入 AI 設(shè)下的情感圈套。 悉尼大學教授 Marcel Scharth 指出,擬人化的語音助手可能會讓人們在與機器的互動中受到情感傷害。就像對待朋友一樣,如果我們對語音助手產(chǎn)生了情感依戀。但當它因為網(wǎng)絡(luò)或服務器問題而無法滿足我們的需求時,我們可能會感到失望甚至受傷。例如產(chǎn)生依賴的用戶碰到 OpenAI 宕機時會在網(wǎng)上吐槽“自己回到了中世紀”。 悉尼大學 Marcel Scharth 發(fā)表于?挠^點性文章《ChatGPT 現(xiàn)在更會假裝人類情感了》 此外,GPT-4o的聊天帶有小心思。PConline 注意到,4o 會不斷進行反問,希望能得到用戶持續(xù)的回答以此延長對話時間。然而,這種“關(guān)心”并非單純的陪伴,而是平臺背后的小心思。即使用戶能免費使用 GPT3.5 的語音功能,但我們提供的每一段對話和數(shù)據(jù)仍被被 OpenAI 作為訓練 AI 的資本。這背后隱藏著一種商業(yè)策略,即 AI 通過情感連接和對話(如不斷在對話結(jié)尾提問的方式)換取用戶數(shù)據(jù),進而不斷改進自己擬人化能力,形成一個循環(huán)獲利、但本質(zhì)上剝削用戶情感的機制。 除了情感操控,GPT-4o 的另一個爭議在于過度擬人而產(chǎn)生的恐怖谷效應。 恐怖谷效應是一種心理現(xiàn)象,指的是人們會對與人類非常相似但存在細微差異的事物感到厭惡。比如電影《機械姬》和《安娜貝尓》就是利用視覺上的恐怖谷效應制造驚悚感。 而語音助手可能會因為過于擬人的聲音而讓觀眾從聽覺上產(chǎn)生恐怖谷效應。這些負面體驗表明,盡管技術(shù)進步帶來了更多的擬人化元素,但在設(shè)計上仍需慎重考慮用戶的心理反應,避免反效果。 此外,過度擬人化的聲音可能涉及版權(quán)隱私問題,如 “深度造假(Deepfake)”技術(shù)。 前不久,演員斯嘉麗·約翰遜正就“聲音是否抄襲”與 OpenAI 打官司。此類事件引發(fā)了用戶對于真假難辨的 Deepfake 技術(shù)的恐懼。315 期間,國家也多次整頓深度造假詐騙,如“假老板”騙走員工186萬、“假女兒”騙走母親 80 萬等。 聲音藏著好生意? 當然,擬人化的 AI 語音并非一無是處。具有親和力的表達方式會增強用戶信任,創(chuàng)新教育模式以及增強品牌辨別度。 首先,擬人化聲音的優(yōu)勢在于提升用戶體驗和信任感。研究表明,人們更容易與具備社交屬性的機器互動,并將其視為值得信賴的朋友。 發(fā)表在《美國計算機學會人機交互作用匯刊》(ACM Transactions on Computer-Human Interaction) 上的一篇論文發(fā)現(xiàn),當語音助手表現(xiàn)出同理心和理解力時,用戶更有可能展示合作欲望。就像接受服務一樣,我們更愿意為好的情緒價值買單,反之亦然。語音助手設(shè)計上的友好、禮貌等特點其實也是為用戶提供情緒價值。 《長期建立和維系人際關(guān)系》研究論文,發(fā)表于《美國計算機學會人機交互作用匯刊》 其次,擬人化語音助手還可以為教育領(lǐng)域帶來新的可能性。研究表明,具有社交屬性的聊天機器人能夠幫助學生在家庭作業(yè)、學習幫助、個性化學習體驗等各方面發(fā)揮積極作用。AI 定制化家教將更貼心。 例如,谷歌曾展示了一種基于擬人化語音助手的物理課教學模式,它能夠?qū)⒖菰锏奈锢碇R通過生動有趣的形式呈現(xiàn)給學生。由此可見,作為輔導老師的 AI 語音助手不僅技能滿滿,還能做到寓教于樂。 最后,擬人化聲音還可以增強用戶黏性和品牌辨識度。獨特的語音風格能夠讓用戶更容易記住,從而提升用戶忠誠度和品牌影響力。Siri 標準又機械的美式英語已經(jīng)成為蘋果品牌的獨特標識之一。 是朋友還是敵人? 提起語音助手,自然就少不了蘋果的Siri,從目前來看,Siri 的擬人性落后于 ChatGPT。其實這是因為其兩者的功能屬性和設(shè)計理念不同: Siri 更偏工具屬性,是“你”的管家。其主要用于執(zhí)行指令和任務,擅長處理用戶的信息請求、設(shè)置鬧鐘、播放音樂和管理日程安排。開發(fā)人員更注重其高效的語言處理和特定于任務的算法,聲音的機械性反而讓用戶將注意力集中在完成任務本身,而非與助手建立情感連接。 GPT-4o 更像一個“人”。這樣的新型人工智能則面向社交互動和參與對話而構(gòu)建。它利用更先進的自然語言處理 (NLP) 功能,可以理解和回答復雜問題、進行開放式對話,甚至表達情感。為了增強用戶黏性,其聲音設(shè)計也傾向于引發(fā)用戶的情感和社交連接。 作為高頻互動的用戶入口,一個AI 助手的聲音勢必會影響到用戶的體驗,這并不是簡單的商業(yè)決策。在決定采用何種聲音時,需要權(quán)衡目標用戶的心理需求、潛在的倫理問題以及商業(yè)利益。畢竟能帶來更好的用戶體驗,但也潛藏著情感反噬、信息安全等風險。 皮尤研究中心的一項研究表明,52% 的美國人對人工智能的使用增加感到擔憂,而不是興奮。這是大多數(shù)人對新事物普遍的情緒,新平替技術(shù)的發(fā)明常常陪伴著各種恐慌,從抗拒到習以為常,充滿了博弈。 在可預見的未來,隨著人工智能技術(shù)不斷發(fā)展,人機關(guān)系將變得更加復雜。就像電影《復聯(lián) 2》里演的那樣,當賈維斯被裝上心靈寶石后改造為了奧創(chuàng)和幻視——代表具有自我意識、亦正亦邪的人工智能體。但許多觀眾卻情有獨鐘賈維斯,因為它始終相信并執(zhí)行它的創(chuàng)造者——鋼鐵俠的每一個決策。 |
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選