IT之家 2 月 13 日消息,蘋(píng)果機(jī)器學(xué)習(xí)研究團(tuán)隊(duì)于 2 月 7 日發(fā)布論文《繪制計(jì)算機(jī)操作智能體用戶體驗(yàn)設(shè)計(jì)空間》,聚焦揭示用戶對(duì) AI 智能體的真實(shí)期望及交互偏好。
研究人員指出,盡管市場(chǎng)在大力投資開(kāi)發(fā) AI 智能體,但關(guān)于界面形態(tài)及交互邏輯的探索仍顯不足。為此,團(tuán)隊(duì)通過(guò)分析現(xiàn)有產(chǎn)品并開(kāi)展實(shí)地用戶測(cè)試,試圖厘清這一新興領(lǐng)域的設(shè)計(jì)規(guī)范。
在研究的第一階段,IT之家援引博文介紹,團(tuán)隊(duì)深入剖析了包括 Claude Computer Use、OpenAI Operator 及 AutoGLM 在內(nèi)的 9 款主流桌面及移動(dòng)端 AI 智能體。

研究通過(guò)咨詢 8 位資深從業(yè)者,研究人員構(gòu)建了一套包含“用戶指令”、“活動(dòng)可解釋性”、“用戶控制”及“心智模型”四大維度的分類體系。該體系涵蓋了從用戶如何下達(dá)命令,到 AI 如何展示其操作計(jì)劃、報(bào)錯(cuò)及移交控制權(quán)的全過(guò)程。
研究的第二階段采用了經(jīng)典的“綠野仙蹤法”(Wizard of Oz)。團(tuán)隊(duì)招募了 20 名具有 AI 使用經(jīng)驗(yàn)的用戶,要求其通過(guò)聊天界面完成度假租賃或在線購(gòu)物任務(wù)。

為了排除技術(shù)故障干擾,準(zhǔn)捕捉用戶在面對(duì) AI 決策時(shí)的真實(shí)心理反應(yīng)與行為模式,蘋(píng)果采用真人模擬 AI 操作(包括故意犯錯(cuò)或陷入死循環(huán))的方法,用戶并不知道屏幕背后的“AI”實(shí)則是隔壁房間的研究員。

實(shí)驗(yàn)結(jié)果表明,用戶對(duì)“透明度”有著微妙的需求:他們希望了解 AI 的動(dòng)向,但拒絕微觀管理每一個(gè)步驟,否則便失去了使用智能體的意義。
這種需求隨場(chǎng)景而變:在探索性或不熟悉的任務(wù)中,用戶渴望看到更多中間步驟與解釋;而在高風(fēng)險(xiǎn)場(chǎng)景(如支付、修改賬戶信息)中,用戶要求擁有絕對(duì)的確認(rèn)權(quán)。
研究最后強(qiáng)調(diào),信任是人機(jī)交互的基石,但它極其脆弱。當(dāng) AI 智能體在遇到模糊選項(xiàng)時(shí)未做詢問(wèn)便擅自做主(靜默假設(shè)),或者在未告知的情況下偏離原定計(jì)劃,用戶的信任感會(huì)迅速崩塌。
在 AI 遇到不確定情況后,用戶并不希望其為了追求“自動(dòng)化”而隨機(jī)選擇,更傾向于 AI 暫停并尋求澄清,尤其當(dāng)這些選擇可能導(dǎo)致買錯(cuò)商品等實(shí)際損失時(shí)。
IT之家附上參考地址
蘋(píng)果官網(wǎng):Mapping the Design Space of User Experience for Computer Use Agents
Arxiv:Mapping the Design Space of User Experience for Computer Use Agents
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。