人工智能產(chǎn)品的信任力設(shè)計

2 評論 1875 瀏覽 7 收藏 37 分鐘

隨著人工智能(AI)技術(shù)的廣泛應(yīng)用,人與AI之間的信任關(guān)系成為了一個至關(guān)重要的議題。本文深入探討了如何設(shè)計和構(gòu)建具有信任力的AI產(chǎn)品,從概念篇到策略篇,詳細分析了信任對人與AI關(guān)系的影響、信任對AI產(chǎn)品的重要性,以及影響信任關(guān)系的常見問題,希望能幫到大家。

AI技術(shù)已經(jīng)嵌入我們生活的方方面面,從最初的悄然滲透,到如今的全面重構(gòu),我們無一例外地置身于這場技術(shù)浪潮之中。

與此同時,人與AI的關(guān)系也在轉(zhuǎn)變,從簡單的使用和被使用關(guān)系,轉(zhuǎn)變?yōu)閺?fù)雜的協(xié)作關(guān)系,關(guān)系的變化模糊了彼此之間的界限,一個至關(guān)重要的問題也隨之浮現(xiàn):我們能否像信任人類那樣信任AI?

信任是協(xié)作的基礎(chǔ),缺乏信任的協(xié)作隨時可能因為懷疑、不安全感和自我保護的心理而中斷,導(dǎo)致AI的價值無法充分發(fā)揮。

而構(gòu)建人與AI之間的信任關(guān)系是一項系統(tǒng)工程,不僅取決于AI所交付的質(zhì)量,還需要確保它自身是可靠的、透明的,并且具有足夠的安全性。

盡管面臨諸多挑戰(zhàn),打造可信AI依然成為全球人工智能發(fā)展的共識。

本篇文章整體分為概念篇策略篇。希望所寫內(nèi)容能為設(shè)計師、產(chǎn)品經(jīng)理以及所有關(guān)注AI領(lǐng)域的從業(yè)者提供啟發(fā),共同來推動AI產(chǎn)品的信任力建設(shè)。

首先是概念篇

一、概念篇

1. 信任對人與AI關(guān)系的影響

開篇中,我將信任描述為“協(xié)作的基礎(chǔ)”,但信任的作用不止于此。它塑造了人與AI互動的質(zhì)量,甚至可以左右AI能否真正融入我們的生活。具體來說,這些影響主要體現(xiàn)在三個層面:

1)提升協(xié)作效率

當(dāng)用戶信任AI產(chǎn)品時,就不必反復(fù)驗證每一次輸出是否準(zhǔn)確。這樣能釋放大量認知資源,使用戶將精力集中在AI難以勝任的任務(wù)上。

因為愿意將AI提供的結(jié)果作為依據(jù),決策時的心理負擔(dān)就會少很多,可以迅速推進后續(xù)行動,讓整體效率獲得提升。

試想一下,當(dāng)你接受并信任AI推薦的方案時,是不是也會讓你,更主動地去探索它的高級功能,正是這種信任驅(qū)動下的學(xué)習(xí),會進一步加深你與AI的協(xié)作關(guān)系,形成良性循環(huán)。

隨著互動的增多,人們會將越來越多復(fù)雜的問題交給AI,挖掘它的潛力,也收獲更多意想不到的、創(chuàng)新的解決方案。

2)促進應(yīng)用與普及

AI技術(shù),尤其是生成式AI,由于其復(fù)雜性和未知性,讓很多人感到有距離感,甚至?xí)斐刹话?,而信任則能有效緩解這種不適。一旦人們在體驗過程中感受到了AI的價值,會愿意在更多場景中用它。對AI來說,應(yīng)用場景得以拓展,所能創(chuàng)造的價值也隨之放大。

值得注意的是,當(dāng)人們從AI中獲益后,往往樂于和朋友、家人分享自己的正面體驗。這種口碑效應(yīng)具有極高的說服力,比任何廣告或營銷活動都更能推動AI技術(shù)的普及。

3)構(gòu)建長期關(guān)系

在人際交往中,構(gòu)建和維護長期關(guān)系始終具有挑戰(zhàn)性,而信任能讓關(guān)系在挑戰(zhàn)中更具韌性。

同樣,這種韌性對人與AI來說也很重要,即使在短期內(nèi)出現(xiàn)某些問題,如果你信任AI,就會施予更多的包容和耐心,而不是徹底否定它和放棄它。

這種信任并非盲目,而是基于AI過去的表現(xiàn),從而讓人們相信這些問題是可以優(yōu)化、修復(fù)的,這為人與AI之間的長期協(xié)作打下堅實基礎(chǔ)。

2. 信任對AI產(chǎn)品的重要性

盡管信任的影響廣泛,但許多產(chǎn)品卻未將信任方面的建設(shè)視為優(yōu)先事項。這種態(tài)度背后,往往與用戶行為中的“隱私悖論”有關(guān)。

所謂隱私悖論,是指人們一方面擔(dān)心自己的行為和信息被監(jiān)視或濫用,另一方面卻又常常因為追求便利而主動地讓渡自己的隱私,讓自己處于暴露的風(fēng)險之中。這種關(guān)注隱私問題與實際行為之間的矛盾,正是“隱私悖論”的核心。

這一現(xiàn)象背后涉及多重因素。復(fù)雜的技術(shù)細節(jié)和晦澀的使用條款,讓用戶難以理解AI如何處理隱私數(shù)據(jù),而人類的心理天然傾向于即時滿足,為了眼前利益,我們常常忽略潛在風(fēng)險,最終選擇交出個人信息。

當(dāng)然還有很多情況,是因為我們別無選擇,只能被迫地接受。因此,不少AI產(chǎn)品負責(zé)人誤以為功能強大、場景豐富就足以持續(xù)地吸引用戶,從而低估了信任的重要性。

那么,信任關(guān)系對AI產(chǎn)品究竟有著哪些實際的價值呢?

1)降低風(fēng)險

信任問題雖不易在初期顯現(xiàn),但隨著用戶隱私意識的提高,一旦負面輿論爆發(fā),產(chǎn)品便容易陷入被動。尤其是重大失信事件,可能直接摧毀用戶基礎(chǔ),后果難以彌補。

2)形成競爭優(yōu)勢

用戶在早期可能用隱私換取便利,但兩者關(guān)系并不穩(wěn)固,一旦市場中出現(xiàn)更可信的替代品,用戶便會轉(zhuǎn)移。所以,“可信”是AI產(chǎn)品的一個重要標(biāo)簽,有助于在同質(zhì)化競爭中脫穎而出。

3)回應(yīng)用戶期待

對用戶而言,不管是否滿足于現(xiàn)狀,始終都希望產(chǎn)品能以透明和負責(zé)任的態(tài)度對待自己,也愿意長期支持那些值得信賴的產(chǎn)品和服務(wù)。

4)滿足合規(guī)運營

無論是歐盟的《通用數(shù)據(jù)保護條例》,還是國內(nèi)陸續(xù)出臺的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等管理規(guī)定,制度層面的監(jiān)管持續(xù)增強,正在倒逼企業(yè)將隱私、安全等信任要素納入產(chǎn)品規(guī)劃。

3. 哪些問題會影響信任關(guān)系?

信任的構(gòu)建并非一朝一夕,而損害它卻往往是瞬間的。要直面這些挑戰(zhàn),我們首先需要清楚:哪些問題正在侵蝕人與AI之間的信任?背后的根源又來自哪里?這樣我們就可以更快地識別這些問題并積極應(yīng)對,甚至提前進行規(guī)劃。

1)內(nèi)核不透明

當(dāng)AI無法解釋為什么得出某個結(jié)果,用戶會感到困惑、不安,這種不透明讓用戶失去掌控感。特別是在涉及自身利益或重大決策的任務(wù)情境中,若用戶無法判斷其結(jié)果是否可信或合理,就會引發(fā)焦慮情緒。

心理學(xué)研究表明,當(dāng)人們無法評估風(fēng)險時,往往傾向于高估其危險性,并采取防御性行為。就像很多人害怕坐飛機,盡管實際數(shù)據(jù)表明飛機比汽車安全得多,但因為對飛行過程缺乏掌控感,會不自覺的臆想飛機事故。

為了避免類似情況在AI產(chǎn)品中發(fā)生,必須要讓用戶“看得透”,但這也不意味著要完完全全地揭示所有技術(shù)細節(jié),只需讓用戶相信系統(tǒng)的判斷有據(jù)可依,哪怕是初步的、粗糙的解釋,也足以緩解焦慮,慢慢建立信任。

2)輸出不準(zhǔn)確

頻繁出錯或顯得不專業(yè)的AI,會迫使用戶投入更多精力去驗證其結(jié)果,AI系統(tǒng)原本應(yīng)有的便利性被完全抵消。尤其在醫(yī)療等特殊領(lǐng)域,錯誤的輸出不僅影響體驗,還會帶來嚴重后果。

正是在交互過程中,AI一次次的“失準(zhǔn)”表現(xiàn),讓用戶好不容易建立起的信任逐漸動搖。

3)表現(xiàn)不穩(wěn)定

用戶期望AI的表現(xiàn)穩(wěn)定、一致,而不是偶爾發(fā)揮出色卻時常失誤。當(dāng)相同指令輸出結(jié)果不一致,或系統(tǒng)性能時好時壞,就像導(dǎo)航有時精準(zhǔn)有時誤導(dǎo),都會讓人難以信任它的可靠性。

信任的關(guān)系是需要長期積累的,而不穩(wěn)定的特性大大增加了信任積累的難度。

4)存在偏見/歧視

大家需要知道,AI技術(shù)并不天然具備公平的屬性,它的算法很容易因為訓(xùn)練數(shù)據(jù)的偏見,輸出帶有歧視性的結(jié)果。這種偏見不僅傷害用戶,也與我們當(dāng)代社會所倡導(dǎo)的道德準(zhǔn)則和價值觀產(chǎn)生沖突。

當(dāng)用戶覺察到這種偏見,很容易對AI產(chǎn)生抵觸情緒。缺乏包容性和公平性的AI,難以獲得持久的信任。

5)隱私風(fēng)險

隱私問題是AI最敏感的信任挑戰(zhàn)之一。AI對數(shù)據(jù)的高度依賴,使得隱私泄露的風(fēng)險始終存在。許多企業(yè)對這一風(fēng)險諱莫如深,擔(dān)心激發(fā)用戶恐慌。但用戶一旦察覺個人信息被過度收集,便會對產(chǎn)品安全性產(chǎn)生質(zhì)疑,很可能選擇棄用,而恢復(fù)的成本變得極為高昂。

以上五個問題,其實源于技術(shù)特性、用戶本身以及使用環(huán)境等多種因素的交織。

從技術(shù)特性上來說,AI模型常被形容為“黑盒子”—用戶既無法看到其運作過程,也難以理解其決策邏輯。這種不透明很容易引發(fā)疑問:這個結(jié)果是怎么來的?真的可信嗎?

另一方面,算法本身并非完全中立,難免會受到開發(fā)者的主觀影響。一旦系統(tǒng)在實際應(yīng)用中表現(xiàn)出某種偏向,人們自然會擔(dān)心:“它是不是對我有歧視?”

而且為了提供精準(zhǔn)的結(jié)果,AI還要收集和分析海量的數(shù)據(jù)進行訓(xùn)練。這也意味著,隱私安全的風(fēng)險幾乎不可避免。

除了技術(shù)層面,用戶自身的因素也很關(guān)鍵。認知水平影響對AI能力與局限的理解,技術(shù)熟練度則決定了能否能正確使用這些工具。此外,還有心理學(xué)上所謂的“信任傾向”,有些人天生對新技術(shù)抱有濃厚興趣,而另一些人則可能比較謹慎甚至抵觸。

4. 可信AI框架

前文我們已經(jīng)探討了信任為何重要、信任關(guān)系又為何脆弱。接下來,我們進入更具操作性的議題:如何構(gòu)建一個可信AI。

要實現(xiàn)這一目標(biāo),首先需要明確“AI系統(tǒng)應(yīng)具備哪些可信特質(zhì)”。這一問題吸引了科技公司、科研機構(gòu)和專家學(xué)者的廣泛關(guān)注,他們結(jié)合實踐經(jīng)驗提出了許多寶貴的見解和框架。以下整理了一些具有代表性的觀點,供大家參考。

當(dāng)我們將這些觀點歸納整理后發(fā)現(xiàn),它們交織出了一個頗具共識性的原則框架,這些共識可以成為我們打造AI產(chǎn)品信任力的基礎(chǔ)認知,也為后續(xù)設(shè)計策略的制定提供了方向。

  • 準(zhǔn)確可靠:輸出內(nèi)容要高質(zhì)量、強邏輯、知識廣泛,并能適應(yīng)信息實時變化,減少偏差和誤導(dǎo)。
  • 可解釋:AI的行為和決策應(yīng)以用戶易于理解的方式呈現(xiàn),使其運行邏輯可被感知、可被質(zhì)疑、可被理解。
  • 安全穩(wěn)定:在不同的環(huán)境與使用條件下,系統(tǒng)應(yīng)表現(xiàn)出持續(xù)性與一致性,避免異常中斷或不可控的情況發(fā)生。
  • 保護隱私:嚴格遵循數(shù)據(jù)合規(guī)要求,確保用戶信息的收集、使用和存儲透明、安全,不被濫用。
  • 公平:算法要一視同仁,避免歧視性輸出,關(guān)注不同背景、不同能力水平用戶的權(quán)益,建立真正的平等關(guān)系。

在此基礎(chǔ)上,我認為有必要補充第6條:接受監(jiān)督

有效的監(jiān)督機制是確保上述原則落地的重要保障。接受誰的監(jiān)督呢?主要有三個:用戶、國家、第三方機構(gòu)。用戶作為直接使用者,往往最早發(fā)現(xiàn)異常;國家則通過立法為技術(shù)發(fā)展設(shè)定邊界;而獨立第三方則能提供中立、專業(yè)的評估視角,為AI系統(tǒng)的可信性提供額外支撐。

以上每一條原則都不是孤立存在的,它們共同構(gòu)成了一個動態(tài)、可被驗證、不斷演進的信任框架,這也正是接下來我們策略篇的起點。

二、策略篇

0. 用設(shè)計塑造可信AI體驗

在實現(xiàn)可信AI的過程中,技術(shù)研發(fā)人員無疑承擔(dān)著核心攻關(guān)任務(wù),他們通過算法設(shè)計、模型優(yōu)化和安全測試等諸多手段,不斷提升AI系統(tǒng)的技術(shù)表現(xiàn)。然而,許多人容易混淆“可信”與“信任”,誤認為只要AI足夠可信,用戶就會自然而然地信任它。但事實上,可信性是建立信任的前提,并不能直接等同于信任。即便AI技術(shù)在理論上完全可靠,人們?nèi)匀豢赡苓x擇不信任它。

問題就在于,這些支撐AI可信性的技術(shù)細節(jié),也可以說是“可信證據(jù)”,能否被用戶清晰地感知并理解。

絕大多數(shù)用戶并非AI專家,很多線索不能依賴他們自己去發(fā)現(xiàn),而需經(jīng)過人為的提煉、轉(zhuǎn)譯之后,以他們易于理解的形式呈現(xiàn)。

而這,正是UX設(shè)計師所應(yīng)該做的。

接下來,我將基于可信AI的六大要素,介紹一些可行的體驗策略。對于有現(xiàn)成界面的,我會截取相關(guān)案例輔助理解,若沒有類似案例,我也會提供簡單的設(shè)計示意圖。

請大家注意,案例截圖和設(shè)計示意僅代表當(dāng)下各平臺的實踐思路及我個人的理解,必然存在局限性。隨著AI生態(tài)的快速發(fā)展,勢必出現(xiàn)比示例更優(yōu)、更合理的解決思路。

讓我們開始吧!

1.準(zhǔn)確可靠

在“準(zhǔn)確可靠”這一維度上,設(shè)計師的任務(wù)是優(yōu)化用戶的認知體驗,幫助他們理性評估AI的能力與局限。即便AI存在局限性,如果用戶仍能以理性的態(tài)度信任并有效使用它,設(shè)計的價值就得以體現(xiàn)。

1)管理預(yù)期

AI并非無所不能,過度的宣傳或模糊描述容易讓用戶產(chǎn)生誤解,所以要避免營造這種“全能AI”的錯覺。使用前應(yīng)清晰說明AI的能力邊界:能做什么,不能做什么,盡可能明確,幫助用戶建立合理預(yù)期。使用后,也能坦誠地告知用戶,生成結(jié)果可能存在偏差或錯誤,不能完全依賴。

2)用戶教育

以通俗易懂的方式展示大模型的基本原理與技術(shù)能力,幫助用戶建立對AI的客觀認知;同時提升使用說明、隱私政策等關(guān)鍵文檔的可讀性,方便用戶獲取必要信息。

3)設(shè)置可信信號

在生成內(nèi)容中嵌入明確的“可信信號”。包括但不限于:1.信息來源(清晰標(biāo)注數(shù)據(jù)或觀點的出處);2.時間狀態(tài)(標(biāo)明內(nèi)容的生成時間,突出其時效性,如“最近更新于1小時前”);3.外部背書(若有權(quán)威專家、機構(gòu)的支持,可通過標(biāo)識進行展示)。

4)提供驗證渠道

支持“了解更多”或“深入搜索”等選項,方便用戶自行驗證,也鼓勵他們主動探索更深層次的信息。

2.可解釋

人類與AI之間存在無法跨越的超越性和非對稱性,使得我們難以用既有認知去理解AI的決策邏輯,出現(xiàn)認知斷層,從而對AI產(chǎn)生不信任感。

“可解釋”的價值就在于它可以彌合這道認知鴻溝,大家也許已經(jīng)注意到,越來越多的AI大模型平臺在給出最終答案前,會先呈現(xiàn)一段推理過程,這正是通過提供解釋增強用戶信任的一種方式。

技術(shù)透明化讓AI的內(nèi)部邏輯更加開放、更可見,但透明≠可理解,用戶對AI邏輯的理解能力差異巨大。設(shè)計師應(yīng)正視這種差異,要思考如何讓AI的解釋方式匹配不同認知水平的用戶,讓他們不被復(fù)雜的技術(shù)細節(jié)所困擾。

1)可視化呈現(xiàn)

利用圖表、清單、微動效、流程圖等可視化形式,簡化復(fù)雜的技術(shù)細節(jié)(如推理路徑、決策鏈等),提升內(nèi)容可讀性,降低認知門檻。

2)漸進式披露

針對用戶當(dāng)前任務(wù)場景,優(yōu)先展示核心釋義,避免信息冗余。更詳盡內(nèi)容可通過“展開”選項逐步呈現(xiàn),兼顧認知需求與界面整潔。

3)簡化釋義文案

避免晦澀術(shù)語,采用貼近用戶的語言進行解釋。對于復(fù)雜內(nèi)容,在確保完整準(zhǔn)確的基礎(chǔ)上,可適當(dāng)拆解、重構(gòu),提升理解度。

4)即時釋義

在用戶可能產(chǎn)生疑問的場景中,及時提供解釋??蛇x擇與疑問點同步呈現(xiàn),或設(shè)置固定區(qū)域或浮層進行統(tǒng)一展示。還可以通過鼠標(biāo)懸停、點擊等交互,讓用戶按需獲取更多信息。無論采用哪種,都不要干擾正常的瀏覽體驗。

3.安全穩(wěn)定

很多人認為,AI系統(tǒng)的安全與穩(wěn)定主要取決于底層技術(shù),前端體驗所做有限。實際上,設(shè)計師可以通過一些策略將安全穩(wěn)定“顯性化”,轉(zhuǎn)化為用戶可感知的觸點。此外,當(dāng)AI系統(tǒng)出現(xiàn)波動,及時的兜底設(shè)計不僅能降低信任損失,甚至可能轉(zhuǎn)危為機。

1)防錯設(shè)計

在設(shè)計階段預(yù)判潛在問題,并通過一些策略降低用戶出錯概率。例如在用戶輸入指令時即時校驗、限制一些危險操作、提供必要的默認值或預(yù)設(shè)選項,以及設(shè)置撤銷、自動保存、內(nèi)容恢復(fù)等功能,這些都是常見的做法。

2)多模態(tài)反饋

利用視覺、聽覺甚至觸覺等多種感知方式,強化用戶對系統(tǒng)狀態(tài)的感知。例如在內(nèi)容生成過程中,不單采用可視化的進度條,還可以搭配聲音提示,增強運行的確定性。在移動端,還可借助輕微的振動反饋,確認操作或作為提示。

3)降級設(shè)計

簡單說,就是當(dāng)我們做不到最好的體驗時,至少給用戶一個不那么糟的體驗,保證AI的基本可用性。例如當(dāng)AI性能下降時,可自動切換至低階生成模式。執(zhí)行降級時記得在界面中提示,把當(dāng)前狀態(tài)告知給用戶。這一策略在移動網(wǎng)絡(luò)中早已廣泛應(yīng)用:當(dāng)5G信號異常,移動數(shù)據(jù)通常會自動切換為4G,以維持基本的通訊體驗。

4)補償機制

系統(tǒng)發(fā)生異常后,平臺的響應(yīng)措施要第一時間同步到用戶。在狀態(tài)恢復(fù)后,根據(jù)問題的影響程度判斷是否給予補償,例如增加使用次數(shù)、發(fā)放體驗權(quán)限等,這些策略可以在一定程度修復(fù)信任。

4.保護隱私

在本節(jié)中,我從個人信息的全生命周期切入,梳理出隱私保護的五個關(guān)鍵階段:收集、處理、輸出、傳播、管理。圍繞每個節(jié)點,分別列出了一些針對性的設(shè)計策略,讓隱私保護的感知點更系統(tǒng)地貫穿整個體驗流程。

1)輸入提醒

與即時通訊不同,指令一旦上傳至AI模型,無法被“撤回”。所以,當(dāng)用戶輸入的指令中包含個人隱私信息時(如手機號、證件號、賬號密碼、地址等),系統(tǒng)應(yīng)主動識別,并提醒用戶注意,例如彈窗提示“你的指令中包含敏感信息,是否繼續(xù)發(fā)送?”或“建議將敏感數(shù)據(jù)進行模糊處理”,降低因用戶疏忽而導(dǎo)致的信息泄露風(fēng)險。

2)提示/說明

在涉及數(shù)據(jù)收集的節(jié)點,必須明確告知信息用途,例如“數(shù)據(jù)僅用于個性化推薦”,并告訴用戶平臺會妥善地保護隱私;如有加密等保護措施,也可以主動說明,例如“敏感數(shù)據(jù)已加密處理”;在準(zhǔn)備分享含有隱私信息的內(nèi)容時,界面中可標(biāo)出可能的風(fēng)險,幫助用戶更謹慎地做出判斷。

3)處理過程可視化

在展示生成過程的時間軸中,可以選擇把用戶數(shù)據(jù)的處理環(huán)節(jié)也放入其中,比如“數(shù)據(jù)已加密、正在本地分析、數(shù)據(jù)已刪除”等。這種方式能讓大家了解自己的數(shù)據(jù)去了哪里、經(jīng)歷了什么,也更容易讓人放心使用。

4)脫敏展示/回復(fù)/分享

一旦指令被發(fā)送并顯示在對話記錄中,自動對包含隱私信息的字段進行模糊化處理,為了強化感知,可以使用高亮形式展示。

而AI輸出的內(nèi)容涉及敏感信息時,也默認脫敏展示,并提供“查看完整信息”的開關(guān)(類似銀行APP中“查看完整賬號”的按鈕),讓用戶自主選擇是否顯示。

在分享環(huán)節(jié),支持“一鍵脫敏”,有效避免在傳播過程中泄露隱私信息。相比簡單粗暴的“禁止分享”或“完全放開”,這一機制提供了更靈活、安全的中間選項,平衡了隱私保護與信息流通之間的需求。

5)分享管理

可借鑒電商平臺“匿名評價”的思路,為內(nèi)容分享提供不同的隱私保護選項(如“匿名分享“、”局部分享”等)。在管理列表中,用顏色、icon等方式直觀展示已分享鏈接的狀態(tài),同時支持批量刪除與管理。

6)數(shù)據(jù)授權(quán)

提供明確的授權(quán)開關(guān),如“個人數(shù)據(jù)用戶改進模型,開啟or關(guān)閉”“本地化數(shù)據(jù)處理,開啟or關(guān)閉”,讓用戶自主決定個人數(shù)據(jù)是否用于模型優(yōu)化或其他用途。

7)數(shù)據(jù)刪除

歷史對話數(shù)據(jù)、模型記憶等所有涉及隱私的內(nèi)容,支持手動刪除或批量管理。刪除時,就后續(xù)影響、銷毀承諾等關(guān)鍵信息進行說明。還可以提供“定時刪除”功能,到達預(yù)設(shè)時間后自動清除個人數(shù)據(jù)。

5.公平

公平不僅是對技術(shù)的基本要求,更體現(xiàn)了對用戶權(quán)益的尊重與保障。不管是功能規(guī)劃還是體驗設(shè)計,都要確保用戶充分了解情況,支持用戶按需選擇。

1)提前告知

對涉及用戶權(quán)益的內(nèi)容,如責(zé)任劃分、性能表現(xiàn)、隱私保護等,應(yīng)在適當(dāng)時機進行明確告知,還可以對AI潛在的偏見或局限性進行提示。需要注意,該策略和“管理預(yù)期”存在重疊,可以統(tǒng)籌考慮。

2)算法選擇

根據(jù)任務(wù)階段的不同,向用戶展示不同算法的特點和影響,讓他們能夠按需選擇不同的算法類型和適用范圍,避免強制使用單一模型導(dǎo)致的不公平。產(chǎn)品側(cè)是可以給出推薦選項的,但在算法使用過程中,應(yīng)支持隨時切換。

3)靈活授權(quán)

提供“一次性、分階段、分任務(wù)”等數(shù)據(jù)授權(quán)選項,既能滿足服務(wù)所需,又能增強用戶的掌控感。還要設(shè)計友好的提醒機制,在授權(quán)到期后支持用戶選擇續(xù)期或終止授權(quán)。如果產(chǎn)品最終只提供了一鍵授權(quán)的選項,設(shè)計師則要做好提示工作,并規(guī)劃好后續(xù)的退出路徑。

4)偏好設(shè)置

提供可定制化的交互界面和功能,以及讓用戶能夠根據(jù)自己的需求自定義算法偏好,干預(yù)AI系統(tǒng)的行為和輸出。

5)支持糾錯

提供便捷的操作入口,允許用戶對他們認為不公平的決策、有誤的決策進行糾正,并盡可能讓這些修改即時體現(xiàn)在AI輸出的結(jié)果中。

6.接受監(jiān)督

增強用戶對“接受監(jiān)督”這一可信AI要素的感知,關(guān)鍵在于提升監(jiān)管的可見性,并面向用戶側(cè)建立有效的反饋機制。

1)讓監(jiān)督可見

通過標(biāo)識和文案增加監(jiān)管的可見性。使用類似于金融支付的安全認證、食品包裝的有機認證等標(biāo)識,或是告知當(dāng)前AI符合標(biāo)準(zhǔn)或相關(guān)監(jiān)管條例,并提供進一步閱讀的路徑。

2)提供監(jiān)督渠道

在用戶與AI的交互過程中嵌入反饋機制,例如設(shè)置“反饋”“舉報”或“上報錯誤”等按鈕,便于用戶在遇到問題時及時反饋,降低監(jiān)督門檻。

用戶反饋后,平臺要及時響應(yīng),告知問題的處理進度或后續(xù)流程,例如提示“我們已收到您的反饋,預(yù)計將在24小時內(nèi)答復(fù)”,讓用戶感受到自己的反饋不僅被接收,還得到了實際響應(yīng)。

3)處理結(jié)果公示

公開用戶舉報的問題及相應(yīng)的改進情況,例如累計收到多少問題、平臺的處理進度,以及部分具有代表性的處理案例。這種機制不僅能讓用戶感受到反饋確實帶來了改變,也有助于塑造平臺負責(zé)任、透明的形象。

圍繞可信AI的六個要素,我梳理了近30條可落地的設(shè)計或產(chǎn)品策略,希望能幫助大家將抽象的原則轉(zhuǎn)化為具體的用戶體驗觸點。

當(dāng)然,不同AI產(chǎn)品的業(yè)務(wù)目標(biāo)、技術(shù)能力與發(fā)展階段各不相同,適配的策略也會有所差異,不必追求面面俱到。建議結(jié)合實際需求靈活選取、自由組合,從中逐步構(gòu)建出符合自身產(chǎn)品特點的可信AI體驗路徑。

最后

AI是否可信,技術(shù)起決定作用。但用戶是否信任,體驗設(shè)計同樣不可或缺。

準(zhǔn)確可靠、可解釋、安全穩(wěn)定、保護隱私、公平以及接受監(jiān)督,這些要素不僅是模型的內(nèi)在指標(biāo),也應(yīng)該在產(chǎn)品的每一次交互中“被看見”“被理解”,才能真正構(gòu)成AI產(chǎn)品的“信任力”。

在這個復(fù)雜而高速演進的AI時代,可信不是一個靜態(tài)目標(biāo),而是一種動態(tài)的、需要持續(xù)構(gòu)建的關(guān)系,它來自堅實的技術(shù)底座,也源于每一個尊重用戶感知的設(shè)計決策。

希望我的這篇文章,能為大家在打造具有信任力的AI產(chǎn)品過程中,帶來一些啟發(fā)和支撐。

參考文獻

1.狄行思,宋歌?!度斯ぶ悄芩惴ㄐ湃螜C制的構(gòu)建與反思》

2.胡曉萌,陳力源,劉正源?!洞笳Z言模型的信任建構(gòu)》

3.黃心語,李曄。《人機信任校準(zhǔn)的雙途徑:信任抑制與信任提升》

4.朱翼。《行為科學(xué)視角下人機信任的影響因素初探》

5.齊玥,陳俊廷,秦邵天,杜峰?!锻ㄓ萌斯ぶ悄軙r代的人與AI信任》

6.向安玲?!稛o以信,何以立:人機交互中的可持續(xù)信任機制》

本文由 @設(shè)計來電 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自 Unsplash,基于 CC0 協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 寫的很好,一看就很專業(yè),作者是大廠的吧?

    來自廣東 回復(fù)
  2. 我覺得光是找這些問題都已經(jīng)是一個比較困難的事了:哪些問題正在侵蝕人與AI之間的信任?背后的根源又來自哪里?

    來自廣東 回復(fù)
专题
18580人已学习14篇文章
智能客服类产品,最根本的价值在于以低成本取代人工客服工作中大量重复性的部分。本专题的文章分享了如何搭建一个智能客服。
专题
65346人已学习17篇文章
每个网站或APP,发展到了一定的阶段,用户积分体系都是不可或缺的。
专题
14628人已学习13篇文章
作为一名运营,需要持续对自己的经验进行总结并不断更新迭代。本专题的文章分享了运营方法论。
专题
13484人已学习13篇文章
随着数字化的发展,企业都在进行数字化转型发展。那么,对于传统第三产业企业来讲,数字化升级是什么?如何做数字化?本专题的文章分享了作者的见解。
专题
13995人已学习13篇文章
广告是互联网的最大的商业模式,已经逐步形成一个巨大的行业,整个互联网广告也在持续增长中。本专题的文章分享了关于对互联网广告的思考与分析
专题
43691人已学习21篇文章
优惠券的知识点非常丰富,而且随着运营方式的增多, 不同运营目标所使用的优惠券也是不一样的。