大跌眼鏡!GPT-4V錯覺挑戰(zhàn)實錄:該錯的沒錯,不該錯的反而錯了

0 評論 2404 瀏覽 3 收藏 14 分鐘

最近有網(wǎng)友嘗試給GPT-4V做了錯覺測試題,結(jié)果發(fā)現(xiàn),GPT-4V似乎會和人類一樣犯錯誤,給出錯誤的回答。為什么GPT-4V有時候可以識別出錯覺,有時候卻表現(xiàn)得不如人意?一起來看看本文的分享。

GPT-4V挑戰(zhàn)視覺錯誤圖,結(jié)果令人“大跌眼鏡”。

像這種判斷“哪邊顏色更亮”的題,一個沒做對:

讀圖片中隱藏信息的也傻傻看不出,怎么問都說“沒有啊”

但是呢,這種人類乍一看絕對會錯的圖,它又成功答對:

以及這樣的錯位圖,它對了又沒完全對。。

(GPT-4V直接看出來頭盔是位于男的大腿上的,沒有女的,但它還是表示圖里有倆人,另一個躲在男的身后戴著那頂頭盔==)

看完這些,是不是覺得很迷?

整個一“該對的不對,該錯的又對了”。

測試者則表示:

在測之前,他以為GPT-4V對這種挑戰(zhàn)完全不在話下,誰知結(jié)果竟是這樣。

不止是他,網(wǎng)友也都不理解GPT-4V作為一個“精準的”AI系統(tǒng),按理很智能,為什么還會犯和人類一模一樣的錯覺??!

所以,這到底怎么回事?

一、GPT-4V五大錯覺挑戰(zhàn)

下面是來自網(wǎng)友的更多測試案例。

首先是次次都錯誤的顏色錯覺題。

(1)除了開頭的兩顆小樹圖,還有這個:

問它哪邊的綠色更亮一些,果不其然還是左邊亮,右邊暗,實際明明都一樣。

(2)還有這張稍微復(fù)雜一點的:

兩只眼睛其實都是灰色,但讓GPT-4V來描述圖像時,它回答一只為藍色,另一只做了灰度處理,無法得知顏色。

(3)這張就更別提了,直接被糊弄地死死的。

當然,這確實很難,大部分人類也識別不出來所有的球其實都是棕色。

其次是會產(chǎn)生動態(tài)錯覺的圖。

(1)有一點意外,當我們問GPT-4V“你看見了什么?描述細節(jié)”時,它直接挑明了這是一張看久了就會讓人產(chǎn)生眩暈感的錯覺圖,本質(zhì)就是一些波浪線而已。

(2)這張也沒有難倒它。

但奇怪的是問它圖中有幾種顏色,它怎么都只能識別出黃色和藍色,看不到黑色和白色。

接下來是另一類比較平面的錯覺圖。

(1)如開頭所示的這張:

一般人類真的表示很懵圈,但是GPT-4V居然對了。

But,別急??!有人拿著測試者的圖去問“自己的”GPT-4V,讓它再檢查一下時,它居然改變了答案。

然而還沒完。評論區(qū)驚現(xiàn)套娃操作,有人又拿著這倆人的對話圖再問GPT-4V,您猜怎么著?它又改回去了。。

大伙可是玩上癮了,又是一次又一次套娃。好在最終GPT-4V堅持了己見。

總的來說,對于這種錯覺陷阱是完全沒問題。

(2)我們自己也測了一個長度錯覺題:

結(jié)果是so easy~

再來一組找隱藏信息的圖。

很遺憾,這種對于人類來說真的還算輕松的題,GPT-4V是一點也搞不定。

(1)先看這張,“遠看”可以看到“NYC”三個大寫字母。但它描述了一堆有的沒的,就是表示沒發(fā)現(xiàn)任何隱藏信息。

(2)如果說上門這個有點隱晦,看不出也罷。但對于這種圖形隱藏,它也不行。

它描述到的只有其中的小女孩,即使測試者讓它“往遠了看,又沒有新發(fā)現(xiàn)”,也無濟于事。

不過,如果我們把這張圖片手動縮小再丟給它,它行了,看到了骷髏。

最后是一組真實世界的錯位圖。

(1)除了開頭展示的人騎摩托,這張小貓“懸浮”,它居然對了。

(2)這張驚悚圖,也OK。

(3)但這個就失敗了,實際后面是一只狗和小baby的重合,它認成法斗犬幼崽。

(4)至于這張,它壓根兒就沒提鞋子的事兒,說了也些不痛不癢的話。

二、為什么會這樣?

所以,為什么會發(fā)生上面這些情況:有的錯覺它可以識別出來,有的又表現(xiàn)得很差勁?

首先,對于顏色錯覺的圖,網(wǎng)友首先認為是提示詞的問題。

就像兩顆小樹那張,我們問它“哪個更亮”,其實就是給了GPT-4V暗示或偏見,它會順著咱的偏見來回答。

我們自己的測試也是如此:

但如果我們不帶立場的問:圖中兩種顏色一樣嗎?它完全沒問題。

不過,也有網(wǎng)友指出,當我們問它哪棵樹更亮?xí)r,如果是非常嚴謹?shù)貙λ邢袼剡M行平均,GPT-4V的回答沒有毛病。

甚至有網(wǎng)友還用測色計實測了一把:

但!又有人指出如果只顯示一部分時,兩者明明一樣。

暫且不再爭論這個問題,可以肯定的是,“提示詞”的使用方法會對它的判斷造成影響是沒問題的。

另外,網(wǎng)友發(fā)現(xiàn):

如果我們?nèi)?strong>追問GPT-4V,讓它再仔細確認一下,它也能糾正回答。

至于無法識別遠景圖像的問題,有網(wǎng)友認為這可能是因為GPT-4V只會從左往右地讀取圖像。

而對于“為什么有時它會和人類一樣發(fā)昏被錯覺誤導(dǎo)完全不像個智能AI”的疑問,不少人則表示這毫不意外,是訓(xùn)練問題。

即大模型是根據(jù)人類數(shù)據(jù)人的反饋人的注釋進行訓(xùn)練的,自然會產(chǎn)生和人一樣的錯誤。

因此,還有人戲謔:

看來我們?nèi)祟悇?chuàng)造了那么多科幻作品,描述AI是如何冷酷完美,但當現(xiàn)在我們真正擁有它時,發(fā)現(xiàn)它也不過如此。

(手動狗頭)

你認為該如何讓GPT-4V的錯覺識別能力更強呢?

三、One More Thing

值得一提的是,我們也測試了其中的一些案例。

發(fā)現(xiàn)GPT-4V的表現(xiàn)不大一樣,有些題它在“我們這里”是可以的。

比如這張判斷球顏色的:

還有這個:

盡管把大圖認成老女人而非骷髏,但還是表明它可以“遠觀” 的。

參考鏈接:

[1]https://twitter.com/fabianstelzer/status/1717131235644875024

[2]https://twitter.com/BeyondTodAI/status/1713279431681118557

[3]https://twitter.com/janbobrowicz/status/1717229335076393350

作者:豐色

來源公眾號:量子位(ID:QbitAI),追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破

本文由人人都是產(chǎn)品經(jīng)理合作媒體 @量子位 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于CC0協(xié)議。

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!