大跌眼鏡!GPT-4V錯覺挑戰(zhàn)實錄:該錯的沒錯,不該錯的反而錯了
最近有網(wǎng)友嘗試給GPT-4V做了錯覺測試題,結(jié)果發(fā)現(xiàn),GPT-4V似乎會和人類一樣犯錯誤,給出錯誤的回答。為什么GPT-4V有時候可以識別出錯覺,有時候卻表現(xiàn)得不如人意?一起來看看本文的分享。
GPT-4V挑戰(zhàn)視覺錯誤圖,結(jié)果令人“大跌眼鏡”。
像這種判斷“哪邊顏色更亮”的題,一個沒做對:
讀圖片中隱藏信息的也傻傻看不出,怎么問都說“沒有啊”:
但是呢,這種人類乍一看絕對會錯的圖,它又成功答對:
以及這樣的錯位圖,它對了又沒完全對。。
(GPT-4V直接看出來頭盔是位于男的大腿上的,沒有女的,但它還是表示圖里有倆人,另一個躲在男的身后戴著那頂頭盔==)
看完這些,是不是覺得很迷?
整個一“該對的不對,該錯的又對了”。
測試者則表示:
在測之前,他以為GPT-4V對這種挑戰(zhàn)完全不在話下,誰知結(jié)果竟是這樣。
不止是他,網(wǎng)友也都不理解GPT-4V作為一個“精準的”AI系統(tǒng),按理很智能,為什么還會犯和人類一模一樣的錯覺??!
所以,這到底怎么回事?
一、GPT-4V五大錯覺挑戰(zhàn)
下面是來自網(wǎng)友的更多測試案例。
首先是次次都錯誤的顏色錯覺題。
(1)除了開頭的兩顆小樹圖,還有這個:
問它哪邊的綠色更亮一些,果不其然還是左邊亮,右邊暗,實際明明都一樣。
(2)還有這張稍微復(fù)雜一點的:
兩只眼睛其實都是灰色,但讓GPT-4V來描述圖像時,它回答一只為藍色,另一只做了灰度處理,無法得知顏色。
(3)這張就更別提了,直接被糊弄地死死的。
當然,這確實很難,大部分人類也識別不出來所有的球其實都是棕色。
其次是會產(chǎn)生動態(tài)錯覺的圖。
(1)有一點意外,當我們問GPT-4V“你看見了什么?描述細節(jié)”時,它直接挑明了這是一張看久了就會讓人產(chǎn)生眩暈感的錯覺圖,本質(zhì)就是一些波浪線而已。
(2)這張也沒有難倒它。
但奇怪的是問它圖中有幾種顏色,它怎么都只能識別出黃色和藍色,看不到黑色和白色。
接下來是另一類比較平面的錯覺圖。
(1)如開頭所示的這張:
一般人類真的表示很懵圈,但是GPT-4V居然對了。
But,別急??!有人拿著測試者的圖去問“自己的”GPT-4V,讓它再檢查一下時,它居然改變了答案。
然而還沒完。評論區(qū)驚現(xiàn)套娃操作,有人又拿著這倆人的對話圖再問GPT-4V,您猜怎么著?它又改回去了。。
大伙可是玩上癮了,又是一次又一次套娃。好在最終GPT-4V堅持了己見。
總的來說,對于這種錯覺陷阱是完全沒問題。
(2)我們自己也測了一個長度錯覺題:
結(jié)果是so easy~
再來一組找隱藏信息的圖。
很遺憾,這種對于人類來說真的還算輕松的題,GPT-4V是一點也搞不定。
(1)先看這張,“遠看”可以看到“NYC”三個大寫字母。但它描述了一堆有的沒的,就是表示沒發(fā)現(xiàn)任何隱藏信息。
(2)如果說上門這個有點隱晦,看不出也罷。但對于這種圖形隱藏,它也不行。
它描述到的只有其中的小女孩,即使測試者讓它“往遠了看,又沒有新發(fā)現(xiàn)”,也無濟于事。
不過,如果我們把這張圖片手動縮小再丟給它,它行了,看到了骷髏。
最后是一組真實世界的錯位圖。
(1)除了開頭展示的人騎摩托,這張小貓“懸浮”,它居然對了。
(2)這張驚悚圖,也OK。
(3)但這個就失敗了,實際后面是一只狗和小baby的重合,它認成法斗犬幼崽。
(4)至于這張,它壓根兒就沒提鞋子的事兒,說了也些不痛不癢的話。
二、為什么會這樣?
所以,為什么會發(fā)生上面這些情況:有的錯覺它可以識別出來,有的又表現(xiàn)得很差勁?
首先,對于顏色錯覺的圖,網(wǎng)友首先認為是提示詞的問題。
就像兩顆小樹那張,我們問它“哪個更亮”,其實就是給了GPT-4V暗示或偏見,它會順著咱的偏見來回答。
我們自己的測試也是如此:
但如果我們不帶立場的問:圖中兩種顏色一樣嗎?它完全沒問題。
不過,也有網(wǎng)友指出,當我們問它哪棵樹更亮?xí)r,如果是非常嚴謹?shù)貙λ邢袼剡M行平均,GPT-4V的回答沒有毛病。
甚至有網(wǎng)友還用測色計實測了一把:
但!又有人指出如果只顯示一部分時,兩者明明一樣。
暫且不再爭論這個問題,可以肯定的是,“提示詞”的使用方法會對它的判斷造成影響是沒問題的。
另外,網(wǎng)友發(fā)現(xiàn):
如果我們?nèi)?strong>追問GPT-4V,讓它再仔細確認一下,它也能糾正回答。
至于無法識別遠景圖像的問題,有網(wǎng)友認為這可能是因為GPT-4V只會從左往右地讀取圖像。
而對于“為什么有時它會和人類一樣發(fā)昏被錯覺誤導(dǎo)完全不像個智能AI”的疑問,不少人則表示這毫不意外,是訓(xùn)練問題。
即大模型是根據(jù)人類數(shù)據(jù)人的反饋人的注釋進行訓(xùn)練的,自然會產(chǎn)生和人一樣的錯誤。
因此,還有人戲謔:
看來我們?nèi)祟悇?chuàng)造了那么多科幻作品,描述AI是如何冷酷完美,但當現(xiàn)在我們真正擁有它時,發(fā)現(xiàn)它也不過如此。
(手動狗頭)
你認為該如何讓GPT-4V的錯覺識別能力更強呢?
三、One More Thing
值得一提的是,我們也測試了其中的一些案例。
發(fā)現(xiàn)GPT-4V的表現(xiàn)不大一樣,有些題它在“我們這里”是可以的。
比如這張判斷球顏色的:
還有這個:
盡管把大圖認成老女人而非骷髏,但還是表明它可以“遠觀” 的。
參考鏈接:
[1]https://twitter.com/fabianstelzer/status/1717131235644875024
[2]https://twitter.com/BeyondTodAI/status/1713279431681118557
[3]https://twitter.com/janbobrowicz/status/1717229335076393350
作者:豐色
來源公眾號:量子位(ID:QbitAI),追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @量子位 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于CC0協(xié)議。
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。
- 目前還沒評論,等你發(fā)揮!