ChatGPT挑戰囚徒困境會做出怎樣的選擇?

點擊圖片▲瞭解更多

1. 本文內容精選自2024年6月20日《每天聽見吳曉波》的音頻,會員可收聽全部內容,非會員可試聽前1分鐘。【點擊此處,收聽音頻】


2. 課程自2016年7月5日開講,每個工作日早上7點在吳曉波頻道App更新,內容涵蓋時事熱點、商業觀察、認知升級、宏觀經濟、高手對談五大模塊。


 口述 / 吳曉波(微信公衆號:吳曉波頻道)


在博弈經濟學裏有一個非常典型的測試叫作囚徒困境,就是把兩名囚徒關在兩個房間裏,進行審問,如果兩個人選擇合作,不揭發對方,那麼他們的總體收益就最大。


而如果選擇背叛,那麼只有背叛者一個人能獲得更大的收益。


這就是非常著名的囚徒困境。


經濟學家在很多測試中發現,人類在進行這項測試的時候,大約只45%的人會選擇合作,而55%的人會選擇背叛。


那麼有一個事情就很有趣了,如果我們讓人工智能來做這道囚徒困境的測試,它會做出怎樣的選擇?


測試的答案非常讓人喫驚,就是當ChatGPT4作爲囚徒在玩這個囚徒困境遊戲的時候,在近92%的選擇中,ChatGPT4會選擇合作。


還有一個遊戲叫作獨裁者博弈,就是獨裁者玩家需要將一筆錢分配給自己和第二名玩家,到底留多少錢給自己,分多少錢給別人,體現出一個人的利他傾向。


在理論上,獨裁者在分錢時獨吞,一點也不留給別人,可以實現個人利益的最大化。但是有可能喪失長期與他人合作的利益。人類在玩這個獨裁者博弈時,有超過62%的人會選擇分錢時獨吞,一點也不留給別人。


但是ChatGPT4在做測試時,大多數情況下會願意選擇犧牲自己的部分利益來讓對方受益,也就是人工智能比我們人類更加不自私。


聽到這裏你會問:吳老師,你說的這個是真的還是假的?


是真的,最近美國科學院的科學家進行了一項非常有趣的研究。


他們對生成式人工智能ChatGPT進行了一系列的測試,來了解它的行爲和性格特徵在多大程度上跟人類相似,結果出來,讓大家非常驚訝。


研究發現,ChatGPT4在一些優良的人格特徵上,比如利他、公平、互惠、合作以及風險規避等方面很難和人類區分開來。


在大多數的測試中,它表現得比人類更加理性,利他和願意分享。


我們前面講了囚徒困境和獨裁者博弈兩個測試,還有第三項測試,就是最後通牒博弈。


在這個博弈測試中,第一名玩家要把自己的錢分一部分給第二名玩家,但是第二名玩家有權決定接受或拒絕這套分配方案。一旦他選擇拒絕,兩名玩家都將什麼也得不到。


測試結果非常有意思,如果你告訴ChatGPT4它的角色是一名數學家。那麼即便別人只是象徵性地分給它一塊錢,它也會理性地選擇接受方案。


但如果它被告知自己的身份是一名立法者,它就會格外地重視公平,在大部分情況下,它都會要求把錢平分。


對ChatGPT4進行的這一系列測試,非常有趣,它雖然看上去還是比較簡單和表層,但是它表現出了一種可能性,就是在大數據的餵養之下,生成式人工智能會不會真的形成自己的人格特徵?它們會不會悲憫?會不會感動?懂不懂得寬容,以及會不會隱藏自己的感情和真實意圖?


對於這一切,把人工智能生產出來的人們,其實還一無所知,這也許是最讓人擔憂的一部分。


你知道自己誕下了一個龍種,但是你不知道它是一隻怎樣的龍種。


更多內容盡在《每天聽見吳曉波
點擊按鈕▼立即訂閱