蘋果研究人員質疑 AI 的推理能力:簡單數(shù)學問題稍作改動就會答錯

蘋果研究人員質疑 AI 的推理能力:簡單數(shù)學問題稍作改動就會答錯
2024年10月12日 08:51 IT之家

IT之家 10 月 12 日消息,近年來,人工智能(AI)在各個領域取得了顯著的進展,其中大型語言模型(LLM)能夠生成人類水平的文本,甚至在某些任務上超越人類的表現(xiàn)。然而,研究人員對 LLM 的推理能力提出了質疑,他們發(fā)現(xiàn)這些模型在解決簡單的數(shù)學問題時,只要稍加改動,就會犯錯誤,這表明它們可能并不具備真正的邏輯推理能力。

圖源 Pexels圖源 Pexels

周四,蘋果公司的一組研究人員發(fā)布了一篇名為《理解大型語言模型中數(shù)學推理的局限性》的論文,揭示 LLM 在解決數(shù)學問題時容易受到干擾。IT之家注意到,研究人員通過對數(shù)學問題的微小改動,例如添加無關的信息,來測試 LLM 的推理能力。結果發(fā)現(xiàn),這些模型在面對這樣的變化時,其表現(xiàn)急劇下降。

例如,當研究人員給出一個簡單的數(shù)學問題:“奧利弗星期五摘了 44 個奇異果,星期六摘了 58 個奇異果。星期日,他摘的奇異果是星期五的兩倍。奧利弗一共摘了多少個奇異果?”時,LLM 能夠正確地計算出答案。然而,當研究人員添加一個無關的細節(jié),“星期日,他摘的奇異果是星期五的兩倍,其中 5 個比平均小。”時,LLM 的回答卻出現(xiàn)了錯誤。例如,GPT-o1-mini 的回答是:“... 星期日,其中 5 個奇異果比平均小。我們需要從星期日的總數(shù)中減去它們:88(星期日的奇異果) - 5(較小的奇異果) = 83 個奇異果。”

上面只是一個簡單的例子,研究人員修改了數(shù)百個問題,幾乎所有問題都導致模型的回答成功率大幅下降。

研究人員認為,這種現(xiàn)象表明 LLM 并沒有真正理解數(shù)學問題,而是僅僅根據(jù)訓練數(shù)據(jù)中的模式進行預測。但一旦需要真正的“推理”,例如是否計算小的奇異果,它們就會產(chǎn)生奇怪的、不合常理的結果。

這一發(fā)現(xiàn)對 AI 的發(fā)展具有重要的啟示。雖然 LLM 在許多領域表現(xiàn)出色,但其推理能力仍然存在局限性。未來,研究人員需要進一步探索如何提高 LLM 的推理能力,使其能夠更好地理解和解決復雜的問題。

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

新浪科技公眾號
新浪科技公眾號

“掌”握科技鮮聞 (微信搜索techsina或掃描左側二維碼關注)

創(chuàng)事記

科學探索

科學大家

蘋果匯

眾測

專題

官方微博

新浪科技 新浪數(shù)碼 新浪手機 科學探索 蘋果匯 新浪眾測

公眾號

新浪科技

新浪科技為你帶來最新鮮的科技資訊

蘋果匯

蘋果匯為你帶來最新鮮的蘋果產(chǎn)品新聞

新浪眾測

新酷產(chǎn)品第一時間免費試玩

新浪探索

提供最新的科學家新聞,精彩的震撼圖片