速途網(wǎng)6月1日訊(報(bào)道:?jiǎn)讨颈螅┟罇|時(shí)間周三,OpenAI發(fā)布的最新研究論文顯示,該公司正在用一種新的方法來(lái)訓(xùn)練人工智能(AI)模型,以對(duì)抗人工智能“幻覺(jué)”。

人工智能幻覺(jué)是指人工智能模型生成內(nèi)容的能力,這些內(nèi)容并非基于現(xiàn)實(shí)世界的數(shù)據(jù),而是模型自己想象的產(chǎn)物。人們對(duì)這種幻覺(jué)可能帶來(lái)的潛在問(wèn)題,包括道德、社會(huì)和實(shí)際問(wèn)題感到擔(dān)憂。一旦OpenAI的聊天機(jī)器人ChatGPT或谷歌公司的競(jìng)品Bard純粹捏造虛假信息,人工智能幻覺(jué)便會(huì)發(fā)生,表現(xiàn)出一種滔滔不絕地談?wù)撌聦?shí)的假象。
OpenAI的研究人員在一份報(bào)告中寫(xiě)道:“即使是最先進(jìn)的人工智能模型,也很容易產(chǎn)生謊言,它們?cè)诓淮_定的時(shí)刻往往表現(xiàn)出捏造事實(shí)的傾向。而在需要多步驟推理的領(lǐng)域,這種幻覺(jué)尤為嚴(yán)重,因?yàn)橐粋€(gè)邏輯錯(cuò)誤就足以破壞一個(gè)更大的解決方案。”
針對(duì)這一問(wèn)題,OpenAI提出了一項(xiàng)新策略:在訓(xùn)練人工智能模型時(shí),獎(jiǎng)勵(lì)每個(gè)正確的推理步驟,而不僅僅是簡(jiǎn)單地獎(jiǎng)勵(lì)正確的最終結(jié)論。研究人員稱這種方法為“過(guò)程監(jiān)督”,而非“結(jié)果監(jiān)督”,它可能提高人工智能的性能和準(zhǔn)確性,因?yàn)檫@種策略鼓勵(lì)模型更多地遵循類(lèi)似人類(lèi)的“思維鏈”。
OpenAI的數(shù)學(xué)研究員Karl Cobbe指出:“檢測(cè)并減輕模型的邏輯錯(cuò)誤或幻覺(jué),是構(gòu)建通用人工智能(AGI)的關(guān)鍵一步。”他指出,這項(xiàng)研究的動(dòng)機(jī)是解決人工智能幻覺(jué),以提高模型解決具有挑戰(zhàn)性推理問(wèn)題的能力。
目前,OpenAI已發(fā)布了一個(gè)附帶的數(shù)據(jù)集,其中包含80萬(wàn)個(gè)人類(lèi)標(biāo)簽,用于訓(xùn)練上述論文提到的模型。