速途網6月15日訊(報道:喬志斌)今日,有媒體報道稱,王小川組建的「百川智能」在6月15日正式推出首個70億參數中英文預訓練大模型——baichuan-7B。baichuan-7B不僅在C-Eval、AGIEval和Gaokao中文權威評測榜單上,以顯著優勢全面超過了ChatGLM-6B等其他大模型,并且在MMLU英文權威評測榜單上,大幅領先LLaMA-7B。目前baichuan-7B大模型已在Hugging Face、Github以及Model Scope平臺發布。
為了驗證模型的各項能力,baichuan-7B在C-Eval、AGIEval和Gaokao三個最具影響力的中文評估基準進行了綜合評估,并且均獲得了優異成績,它已經成為同等參數規模下中文表現最優秀的原生預訓練模型。在AGIEval的評測里,baichuan-7B綜合評分達到34.4分,遠超LLaMA-7B、Falcon-7B、Bloom-7B以及ChatGLM-6B等其他開源模型。在中文C-EVAL的評測中,baichuan-7B的綜合評分達到了42.8分,超過了ChatGLM-6B的38.9分,甚至比某些參數規模更大的模型還要出色。在Gaokao評測中,baichuan-7B的綜合評分達到了36.2分,顯著領先于同參數規模的各種其他預訓練模型。