近日,全球知名科技媒體marktechpost報(bào)道了一則重要消息,英偉達(dá)正式開源了其Open Code Reasoning(OCR)模型套裝。該套裝包含了三種不同規(guī)模的模型,分別是32B、14B和7B,均基于Apache 2.0許可證進(jìn)行發(fā)布。用戶現(xiàn)在可以在Hugging Face平臺(tái)上輕松下載這些模型的權(quán)重和配置。
OCR模型套裝中的三種模型均采用了Nemotron架構(gòu),這是一種專為多語言和多任務(wù)學(xué)習(xí)優(yōu)化的Transformer框架。32B模型定位在高性能推理和研究領(lǐng)域,為用戶提供卓越的效果;14B模型則在降低計(jì)算需求的同時(shí),依然保持了強(qiáng)大的推理能力;而7B模型則更適合資源受限的環(huán)境,能夠在基準(zhǔn)測(cè)試中展現(xiàn)出不俗的表現(xiàn)。
尤為32B模型還推出了指令微調(diào)版本,這一版本與開放推理生態(tài)系統(tǒng)無縫兼容,并支持適配llama.cpp、vLLM、Hugging Face Transformers和TGI等主流框架。這無疑為開發(fā)者提供了極大的便利,使他們能夠快速集成并應(yīng)用這一先進(jìn)的模型。
在代碼推理領(lǐng)域,OCR模型套裝展現(xiàn)出了驚人的實(shí)力。根據(jù)LiveCodeBench基準(zhǔn)測(cè)試的結(jié)果,OCR模型全面超越了OpenAI的o3-Mini和o1(low)模型。這一成就不僅彰顯了模型架構(gòu)的優(yōu)化成果,也凸顯了英偉達(dá)在打造定制“OCR數(shù)據(jù)集”方面的深厚功底。該數(shù)據(jù)集專注于高質(zhì)量代碼訓(xùn)練,注重指令遵循、推理能力和多步驟問題解決能力的培養(yǎng)。
具體來看,在LiveCodeBench的各項(xiàng)測(cè)試中,OCR-Qwen系列模型表現(xiàn)尤為突出。7B版本的OCR-Qwen-7B-Instruct在Avg.CodeContest和All兩項(xiàng)指標(biāo)上分別達(dá)到了51.3和18.1的高分;14B版本的OCR-Qwen-14B-Instruct則分別取得了59.4和23.6的優(yōu)異成績(jī);而32B版本的OCR-Qwen-32B-Instruct也毫不遜色,兩項(xiàng)指標(biāo)分別為61.7和24.4。這些數(shù)據(jù)充分證明了OCR模型套裝在代碼推理領(lǐng)域的領(lǐng)先地位。
除了OCR-Qwen系列模型外,其他經(jīng)過蒸餾的模型如Bespoke-Stratos、OpenThinker、R1-Distill-Qwen和OlympicCoder等也在測(cè)試中取得了不俗的成績(jī)。然而,與OCR模型相比,它們?cè)贏vg.CodeContest和All兩項(xiàng)指標(biāo)上的表現(xiàn)仍有一定的差距。
LiveCodeBench是一個(gè)專注于調(diào)試、代碼生成和邏輯補(bǔ)全等真實(shí)開發(fā)者環(huán)境中任務(wù)的綜合評(píng)估平臺(tái)。通過在該平臺(tái)上的測(cè)試,OCR模型套裝充分展示了其在代碼推理領(lǐng)域的卓越性能和廣泛應(yīng)用前景。這無疑為英偉達(dá)在人工智能領(lǐng)域的持續(xù)創(chuàng)新和領(lǐng)先地位注入了新的動(dòng)力。