IT之家 5 月 9 日消息,科技媒體 marktechpost 昨日(5 月 8 日)發(fā)布博文,報道稱英偉達開源其 Open Code Reasoning(OCR)模型套裝,含 32B、14B 和 7B 三種參數(shù)規(guī)模,均采用 Apache 2.0 許可證發(fā)布,模型權(quán)重和配置已在 Hugging Face 平臺開放下載。
OCR 模型套裝提供三種參數(shù)規(guī)模,分別為 OpenCodeReasoning-Nemotron-32B、14B 和 7B,均使用 Nemotron 架構(gòu)(一種為多語言、多任務(wù)學(xué)習(xí)優(yōu)化的 transformer 框架)訓(xùn)練。
32B 模型面向高性能推理和研究場景,提供頂尖效果;14B 模型在降低計算需求的同時保持強大推理能力;7B 模型則適合資源受限的環(huán)境,仍能在基準測試中展現(xiàn)競爭力。
此外,32B 模型還推出了指令微調(diào)版本,支持與開放推理生態(tài)系統(tǒng)無縫兼容,適配 llama.cpp、vLLM、Hugging Face Transformers 和 TGI 等主流框架,方便開發(fā)者快速集成。

Open Code Reasoning(OCR)模型套裝在代碼推理領(lǐng)域展現(xiàn)出驚人實力。在 LiveCodeBench 基準測試中,這套模型全面超越 OpenAI 的 o3-Mini 和 o1 (low) 模型。
| Model | LiveCodeBench Avg. | CodeContest All |
|---|---|---|
| DeepSeek-R1 | 65.6 | 26.2 |
| QwQ-32B | 61.3 | 20.2 |
| Distilled 7B+ Models | ||
| Bespoke-Stratos-7B | 14.7 | 2.0 |
| OpenThinker-7B | 25.5 | 5.0 |
| R1-Distill-Qwen-7B | 38.0 | 11.1 |
| OlympicCoder-7B | 40.9 | 10.6 |
| OCR-Qwen-7B | 48.5 | 16.3 |
| OCR-Qwen-7B-Instruct | 51.3 | 18.1 |
| Distilled 14B+ Models | ||
| R1-Distill-Qwen-14B | 51.3 | 17.6 |
| OCR-Qwen-14B | 57.7 | 22.6 |
| OCR-Qwen-14B-Instruct | 59.4 | 23.6 |
| Distilled 32B+ Models | ||
| Bespoke-Stratos-32B | 30.1 | 6.3 |
| OpenThinker-32B | 54.1 | 16.4 |
| R1-Distill-Qwen-32B | 58.1 | 18.3 |
| OlympicCoder-32B | 57.4 | 18.0 |
| OCR-Qwen-32B | 61.8 | 24.6 |
| OCR-Qwen-32B-Instruct | 61.7 | 24.4 |
IT之家注:LiveCodeBench 是一個綜合評估平臺,專注于調(diào)試、代碼生成和邏輯補全等真實開發(fā)者環(huán)境中的任務(wù)。
這一成就不僅得益于模型架構(gòu)的優(yōu)化,還歸功于英偉達打造的定制“OCR 數(shù)據(jù)集”。該數(shù)據(jù)集聚焦高質(zhì)量代碼訓(xùn)練,強調(diào)指令遵循、推理能力和多步驟問題解決能力。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。