NVIDIA הוציאה את AceReason-Nemotron-14B, מודל קוד פתוח בן 14 מיליארד פרמטרים המתמקד בהיגיון במתמטיקה ובקוד.
הוא אומן באמצעות למידת חיזוקים - תחילה על בעיות מתמטיות, לאחר מכן על אתגרי קוד - במטרה לפתור משימות כבדות לוגיקה בצורה מדויקת יותר מאשר מודלים של שפה מסורתיים.
זה עכשיו זמין ב-Hugging Face וכל אחד יכול להוריד ולהשתמש בו.
מה שהחברה אומרת
NVIDIA שיתפה מדדי ביצועים המראים שיפורים אמיתיים:
78.6% ב-AIME 2024
67.4% ב-AIME 2025
61.1% ב-LiveCodeBench גרסה 5
54.9% ב-LiveCodeBench גרסה 6
ציונים אלה מראים שהמודל יכול להסיק מסקנות דרך בעיות מרובות שלבים ולייצר פתרונות טובים יותר הן במתמטיקה והן בתכנות.
הם לא רק משחררים מודל - הם מניחים יסודות לבניית מערכות בינה מלאכותית סוכניות.
כפי שאמר ג'נסן הואנג, מנכ"ל NVIDIA:
"מודלים, תוכנות וכלים של NVIDIA מעניקים למפתחים ולארגונים בכל מקום את אבני הבניין ליצירת כוח עבודה מואץ של בינה מלאכותית סוכנית."
- הודעה לעיתונות של NVIDIA, 18 במרץ, 2025
מה זה אומר (במילים אנושיות)
NVIDIA לא מנסה ליצור עוזר חדש.
הם נותנים למפתחים ארגז כלים - חינמי, פתוח ובנוי לחשיבה ברורה דרך בעיות מורכבות.
AceReason לא עושה שיחות חולין.
זה נועד לעזור למהנדסים, מתכנתים וחוקרים לפתור בעיות קשות במתמטיקה ובתכנות על ידי שיפור אופן ההיגיון של המודל צעד אחר צעד.
זה משהו שבונים איתו, לא משהו שמדברים איתו.
מה המשמעות של למידה חיזוקית?
כאשר NVIDIA אומרת שהמודל הזה אומן באמצעות למידת חיזוקים, הנה מה שהם באמת מתכוונים:
זה כמו לתת לבינה המלאכותית משוב בזמן שהיא לומדת - כך שהיא יכולה לנסות תשובות שונות ולקבל תשובה אילו מהן טובות יותר.
במקום פשוט להעתיק דוגמאות כמו באימון רגיל, המודל עובר דרך לולאה:
זה מנסה לענות על בעיה
הוא מקבל ציון או "פרס" בהתבסס על כמה טובה התשובה
זה מסתגל כדי להשתפר בפעם הבאה
זה מועיל למשימות כמו מתמטיקה וקוד, שבהן אין רק משפט אחד שנשמע נכון - יש תשובה נכונה שצריכה צעדים לוגיים כדי להגיע אליה.
למידת חיזוק עוזרת למודל ללמוד לנקוט בצעדים אלה בצורה מדויקת יותר.
אז במילים פשוטות:
זה לא רק מאומן לדבר - זה מאומן לפתור.
מה הקשר בין DeepSeek R1 Distilled ו-Qwen-14B לזה
כשמנסים לפתח אלגוריתם של בינה מלאכותית, הכרת המטרה שלכם - מה אתם רוצים שהיא תעשה בפועל - היא המפתח.
כאן נכנסים לתמונה Qwen-14B ו-DeepSeek R1 Distilled.
לא רק שהמודולים האלה חינמיים לשימוש (כן, Qwen-14B הוא קוד פתוח), אלא שהם גם נבנו עם משהו נדיר בעולם ה-LLM: מיקוד.
ואנחנו יודעים - לומר "ממוקד" יכול להישמע מעורפל.
אבל מה שאנחנו מתכוונים אליו זה:
מודלים אלה אומנו עם מטרה ספציפית מאוד.
הם לא צריכים להתמודד עם הכל, כמו שעושים ג'מיני או צ'אטGPT.
הם לא מנסים לנהל שיחה, להיות פוליטיקלי קורקט, להבין ניואנסים או לעזור לך לכתוב שיר.
הם נועדו לעשות דבר אחד היטב - ובגלל זה, הם לא מוצפים.
זו הסיבה שהן נקודות התחלה מצוינות לבניית משהו כמו AceReason.
כשמתחילים עם מודל שכבר מכוון להיות חד וצר, קל יותר לאמן אותו למשימות שקשורות מעט מאוד, אם בכלל, לדיבור - כמו פתרון בעיות מתמטיות או כתיבת קוד פונקציונלי.
כיצד זה משתווה: מטרת המודל והיקףו
דֶגֶם | ארכיטקטורת בסיס | מַטָרָה | מוכן לשיחה? | סוג אימון | קוד פתוח? | חוזק עיקרי |
AceReason-Nemotron-14B | DeepSeek-R1-Distilled-Qwen-14B | מתמטיקה ממוקדת וחשיבה בקוד | ❌ לא | למידה חיזוקית (מתמטיקה/קוד) | ✅ כן | חשיבה מובנית, משימות מבוססות לוגיקה |
GPT-4 (צ'אטGPT) | קנייני | עוזר למטרות כלליות | ✅ כן | בפיקוח + RLHF | ❌ לא | שטף שפה, תועלת רב-תחומית |
ג'מיני (גוגל) | קנייני | עוזר רב-מודאלי (טקסט, תמונה, קוד) | ✅ כן | רב-מודאלי + כוונון עדין + RLHF | ❌ לא | משתלב ברחבי המערכת האקולוגית של גוגל |
מיסטרל 7B | שנאי (צפוף) | תואר ראשון במשפטים בקוד פתוח, קל משקל ומהיר | ❌ לא (לא כברירת מחדל) | תחזית האסימון הבא | ✅ כן | מהירות, יעילות אסימונים, ניתן להרחבה |
קוון-14B | הטרנספורמר של עליבאבא | מודל פתוח בסיסי המשמש בפרויקטים רבים | ❌ לא | מאומן מראש, הוראות מכוונות | ✅ כן | יסודות השפה והחשיבה |
שורה תחתונה
עֲלוּת:
חופשי למחקר ולשימוש מסחרי תחת רישיון המודל הפתוח של NVIDIAQ2_K (2 סיביות): 5.77 ג'יגה-בייט
Q4_K_M (4 סיביות): 8.99 ג'יגה-בייט
Q8_0 (8 סיביות): 15.7 ג'יגה-בייט
F16 (16 סיביות): 29.5 ג'יגה-בייט
פרספקטיבה של צוות האור הקפוא
המהלך הזה של NVIDIA אומר הרבה.
ראשית, הם בבירור עושים מהלך מול ספקי לימודי תואר ראשון, גם אם הם לא אומרים את זה בקול רם.
הם מתחברים להודעה בקוד פתוח כדי שיוכלו בשקט להסיט את השיחה הרחק מ:
"היי, אנחנו בונים עכשיו תואר ראשון במשפטים",
ולכיוון:
"אנחנו רק תומכים במפתחים."
אבל אם באמת עוצרים ומסתכלים - זה צועק:
NVIDIA פשוט עברה מדיבור על שבבים... לייצור דגמים.
ולא סתם מודלים - כאלה שאומנו להסיק, ללמוד ולבנות ידע.
ובואו נדבר על המודולים שהם בחרו.
כאן זה נהיה מעניין.
הם בחרו ב-DeepSeek, מה שאולי נשמע כמו עוד פרויקט קוד פתוח...
אבל מתחת לפני השטח, זה מנסה להיות גם העוזר שלך - רק בתחפושת של קוד פתוח.
למה זה משנה?
מכיוון שתרבות ונתוני אימון מעצבים את אופן החשיבה של מודל.
ו-DeepSeek לא מגיע מאותו מקום כמו GPT-4 או Gemini.
אז ההטיות, הסגנון והסדרי העדיפויות שלה שונים.
בעולם הבינה המלאכותית, אנו מכירים זאת כ:
"מה שאתה מתאמן עליו זה מה שאתה תקבל."
והנה האמת - לאמן דוגמן להיות נטול דעות קדומות, פוליטיקלי קורקט וטובה בשיחה זה ממש קשה.
אז NVIDIA לא טרחה.
הם כיוונו למשהו הרבה יותר נקי:
מתמטיקה ותכנות.
בלי פוליטיקה. בלי רגשות.
פשוט שפה אוניברסלית, שבה לא צריך לדאוג לפגוע באף אחד.
זו לא הערה אגב - זו כל האסטרטגיה.
כי מלחמת הבינה המלאכותית האמיתית אינה עניין של מי בונה את העוזר הכי ידידותי.
זה עניין של מי הבעלים של הנתונים.
ו-NVIDIA לא יכולה לסמוך על מישהו אחר שיספק להם את מה שהם צריכים.
אם העסק שלך הוא תשתיות, אתה מבין טוב יותר את התוכניות שנבנות על גבי זה.
ואיך עושים את זה?
קַל.
התחבר לצרכים גולמיים וללא סינון של המפתחים.
תתחילו לאסוף אותות.
צרו קו בינכם לבין הקהל שלכם - לפני שמישהו אחר יעשה זאת.
בואו לא נשכח:
כל קפיצת מדרגה גדולה בתחום הבינה המלאכותית נבעה מהתשתיות והמעבדים הגרפיים.
זה הטריטוריה של NVIDIA. והם מתכננים להישאר שם.
אבל כדי להישאר רלוונטיים, הם צריכים להמשיך לעורר השראה במפתחים.
וזה?
זה הרעיון הגדול הבא שלהם.
ואנחנו צריכים לתת להם את זה:
הם קראו את החדר.
הם ידעו שקוד פתוח ידבר ישר ללב ליבו של פיתוח אמיתי.
הם ידעו שדאטה הוא המטבע החדש - וכבר הוצאנו כל כך הרבה משלנו בחינם, רק כדי להשתמש במה שאחרים בנו.
אז הנה מה שנאמר בקול רם וברור:
אם אתה מפתח,
הנתונים שלך הם לא רק תנועה.
זה הון.
ואם לא תטענו את זה עכשיו, מישהו אחר יעשה זאת.
הגרסה הזו?
לא רק על הגיון.
זה עניין של מיצוב.
בַּעֲלוּת.
ולוודא שהם לעולם לא יישארו בחוץ בשלב הבא של המשחק.