بناءً على Beating، فتحت مايكروسوفت مؤخراً نموذج Phi-Ground للعائلة المصدر المفتوح، المصمم لمعالجة مشكلة أين ينبغي للذكاء الاصطناعي أن ينقر على شاشة الكمبيوتر. فقد تفوّق إصدار 4 مليارات معلمات، بالاقتران مع نماذج لغوية أكبر لتخطيط التعليمات، على دقة النقر لدى OpenAI Operator وClaude Computer Use في معيار Showdown، واحتل المركز الأول بين جميع نماذج أقل من 100 مليار معلمة عبر خمس عمليات تقييم، بما في ذلك ScreenSpot-Pro.
تدرّبت المجموعة على أكثر من 40 مليون عينة بيانات، ووجدت أن ثلاث تقنيات تدريب شائعة تُستخدم في الأوراق الأكاديمية أصبحت غير فعّالة عند التطبيق على نطاق واسع. وقد ثبت أن النهج الأساسي بسيط: إخراج الإحداثيات كأرقام عادية، مثل “523, 417”. ابتكرت أبحاث سابقة مفردات موضعية متخصصة للإحداثيات، لكن ذلك لم ينجح عند التوسع. كما اكتشفت المجموعة أن وضع تعليمات نصية قبل الصور يحسّن الأداء، إذ يمكن للنماذج تحديد الأهداف أثناء معالجة وحدات البكسل. بالإضافة إلى ذلك، حسّنت طرق التعلم التعزيزي مثل DPO الدقة حتى بعد إجراء الضبط الدقيق.
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى
إخلاء المسؤولية.
مقالات ذات صلة
تجري Google اختبارات توظيف تتيح للمهندسين استخدام أدوات الذكاء الاصطناعي
وفقاً لصحيفة The Chosun Daily، يجري اختبار تجريبي لدى Google لاختبارات توظيف تتيح لمترشحي مهندسي البرمجيات الأمريكيين استخدام أدوات الذكاء الاصطناعي في وظائف محددة للمستوى المبتدئ والمتوسط. يشمل الاختبار مهام لفهم الشيفرة البرمجية، حيث يراجع المتقدمون شيفرة موجودة ويصلحون الأخطاء ويحسنون الأداء. وسيقيّم القائمون على المقابلات كيفية قيام المرشحين بصياغة الأوامر للذكاء الاصطناعي والتحقق من مخرجاته وتعديل النتائج وإصلاح الأخطاء في الشيفرة، بدلاً من تقييم قدرتهم فقط على كتابة الشيفرة من الصفر.
GateNewsمنذ 47 د
أوبن إيه آي توقف واجهة برمجة التطبيقات الخاصة بالتدريب المخصص بدءاً من الآن فوراً، ويمكن للمستخدمين الحاليين الوصول حتى 6 يناير 2027
بحسب الإعلان الرسمي من OpenAI الذي تمت متابعته عبر Beating، تواصل الشركة إيقاف واجهة برمجة التطبيقات الخاصة بالتطوير الدقيق (Fine-tuning) الذاتية لخدمة المطورين، وذلك اعتبارًا من الآن فورًا. ولن يتمكن المستخدمون الجدد من إنشاء مهام للتطوير الدقيق، بينما يمكن للمستخدمين الحاليين النشطين الوصول إلى الخدمة حتى 6 يناير 2027. وستُربط خدمات الاستدلال للنماذج المطورة بدقة بالنطاق الزمني لدورات حياة نماذجها الأساسية، وتتوقف عند تقاعد النموذج الأساسي. ذكر OpenAI أن نماذجها الأساسية الجديدة، مثل GPT-5.5،
GateNewsمنذ 1 س
حقق كل من Sakana AI وNvidia سرعة استدلال على H100 أسرع بنسبة 30% عبر تخطي 80% من عمليات الحوسبة غير الصحيحة
قامت Sakana AI وNvidia بإتاحة TwELL كمصدر مفتوح، وهو تنسيق بيانات متفرق يتيح لوحدات GPU من نوع H100 تخطي 80% من الحسابات غير الصالحة في النماذج اللغوية الكبيرة دون المساس بالدقة. يقدّم الحل ما يصل إلى 30% تسريعاً في الاستدلال و24% تسريعاً في التدريب على وحدات H100، مع تقليل استهلاك الذاكرة القصوى. وفي الاختبارات على نموذج من 1.5 مليار معامل، خفّضت المقاربة عدد العصبونات النشطة إلى أقل من 2% عبر تنظيم خفيف أثناء التدريب، دون أي تراجع في الأداء عبر سبع مهام لاحقة.
GateNewsمنذ 2 س
Tilde Research يكتشف أن مُحسّن الميون يقتل 25% من الخلايا العصبية؛ ويحقق بديل Aurora مكسبًا في كفاءة البيانات بمقدار 100 ضعف
وفقاً لـ Tilde Research، يعاني مُحسّن Muon الذي اعتمدته نماذج ذكاء اصطناعي رائدة، بما في ذلك DeepSeek V4 وKimi K2.5، من عيبٍ خفي: إذ يتسبب في موتٍ دائم لأكثر من 25% من عصبونات طبقات MLP خلال التدريب المبكر. صممت المجموعة Aurora، وهو مُحسّن بديل، وقامت بإتاحته مفتوح المصدر. وقد حقق نموذج بمعلمات 1.1B تم تدريبه باستخدام 100B فقط من الرموز أداءً مطابقاً لأداء Qwen3-1.7B الذي تم تدريبه على 36T من الرموز عبر معايير فهم اللغة مثل HellaSwag وWinogrande، ما يوضح تحسناً تقريبيّاً في كفاءة البيانات بنسبة
GateNewsمنذ 3 س
التزمت شركة Nvidia بأكثر من 40 مليار دولار باستثمارات في مجال الذكاء الاصطناعي خلال بداية 2026، بما في ذلك 30 مليار دولار لصالح OpenAI
وفقاً لـTechCrunch، التزمت Nvidia بأكثر من 40 مليار دولار باستثمارات حقوق ملكية في شركات الذكاء الاصطناعي خلال الأشهر الأولى من 2026، مع استثمار 30 مليار دولار في OpenAI بوصفه أكبر التزام منفرد. كما تعهدت الشركة المصنعة للرقائق بما يصل إلى 3.2 مليار دولار في شركة صناعة الزجاج Corning، وبقدر يصل إلى 2.1 مليار دولار لمشغل مراكز البيانات IREN، بما في ذلك مذكرة ضمان (warrant) لمدة خمس سنوات، وعقد منفصل بقيمة 3.4 مليار دولار لخدمات سحابية للغرض الحوسبي GPU المُدارة باستخدام أنظمة Nvidia Blackwell. وو
GateNewsمنذ 6 س
حصلت شركة Deepinfra، الشريك طويل الأمد في مجال الذكاء الاصطناعي المفتوح التابع لـ NVIDIA، على تمويل جولة B بقيمة 107 مليون دولار، بهدف إنشاء «مصنع رموز».
أعلنت شركة الابتكار في مجال الذكاء الاصطناعي DeepInfra إتمام جولة تمويل من الفئة B بقيمة 107 مليون دولار، بقيادة 500 Global والمهندسَين السابقَين في جوجل Georges Harik، مع مشاركة مستثمرين استراتيجيين مثل NVIDIA (إنفيديا) وSamsung Next وSupermicro. ووفقاً لخبر رسمي، ستُستخدم هذه الزيادة في رأس المال لتوسيع سعة مراكز البيانات العالمية، ومعالجة اختناقات التكلفة والكفاءة التي يواجهها قطاع تطبيقات الذكاء الاصطناعي الحالية أثناء انتقاله من «تدريب النماذج» إلى «الاستدلال واسع النطاق». تزايد متطلبات الا
ChainNewsAbmediaمنذ 7 س