وفقاً لوكالة يونهاب نيوز، لعب نظام بالانتير ماڤن للأتمتة الذكية (MSS) دوراً رئيسياً في استهداف أكثر من 1,000 هدف خلال أول 48 ساعة من عملية عسكرية أمريكية ضد إيران. فقد قامت وزارة الدفاع الأمريكية بدمج أنظمة الذكاء الاصطناعي بشكل متزايد في عمليات اتخاذ القرار العسكرية، مع قيام بالانتير بدور شريك رئيسي لتقنيات الدفاع. وخلال مؤتمر لبالانتير عُقد في منتصف مارس، أشاد كبير مسؤولي التكنولوجيا الرقمية والذكاء الاصطناعي في وزارة الدفاع مباشرةً بنظام ماڤن باعتباره نظاماً “أحدث ثورة في سير العمل العملياتي”، مشيراً إلى أن القادة “فقط يحتاجون إلى النقر” وأن ماڤن هو أول نظام يحسّن العمل اليومي.
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى
إخلاء المسؤولية.
مقالات ذات صلة
صراع “وضع كود” من Anthropic عبر MCP مقابل CLI: أدوات تُقيّد وقت التشغيل وتنقل الرموز من 150 ألف إلى 2 ألف
2025 年整年 AI 工程社群在「MCP vs CLI」哪個更適合 Agent 工具呼叫的問題上爭論不休، وأوراق بحثية من Anthropic صدرت في نوفمبر 2025 بعنوان "Code execution with MCP" أعادت تعريف المشكلة من المبادئ الأولى. قام akshaypachaar بتجميع الخيط في 5/10 موضحًا أن المشكلة ليست في البروتوكول نفسه، بل في العادة القديمة المتمثلة في حشر كل أوصاف الأدوات داخل الـ context عند بدء الجلسة. حلّ Anthropic هو أن يكتب النموذج كودًا لاستدعاء الأدوات، بينما يتولى الـ runtime إدارة تفاصيل الأدوات. ويُسمى النمط الجديد "Code Mode". مشكلة النمط القديم: مع
ChainNewsAbmediaمنذ 1 س
يخطط ByteDance لزيادة إنفاقه على البنية التحتية للذكاء الاصطناعي بنسبة 25% إلى 200 مليار يوان هذا العام
بحسب ChainCatcher نقلاً عن Golden Data، تخطط ByteDance لزيادة إنفاقها على البنية التحتية للذكاء الاصطناعي بنسبة 25% إلى 200 مليار يوان هذا العام، مدفوعة بارتفاع تكاليف رقائق الذاكرة وتسارع تطوير الذكاء الاصطناعي.
GateNewsمنذ 2 س
منصة الذكاء الاصطناعي للشركات تغلق جولة التمويل$16M بقيادة a16z
وفقًا لـ Odaily، أعلنت منصة الذكاء الاصطناعي المؤسسية Pit عن اكتمال جولة تمويل بقيمة 16 مليون دولار، قادتها a16z، بمشاركة من Lakestar، إضافةً إلى مسؤولين تنفيذيين من OpenAI وAnthropic وGoogle وDeel وRevolut. تضع Pit نفسها بوصفها "فريق منتجات الذكاء الاصطناعي كخدمة"، بهدف استبدال جداول البيانات التقليدية وأنظمة SaaS الجامدة.
GateNewsمنذ 2 س
تجري Google اختبارات توظيف تتيح للمهندسين استخدام أدوات الذكاء الاصطناعي
وفقاً لصحيفة The Chosun Daily، يجري اختبار تجريبي لدى Google لاختبارات توظيف تتيح لمترشحي مهندسي البرمجيات الأمريكيين استخدام أدوات الذكاء الاصطناعي في وظائف محددة للمستوى المبتدئ والمتوسط. يشمل الاختبار مهام لفهم الشيفرة البرمجية، حيث يراجع المتقدمون شيفرة موجودة ويصلحون الأخطاء ويحسنون الأداء. وسيقيّم القائمون على المقابلات كيفية قيام المرشحين بصياغة الأوامر للذكاء الاصطناعي والتحقق من مخرجاته وتعديل النتائج وإصلاح الأخطاء في الشيفرة، بدلاً من تقييم قدرتهم فقط على كتابة الشيفرة من الصفر.
GateNewsمنذ 4 س
أوبن إيه آي توقف واجهة برمجة التطبيقات الخاصة بالتدريب المخصص بدءاً من الآن فوراً، ويمكن للمستخدمين الحاليين الوصول حتى 6 يناير 2027
بحسب الإعلان الرسمي من OpenAI الذي تمت متابعته عبر Beating، تواصل الشركة إيقاف واجهة برمجة التطبيقات الخاصة بالتطوير الدقيق (Fine-tuning) الذاتية لخدمة المطورين، وذلك اعتبارًا من الآن فورًا. ولن يتمكن المستخدمون الجدد من إنشاء مهام للتطوير الدقيق، بينما يمكن للمستخدمين الحاليين النشطين الوصول إلى الخدمة حتى 6 يناير 2027. وستُربط خدمات الاستدلال للنماذج المطورة بدقة بالنطاق الزمني لدورات حياة نماذجها الأساسية، وتتوقف عند تقاعد النموذج الأساسي. ذكر OpenAI أن نماذجها الأساسية الجديدة، مثل GPT-5.5،
GateNewsمنذ 5 س
حقق كل من Sakana AI وNvidia سرعة استدلال على H100 أسرع بنسبة 30% عبر تخطي 80% من عمليات الحوسبة غير الصحيحة
قامت Sakana AI وNvidia بإتاحة TwELL كمصدر مفتوح، وهو تنسيق بيانات متفرق يتيح لوحدات GPU من نوع H100 تخطي 80% من الحسابات غير الصالحة في النماذج اللغوية الكبيرة دون المساس بالدقة. يقدّم الحل ما يصل إلى 30% تسريعاً في الاستدلال و24% تسريعاً في التدريب على وحدات H100، مع تقليل استهلاك الذاكرة القصوى. وفي الاختبارات على نموذج من 1.5 مليار معامل، خفّضت المقاربة عدد العصبونات النشطة إلى أقل من 2% عبر تنظيم خفيف أثناء التدريب، دون أي تراجع في الأداء عبر سبع مهام لاحقة.
GateNewsمنذ 6 س