ตามประกาศอย่างเป็นทางการของ OpenAI ที่ Beating เฝ้าติดตาม บริษัทจะยุติการให้บริการ Fine-tuning API แบบให้ผู้พัฒนาดำเนินการเอง (self-serve) ตั้งแต่ทันที ผู้ใช้รายใหม่ไม่สามารถสร้างงาน Fine-tuning ได้อีก ขณะที่ผู้ใช้งานที่ใช้งานอยู่แล้วสามารถเข้าถึงบริการได้จนถึงวันที่ 6 มกราคม 2027 โมเดลที่ถูก Fine-tuning แล้วจะมีบริการการอินเฟอเรนซ์ผูกกับวงจรชีวิตของโมเดลพื้นฐาน และจะยุติเมื่อโมเดลพื้นฐานถูกปลดออก
OpenAI ระบุว่าโมเดลพื้นฐานรุ่นใหม่ เช่น GPT-5.5 ตอนนี้มีพลังเพียงพอในการปฏิบัติตามคำสั่งและรูปแบบ (format) บริษัทกล่าวว่า การใช้ Prompt engineering ร่วมกับ Retrieval-Augmented Generation (RAG) มีต้นทุนต่ำกว่า เร็วกว่า และเพียงพอสำหรับกรณีใช้งานส่วนใหญ่เมื่อเทียบกับการทำ Fine-tuning
btc.bar.articles
Google ทดลองการสอบคัดเลือกที่เปิดโอกาสให้วิศวกรใช้เครื่องมือ AI
ตามรายงานของ The Chosun Daily กูเกิลกำลังทดลองใช้การสอบคัดเลือกงานที่อนุญาตให้ผู้สมัครวิศวกรซอฟต์แวร์ชาวสหรัฐใช้เครื่องมือ AI ได้ในตำแหน่งงานระดับเริ่มต้นและระดับกลางที่คัดเลือกมา แบบทดสอบนี้รวมถึงงานด้านความเข้าใจโค้ด โดยให้ผู้สมัครตรวจสอบโค้ดที่มีอยู่ แก้ไขบั๊ก และปรับปรุงประสิทธิภาพ ผู้สัมภาษณ์จะประเมินว่าผู้สมัคร “พรอมป์” ให้ AI อย่างไร ตรวจสอบผลลัพธ์ที่ได้ แก้ไขผลลัพธ์ และดีบักโค้ด โดยไม่ใช่ประเมินเพียงความสามารถในการเขียนโค้ดตั้งแต่เริ่มต้นเท่านั้น
GateNews33 นาที ที่แล้ว
Sakana AI และ Nvidia ทำได้เร็วกว่าการอินเฟอเรนซ์ H100 ถึง 30% ด้วยการข้ามการคำนวณที่ไม่ถูกต้อง 80%
Sakana AI และ Nvidia ได้เปิดซอร์ส TwELL ซึ่งเป็นรูปแบบข้อมูลแบบเบาบางที่ช่วยให้ GPU H100 ข้ามการคำนวณที่ไม่ถูกต้องไปถึง 80% ในโมเดลภาษาขนาดใหญ่โดยไม่ลดทอนความแม่นยำ โซลูชันนี้ช่วยให้การอนุมานเร็วขึ้นได้ถึง 30% และการฝึกเร็วขึ้น 24% บน H100 พร้อมทั้งลดการใช้หน่วยความจำสูงสุด ระหว่างการทดสอบกับโมเดลพารามิเตอร์ 1.5 พันล้าน วิธีดังกล่าวทำให้จำนวนประสาทที่ทำงานอยู่ลดลงต่ำกว่า 2% ด้วยการทำให้สม่ำเสมอแบบเบา (lightweight regularization) ระหว่างการฝึก โดยไม่พบการเสื่อมของประสิทธิภาพในงานปลายน้ำ 7 งาน
GateNews2 ชั่วโมง ที่แล้ว
Microsoft เปิดซอร์สโมเดล Phi-Ground 4B เฟรมเวิร์ก เพิ่มประสิทธิภาพเหนือ OpenAI Operator และ Claude ในความแม่นยำการคลิกหน้าจอ
ตาม Beating ไมโครซอฟต์ได้เปิดซอร์สตระกูลโมเดล Phi-Ground เมื่อไม่นานมานี้ ซึ่งออกแบบมาเพื่อแก้ปัญหาว่า AI ควร “คลิก” ตรงไหนบนหน้าจอคอมพิวเตอร์ รุ่นที่มีพารามิเตอร์ 4 พันล้าน พ่วงกับโมเดลภาษาขนาดใหญ่สำหรับการวางแผนตามคำสั่ง ทำสถิติความแม่นยำในการคลิกได้เกิน OpenAI Operator และ Claude Computer Use ในเกณฑ์ Showdown และติดอันดับ 1 ในบรรดาโมเดลทั้งหมดที่มีพารามิเตอร์ต่ำกว่า 100 พันล้าน ใน 5 การประเมิน รวมถึง ScreenSpot-Pro ทีมงานฝึกด้วยข้อมูลตัวอย่างมากกว่า 40 ล้านรายการ และพบว่าเทคนิคการฝึก 3 แบบที่
GateNews2 ชั่วโมง ที่แล้ว
Tilde Research พบว่า Muon Optimizer ทำให้เซลล์ประสาทตาย 25%; Aurora Alternative ให้ประสิทธิภาพการใช้ข้อมูลเพิ่มขึ้น 100 เท่า
ตามรายงานของ Tilde Research ตัวเพิ่มประสิทธิภาพ (optimizer) Muon ที่นำมาใช้โดยโมเดล AI ชั้นนำ รวมถึง DeepSeek V4 และ Kimi K2.5 มีข้อบกพร่องแอบแฝง: ทำให้เซลล์ประสาท (neurons) ในเลเยอร์ MLP มากกว่า 25% ตายถาวรในช่วงการฝึกระยะเริ่มต้น ทีมได้ออกแบบ Aurora ซึ่งเป็น optimizer ทางเลือก และเผยแพร่เป็นโอเพนซอร์ส โมเดลพารามิเตอร์ 1.1B ที่ฝึกด้วยเพียง 100B tokens ให้ผลเทียบเท่ากับ Qwen3-1.7B ที่ฝึกบน 36T tokens ในเกณฑ์ทดสอบความเข้าใจภาษาอย่าง HellaSwag และ Winogrande แสดงให้เห็นการปรับปรุงประสิทธิภาพด้านข้
GateNews3 ชั่วโมง ที่แล้ว
Nvidia ทุ่มเงินลงทุนด้าน AI มากกว่า 40 พันล้านดอลลาร์ในช่วงต้นปี 2026 รวมถึง 30 พันล้านดอลลาร์ให้กับ OpenAI
ตามรายงานของ TechCrunch ระบุว่า Nvidia ทุ่มมากกว่า 40 พันล้านดอลลาร์สหรัฐให้กับการลงทุนในตราสารทุนของบริษัท AI ในช่วงไม่กี่เดือนแรกของปี 2026 โดยการลงทุน 30 พันล้านดอลลาร์สหรัฐใน OpenAI ถือเป็นคำมั่นครั้งเดียวที่ใหญ่ที่สุด ผู้ผลิตชิปดังกล่าวยังให้คำมั่นว่าจะลงทุนได้สูงสุด 3.2 พันล้านดอลลาร์สหรัฐใน Corning ผู้ผลิตกระจก และมากถึง 2.1 พันล้านดอลลาร์สหรัฐให้กับ IREN ผู้ให้บริการศูนย์ข้อมูล ซึ่งรวมถึงใบสำคัญแสดงสิทธิ 5 ปี และสัญญาแยกต่างหากมูลค่า 3.4 พันล้านดอลลาร์สหรัฐสำหรับบริการคลาวด์ GPU แบบบริหา
GateNews6 ชั่วโมง ที่แล้ว
NVIDIA เปิดพื้นที่ให้เป็นพันธมิตรระยะยาวด้าน AI ของ Deepinfra ระดมทุนรอบ B จำนวน 1.07 พันล้านดอลลาร์สหรัฐ เพื่อสร้าง “โรงงานโทเค็น”
สตาร์ทอัพด้านปัญญาประดิษฐ์ DeepInfra ประกาศปิดการระดมทุนรอบ B มูลค่า 1.07 พันล้านดอลลาร์สหรัฐ โดย 500 Global และ Georges Harik วิศวกรรุ่นแรกของ Google เป็นผู้นำการลงทุน ขณะที่นักลงทุนเชิงยุทธศาสตร์อย่าง NVIDIA (NVIDIA), Samsung Next และ Supermicro เข้าร่วมลงทุนด้วย จากข่าวอย่างเป็นทางการเผยว่าเงินที่ได้รับครั้งนี้จะนำไปขยายความจุศูนย์ข้อมูลทั่วโลก เพื่อรับมือกับต้นทุนการคำนวณและคอขวดด้านประสิทธิภาพที่เกิดขึ้นเมื่อการใช้งาน AI ในปัจจุบันเปลี่ยนจาก “การฝึกโมเดล” ไปสู่ “การอนุมานขนาดใหญ่” ความต้องก
ChainNewsAbmedia6 ชั่วโมง ที่แล้ว