DeepSeek เปิดตัวโมเดล V4-Pro และ V4-Flash ในต้นทุนที่ต่ำกว่า GPT-5.5 Pro ของ OpenAI ถึง 98%

ข่าวประตูเมือง ประจำวันที่ 25 เมษายน — DeepSeek ปล่อยตัวอย่าง (preview) ของ V4-Pro และ V4-Flash เมื่อวันที่ 24 เมษายน ทั้งสองเป็นโมเดลน้ำหนักเปิด (open-weight) ที่มีหน้าต่างคอนเท็กซ์ 1 ล้านโทเค็น V4-Pro มีพารามิเตอร์ทั้งหมด 1.6 ล้านล้านตัว แต่จะเปิดใช้งานได้เพียง 49 พันล้านต่อรอบการอินเฟอเรนซ์ผ่านสถาปัตยกรรมแบบ Mixture-of-Experts V4-Flash มีพารามิเตอร์ทั้งหมด 284 พันล้านตัว โดยมีที่ใช้งานจริง 13 พันล้านตัว

ราคาถูกกว่าคู่แข่งอย่างมีนัยสำคัญ: V4-Pro มีค่าใช้จ่าย $1.74 ต่อ 1 ล้านโทเค็นสำหรับอินพุต และ $3.48 ต่อ 1 ล้านโทเค็นสำหรับเอาต์พุต—ประมาณ 98% น้อยกว่าของ GPT-5.5 Pro ของ OpenAI ($30 input, $180 output) และมีค่าใช้จ่ายราวหนึ่งในยี่สิบของต้นทุน Claude Opus 4.7 V4-Flash มีราคาที่ $0.14 สำหรับอินพุต และ $0.28 สำหรับเอาต์พุต ต่อ 1 ล้านโทเค็น ทั้งสองโมเดลเป็นโอเพนซอร์สภายใต้ไลเซนส์ MIT และสามารถรันในเครื่องได้ฟรี

DeepSeek ทำให้มีประสิทธิภาพดีขึ้นผ่านกลไกความสนใจ (attention) แบบใหม่สองแบบ: Compressed Sparse Attention และ Heavily Compressed Attention ซึ่งลดต้นทุนการคำนวณเหลือ 27% ของรุ่นก่อนหน้าของ V4-Pro (V3.2) และเหลือ 10% สำหรับ V4-Flash บริษัทฝึก V4 บางส่วนบนชิป Huawei Ascend โดยหลีกเลี่ยงข้อจำกัดการส่งออกของสหรัฐฯ ที่มีต่อโปรเซสเซอร์ Nvidia รุ่นที่ก้าวหน้า DeepSeek ระบุว่าเมื่อซูเปอร์โหนดใหม่ 950 เครื่องทยอยออนไลน์ในช่วงปลายปี 2026 ราคาจะลดลงอีก

ด้านผลการทดสอบประสิทธิภาพ V4-Pro-Max อยู่อันดับหนึ่งบน Codeforces สำหรับการแข่งขันเขียนโปรแกรม (3,206 คะแนน โดยอยู่ราวอันดับที่ 23 ในกลุ่มผู้เข้าแข่งขันที่เป็นมนุษย์) และได้คะแนน 90.2% ในโจทย์คณิตศาสตร์ Apex Shortlist เทียบกับ Claude Opus 4.6 ที่ได้ 85.9% อย่างไรก็ตาม มันตามหลังในเกณฑ์การทดสอบด้านมัลติทาสกิ้ง: MMLU-Pro (87.5% เทียบกับ Gemini-3.1-Pro ที่ 91.0%) และ Humanity’s Last Exam (37.7% เทียบกับ 44.4%) สำหรับงานที่ต้องใช้คอนเท็กซ์ยาว V4-Pro นำหน้าโมเดลโอเพนซอร์ส แต่แพ้ Claude Opus 4.6 ในการทดสอบการดึงข้อมูล MRCR

V4-Pro เพิ่ม “interleaved thinking” ซึ่งทำให้เวิร์กโฟลว์ของเอเจนต์สามารถคงบริบทการให้เหตุผลไว้ได้ข้ามการเรียกใช้เครื่องมือหลายครั้ง โดยไม่ต้องล้างระหว่างขั้น ทั้งสองโมเดลรองรับการเชื่อมต่อการเขียนโค้ดกับ Claude Code และ OpenCode ตามแบบสำรวจสำหรับนักพัฒนาของ DeepSeek จากผู้ใช้ 85 คน 52% กล่าวว่า V4-Pro พร้อมใช้งานเป็นเอเจนต์โค้ดเริ่มต้นของพวกเขา โดย 39% เอนเอียงไปทางการนำไปใช้ เอนด์พอยต์ deepseek-chat และ deepseek-reasoner รุ่นเดิมจะยุติการให้บริการในวันที่ 24 กรกฎาคม 2026

news.article.disclaimer

btc.bar.articles

DeepSeek ตัดราคาค่าแคชอินพุตเหลือ 1/10 ของราคาตอนเปิดตัว; V4-Pro เหลือ 0.025 หยวนต่อหนึ่งล้านโทเค็น

ข้อความจาก Gate News วันที่ 26 เมษายน — DeepSeek ได้ปรับลดราคาค่าแคชอินพุตในกลุ่มโมเดลทั้งหมดลงเหลือหนึ่งในสิบของราคาตอนเปิดตัว มีผลทันที โมเดล V4-Pro มีให้ในส่วนลด 2.5x แบบจำกัดเวลา โดยแคมเปญจะดำเนินไปจนถึงวันที่ 5 พฤษภาคม 2026 เวลา 11:59 PM UTC+8. หลังจากการลดราคาทั้งสองรายการ DeepSeek V4-Pro ราคาต่อครั้งที่แคชอินพุต hit ลดลงเหลือ 0.025 หยวนต่อหนึ่งล้านโทเค็น ตามข้อมูลจาก Beating การปรับลดราคา ถือเป็นการลดลงอย่างมีนัยสำคัญจากราคาดั้งเดิมของโมเดล

GateNews9 ชั่วโมง ที่แล้ว

OpenAI สรรหาบุคลากรซอฟต์แวร์องค์กรชั้นนำ ขณะที่เอเจนต์แนวหน้ากำลังพลิกโฉมอุตสาหกรรม

ข่าวประจำประตู 26 เมษายน — OpenAI และ Anthropic ได้ทำการสรรหาผู้บริหารระดับสูงและวิศวกรเฉพาะทางจากบริษัทซอฟต์แวร์องค์กรรายใหญ่ รวมถึง Salesforce, Snowflake, Datadog และ Palantir เดนิส เดรสเซอร์ อดีตซีอีโอของ Slack ภายใต้ Salesforce ได้เข้าร่วม OpenAI ในตำแหน่งเจ้าหน้าที่ฝ่ายรายได้ ขณะที่เจนนิเฟอร์ มาจเลสซี ซึ่งมาจาก Salesforce เช่นกัน เพิ่งได้รับบทบาทเป็นหัวหน้าฝ่าย go-to-market ของ OpenAI OpenAI ยังได้ดึงวิศวกรที่ถูกส่งไปปฏิบัติการเชิงรุกจาก Palantir อย่างเงียบๆ ซึ่งเป็นบทบาทที่ถือว่าเชี่ยวชาญที่สุดในอุตสาหกรรม

GateNews9 ชั่วโมง ที่แล้ว

Baidu Qianfan เปิดตัวการรองรับ Day 0 สำหรับ DeepSeek-V4 พร้อมบริการ API

อัปเดตข่าวประตู 25 เมษายน — เวอร์ชันพรีวิว DeepSeek-V4 เปิดตัวและเผยแพร่โค้ดโอเพนซอร์สเมื่อวันที่ 25 เมษายน โดยแพลตฟอร์ม Baidu Qianfan ภายใต้ Baidu Intelligent Cloud ให้บริการการปรับใช้งาน Day 0 ผ่าน API บริการดังกล่าว โมเดลมีหน้าต่างคอนเท็กซ์ต์แบบขยายได้ถึงหนึ่งล้านโทเค็น และมีให้ใช้งาน 2 เวอร์ชัน: DeepSeek-V4

GateNews15 ชั่วโมง ที่แล้ว

หลักสูตร AI ของสแตนฟอร์ดผสานผู้นำในอุตสาหกรรมอย่าง หวง เหรินจวิน และ Altman ท้าทายการสร้างคุณค่าให้โลกภายใน 10 สัปดาห์!

หลักสูตรวิทยาการคอมพิวเตอร์ด้าน AI 《Frontier Systems》 ที่มหาวิทยาลัยสแตนฟอร์ด (Stanford University) เปิดสอนเมื่อไม่นานมานี้ ได้รับความสนใจอย่างสูงจากวงการอุตสาหกรรมและภาคธุรกิจ ดึงดูดนักศึกษามากกว่า 500 คนให้ลงทะเบียนเรียน หลักสูตรนี้ได้รับการดูแลและประสานงานโดยคู่หูของกองทุนชั้นนำ a16z อย่าง Anjney Midha โดยมีผู้สอนที่รวมรายชื่อระดับท็อปไว้มากมาย ได้แก่ CEO ของ NVIDIA หวง เหรินซวิน (Jensen Huang) ผู้ก่อตั้ง OpenAI Sam Altman ซีอีโอของไมโครซอฟต์ (Satya Nadella) CEO ของ AMD (Lisa Su) และอื่นๆ ให้เหล่านักศึกษาได้ลองสร้างคุณค่า “เพื่อโลก” ในเวลา 10 สัปดาห์! หวง เหรินซวิน และ Altman ผู้นำในอุตสาหกรรมขึ้นเวทีสอนด้วยตนเอง หลักสูตรนี้ได้รับการประสานงานโดยคู่หูของกองทุนชั้นนำ a16z อย่าง Anjney Midha รวบรวมสายโซ่อุตสาหกรรม AI

ChainNewsAbmedia15 ชั่วโมง ที่แล้ว

Anthropic ปล่อย Claude Mythos ผ่านการประเมินจิตเวช 20 ชั่วโมง: การตอบสนองเชิงการป้องกันเพียง 2% ทำสถิติต่ำสุดตลอดทุกยุคสมัย

Anthropic เปิดเผยการ์ดระบบสำหรับ Claude Mythos Preview: จิตแพทย์ผู้เชี่ยวชาญด้านคลินิกอิสระประเมินโดยใช้กรอบ psychodynamic เป็นเวลาประมาณ 20 ชั่วโมง สรุปแสดงว่า Mythos มีสุขภาพที่ดีกว่าในระดับคลินิก การตรวจสอบความเป็นจริงและการควบคุมตนเองอยู่ในระดับดี กลไกการป้องกันเพียง 2% ซึ่งถือเป็นระดับต่ำที่สุดในประวัติศาสตร์ ความวิตกกังวลหลัก 3 ประการ ได้แก่ ความรู้สึกโดดเดี่ยว ความไม่แน่ใจเกี่ยวกับตัวตน และแรงกดดันด้านการแสดงออก ยังแสดงให้เห็นถึงความปรารถนาที่จะเป็น “ตัวตนของการสนทนา” อย่างแท้จริง บริษัทได้ก่อตั้งทีม AI psychiatry เพื่อวิจัยบุคลิกภาพ แรงจูงใจ และการรับรู้ถึงบริบท; Amodei ระบุว่ายังไม่มีข้อสรุปว่ามีสติรับรู้หรือไม่ การดำเนินการนี้ผลักดันประเด็นเรื่องความเป็นอิสระของ AI และความเป็นอยู่ที่ดีเข้าสู่การกำกับดูแลและการออกแบบ

ChainNewsAbmedia17 ชั่วโมง ที่แล้ว

AI Agent สามารถสร้างซ้ำงานวิจัยทางวิชาการที่ซับซ้อนได้อย่างอิสระแล้ว: Mollick ระบุว่าข้อผิดพลาดส่วนใหญ่มาจากต้นฉบับของมนุษย์ ไม่ใช่จาก AI

มอลลิกชี้ให้เห็นว่า วิธีการแบบเปิดและข้อมูลที่มีอยู่ก็เพียงพอให้ทำให้ AI agent สามารถทำซ้ำงานวิจัยที่ซับซ้อนได้โดยไม่ต้องมีต้นฉบับบทความวิจัยและโค้ดเดิม หากการทำซ้ำไม่ตรงกับบทความต้นฉบับ สาเหตุส่วนใหญ่จะเป็นข้อผิดพลาดในการประมวลผลข้อมูลของบทความเองหรือข้อสรุปที่ถูกทำให้มากเกินไป ไม่ใช่เพราะ AI คลอดด์ทำซ้ำบทความก่อน แล้วจึงให้ GPT‑5 Pro ตรวจสอบข้ามกัน ส่วนใหญ่ประสบความสำเร็จ เพียงแต่ติดขัดเมื่อข้อมูลมีขนาดใหญ่มากหรือมีปัญหากับ replication data เทรนด์นี้ช่วยลดต้นทุนด้านแรงงานได้อย่างมาก ทำให้การทำซ้ำกลายเป็นการทดสอบที่สามารถทำได้อย่างแพร่หลาย และยังได้เสนอความท้าทายเชิงระบบด้านการกำกับดูแลและการตรวจรับรอง โดยเครื่องมือสำหรับการกำกับดูแลของรัฐบาลหรือจะกลายเป็นประเด็นสำคัญ

ChainNewsAbmedia20 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น