searchresults
2026-02-13
09:46

XRP Ledgerปลดล็อกยุคใหม่ของการฝากโทเค็น, หลังจากที่ XLS-85 เปิดตัว, สินทรัพย์เช่น RLUSD สามารถล็อคบนเชนได้

ข่าววันที่ 13 กุมภาพันธ์, XRP Ledger ได้เปิดใช้งานร่างแก้ไขการฝากโทเค็น XLS-85 อย่างเป็นทางการ ซึ่งอนุญาตให้ผู้ใช้สร้างบัญชีฝากสำหรับโทเค็นที่ออกแล้วได้ นี่หมายความว่า นอกจาก XRP เองแล้ว โทเค็น Trust Line และโทเค็นแบบมัลติฟังก์ชัน (MPT) ก็สามารถถูกล็อคบนเชนตามเงื่อนไข เพื่อให้การจัดการสินทรัพย์ในระบบการเงินแบบกระจายศูนย์และแอปพลิเคชันระดับองค์กรมีความยืดหยุ่นมากขึ้น ร่างแก้ไขนี้ได้รับการสนับสนุนจากผู้ตรวจสอบ 30 รายอีกครั้งในวันที่ 30 มกราคม 2026 ซึ่งเป็นเงื่อนไขในการเปิดใช้งาน และจะเปิดใช้งานในสองสัปดาห์ต่อมา ก่อนหน้านี้ XLS-85 เคยใกล้จะผ่านในเดือนกันยายน 2025 แต่เกิดความแตกแยกเนื่องจากปัญหาเกี่ยวกับความไม่เข้ากันได้กับมาตรฐาน MPT ซึ่งสนับสนุนลดลงเหลือเพียง 16 โหวต นักตรวจสอบ XRPL dUNL Vet ชี้ให้เห็นข้อบกพร่องของการบัญชีฝากในเรื่องค่าธรรมเนียมการโอนและการติดตามปริมาณการให้บริการ ชุมชนจึงเปิดตัว fixTokenEscrowV1 และนำเข้า Rippled v3.0.0 เพื่อฟื้นฟูความเชื่อมั่นและผลักดันให้เกิดการเปิดใช้งานในที่สุด
liveNews.More
XRP1.75%
MPT6.98%
02:48

🚀การแข่งขันเทรดมิราเคิลเพลย์ (MPT) เริ่มต้นขึ้นด้วยรางวัลมูลค่า $10,000! ⏳ ระยะเวลากิจกรรม: 04.22-04.29 11:00AM [UTC+8] ✅ เทรด $MPT$ เพื่อรับส่วนแบ่ง $8,000 ✅ สิทธิประโยชน์พิเศษสําหรับผู้ใช้ใหม่ในการแบ่งปันเงินรางวัลรวม $1,000 ✅ เชิญผู้ใช้ใหม่และเพลิดเพลินกับรางวัล $1,000 💸 มีส่วนร่วม: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
liveNews.More
MPT6.98%
04:57

TinyLlama ซึ่งเป็นโมเดลโอเพ่นซอร์สสําหรับ mini AI เปิดตัวและใช้พื้นที่เพียง 637 MB

ตามรายงานของ Webmaster's Home เมื่อวันที่ 6 มกราคม ทีม TinyLlama ได้เปิดตัวโมเดลโอเพ่นซอร์ส AI ประสิทธิภาพสูงที่มีพื้นที่เพียง 637 MB, TinyLlama TinyLlama เป็นเวอร์ชันกะทัดรัดของโมเดลภาษาโอเพนซอร์สของ Meta Llama2 ซึ่งมีพารามิเตอร์ 1 พันล้านตัวและประสิทธิภาพที่เหนือกว่าสําหรับการวิจัยแบบจําลองภาษาแบบหลายโดเมน และเวอร์ชันสุดท้ายมีประสิทธิภาพเหนือกว่าโมเดลภาษาโอเพนซอร์สที่มีอยู่ซึ่งมีขนาดใกล้เคียงกัน รวมถึง Pythia-1.4B, OPT-1.3B และ MPT-1.3B มีรายงานว่า TinyLlama สามารถปรับใช้บนอุปกรณ์ Edge และยังสามารถใช้เพื่อช่วยในการถอดรหัสการเก็งกําไรของโมเดลขนาดใหญ่
liveNews.More
07:39

Baidu Smart Cloud อัปเกรด "Qianfan Large Model Platform": เข้าถึง 33 โมเดล รวมถึง LLaMA2

ตามรายงาน "Kechuangban Daily" เมื่อวันที่ 2 สิงหาคม แพลตฟอร์มโมเดลขนาดใหญ่ของ Baidu Smart Cloud Qianfan ได้เสร็จสิ้นการอัปเกรดรอบใหม่แล้ว โดยสามารถเข้าถึงโมเดลขนาดใหญ่ 33 โมเดลได้อย่างเต็มที่ รวมถึง LLaMA2, ChatGLM2, RWKV, MPT, Dolly , OpenLLaMA และ Falcon ได้กลายเป็นแพลตฟอร์มที่มีโมเดลขนาดใหญ่จำนวนมากที่สุดในจีน และโมเดลที่เชื่อมต่อได้ผ่านการปรับปรุงประสิทธิภาพรองของแพลตฟอร์ม Qianfan และต้นทุนของเหตุผลของโมเดลสามารถลดลงได้ 50% ในขณะเดียวกัน แพลตฟอร์ม Qianfan ได้เปิดตัวไลบรารี่ preset_template ที่มีเทมเพลต 103 แบบ ครอบคลุมบทสนทนา เกม การเขียนโปรแกรม และการเขียนมากกว่าสิบสถานการณ์ นอกจากนี้ การอัปเกรดนี้ยังเปิดตัวปลั๊กอินใหม่อีกหลายตัวอีกด้วย
liveNews.More
06:55

MosaicML บริษัท AI เปิดตัวโมเดลพารามิเตอร์ 3 หมื่นล้าน MPT-30B โดยกล่าวว่าค่าใช้จ่ายในการฝึกอบรมเป็นเพียงเศษเสี้ยวของผลิตภัณฑ์คู่แข่ง

ตามรายงานของ IT House เมื่อวันที่ 25 มิถุนายน MosaicML สตาร์ทอัพ AI เพิ่งเปิดตัวโมเดลภาษา MPT-30B โมเดลนี้มีพารามิเตอร์ 30 พันล้านพารามิเตอร์ และต้นทุนการฝึกอบรมเป็น ขยายการประยุกต์ใช้แบบจำลอง AI ในสาขาต่างๆ ที่กว้างขึ้น Naveen Rao ซีอีโอและผู้ร่วมก่อตั้ง MosaicML กล่าวว่าค่าใช้จ่ายในการฝึกอบรมของ MPT-30B คือ 700,000 ดอลลาร์สหรัฐ (ประมาณ 5.0244 ล้านหยวน) ซึ่งต่ำกว่าหลายสิบล้านดอลลาร์ที่จำเป็นสำหรับผลิตภัณฑ์ที่คล้ายคลึงกัน เช่น GPT- 3. . นอกจากนี้ เนื่องจากต้นทุนที่ต่ำกว่าและขนาดที่เล็กกว่าของ MPT-30B ทำให้สามารถฝึกได้เร็วกว่าและเหมาะสมกว่าสำหรับการปรับใช้บนฮาร์ดแวร์ภายในเครื่อง มีรายงานว่า MosaicML ใช้เทคโนโลยี Alibi และ FlashAttention เพื่อเพิ่มประสิทธิภาพโมเดล ซึ่งสามารถบรรลุความยาวของข้อความที่ยาวขึ้นและการใช้งานการประมวลผล GPU ที่สูงขึ้น MosaicML ยังเป็นหนึ่งในห้องปฏิบัติการไม่กี่แห่งที่สามารถใช้ Nvidia H100 GPU ได้ เมื่อเทียบกับความสำเร็จก่อนหน้านี้ ปริมาณงานปัจจุบันของ GPU แต่ละตัวเพิ่มขึ้นมากกว่า 2.4 เท่า ซึ่งทำให้เสร็จเร็วขึ้น
liveNews.More