Iconiq Wealth Manager เตรียมระดมเงินเป็นพันล้านเพื่อกองทุน AI ใหม่

ข้อความจาก Gate News วันที่ 18 เมษายน — Iconiq ผู้จัดการความมั่งคั่งและนักลงทุนด้านเวนเจอร์จากซานฟรานซิสโก กำลังเตรียมระดมเงินหลายพันล้านดอลลาร์สำหรับกองทุนใหม่ที่มุ่งเน้นการลงทุนด้าน AI ตามเอกสารยื่นต่อหน่วยงานหลักทรัพย์และแหล่งข่าวที่คุ้นเคยกับเรื่องนี้ บริษัทได้ลงทุนมากกว่า $3 พันล้านดอลลาร์ในสตาร์ทอัปด้าน AI เพียงในปี 2025 ปีเดียว

Iconiq บริหารสินทรัพย์รวมประมาณ $100 พันล้านดอลลาร์ โดยราว $26 พันล้านดอลลาร์ทุ่มไว้เพื่อการลงทุนด้านเวนเจอร์ บริษัทได้ลงทุนประมาณ $4 พันล้านดอลลาร์ใน Anthropic ทำให้บริษัทกลายเป็นหนึ่งในผู้สนับสนุนรายใหญ่ที่สุดของสตาร์ทอัปดังกล่าว กองทุนเวนเจอร์ 4 กองทุนแรกของบริษัทติดอันดับควอไทล์บนของกลุ่มเพื่อน ณ สิ้นปี 2025 ตามข้อมูลของ Cambridge Associates

องค์ประกอบของฐานนักลงทุนของ Iconiq เปลี่ยนแปลงอย่างมีนัยสำคัญ ในกองทุนล่าสุดมูลค่า 5.75 พันล้านดอลลาร์ของบริษัท ลูกค้าด้านการจัดการความมั่งคั่งให้เงินทุนน้อยกว่า 20% เมื่อเทียบกับราวสองในสามในกองทุนแรกของบริษัท นักลงทุนสถาบัน รวมถึงกองทุนบำเหน็จบำนาญ เช่น New York State Common Retirement Fund ปัจจุบันติดอันดับเป็นหนึ่งในผู้สนับสนุนรายใหญ่ ในช่วงปีที่ผ่านมา Iconiq ได้ลงทุนด้าน AI แห่งใหม่ 6 รายการ รวมถึง Writer ซึ่งให้ซอฟต์แวร์สำหรับการสร้างข้อความด้วย AI แก่ธุรกิจ และ Pinecone ซึ่งมอบโครงสร้างพื้นฐานด้านข้อมูลสำหรับแอปพลิเคชันด้าน AI

Iconiq ก่อตั้งโดยที่ปรึกษาอดีตของ Goldman Sachs และ Morgan Stanley และมีสมาชิกในคณะกรรมการที่ปรึกษา ได้แก่ Mark Zuckerberg ผู้ร่วมก่อตั้ง Yahoo อย่าง Jerry Yang และ Mary Barra ประธานเจ้าหน้าที่บริหารของ General Motors กองทุนปี 2014 ของบริษัทให้ผลตอบแทน 5.5 เท่าของเงินทุนที่ลงทุน สะท้อนความมั่นใจต่อความต้องการด้าน AI ที่จะยังคงอยู่ในระบบนิเวศของเงินทุนเวนเจอร์

news.article.disclaimer

btc.bar.articles

IEA: การลงทุนโครงสร้างพื้นฐานด้าน AI ได้มากกว่าการลงทุนการผลิตน้ำมันและก๊าซแล้ว และในปี 2026 คาดว่าจะเพิ่มขึ้นอีก 75%

ตามรายงานการวิเคราะห์และข้อมูลตลาดที่เผยแพร่โดยสำนักงานพลังงานระหว่างประเทศ (IEA) เมื่อวันที่ 26 เมษายน การลงทุนรวมด้านงบลงทุน (capital expenditure) ของบริษัทเทคโนโลยีชั้นนำ 5 อันดับแรกในปี 2025 มีมูลค่ามากกว่า 400 พันล้านดอลลาร์สหรัฐ โดยมุ่งเน้นหลักไปที่การลงทุนโครงสร้างพื้นฐานด้าน AI ซึ่งมีขนาดใหญ่เกินกว่าขนาดการลงทุนประจำปีของการผลิตน้ำมันและก๊าซทั่วโลก IEA ประเมินว่า ในปี 2026 งบลงทุนที่เกี่ยวข้องอาจเพิ่มขึ้นอีก 75%

MarketWhisper9 นาที ที่แล้ว

วุฒิสมาชิก เบอร์นี แซนเดอร์ส ออกคำเตือนเกี่ยวกับภัยคุกคามเชิงดำรงอยู่ของ AI

แซนเดอร์สเน้นย้ำว่าแม้แต่นักวิทยาศาสตร์ด้าน AI ส่วนใหญ่จะยอมรับถึงความเป็นไปได้ที่ AI จะหลุดพ้นจากการควบคุมและกลายเป็นอันตรายต่อการดำรงอยู่ของเรา แต่ก็ยังไม่มีมาตรการสำคัญใดๆ ที่ถูกนำมาใช้เพื่อป้องกันมัน “เราต้องทำให้แน่ใจว่า AI เป็นประโยชน์ต่อมนุษยชาติ ไม่ใช่ทำร้ายเรา” เขากล่าว ประเด็นสำคัญที่ควรทราบ: เบอร์นี แซนเดอร์ส

Coinpedia18 นาที ที่แล้ว

ผู้รับผิดชอบโมเดลขนาดใหญ่ของ Xiaomi: การแข่งขันด้าน AI กำลังเข้าสู่ยุคของ Agent และการพัฒนาตัวเองคือเหตุการณ์สำคัญสู่ AGI

หัวหน้าทีมโมเดลขนาดใหญ่ของ Xiaomi คุณ Luo Fuli ให้สัมภาษณ์เชิงลึกบนแพลตฟอร์ม Bilibili เมื่อวันที่ 24 เมษายน (หมายเลขวิดีโอ: BV1iVoVBgERD) โดยมีความยาวในการสัมภาษณ์ 3.5 ชั่วโมง และถือเป็นครั้งแรกที่เธอในฐานะผู้รับผิดชอบด้านเทคโนโลยีได้อธิบายมุมมองทางเทคนิคอย่างเป็นระบบต่อสาธารณะ Luo Fuli กล่าวว่า การแข่งขันในสายงานโมเดลขนาดใหญ่ได้เปลี่ยนจากยุคของ Chat ไปสู่ยุคของ Agent แล้ว และชี้ว่า “การวิวัฒนาการด้วยตนเอง” จะเป็นเหตุการณ์สำคัญของ AGI ในปีหน้า

MarketWhisper19 นาที ที่แล้ว

xAI Grok Voice เข้ารับสายศูนย์บริการลูกค้าของ Starlink ทำให้ 70% ของสายโทรเข้าได้รับการปิดเคสอัตโนมัติ

ตามประกาศอย่างเป็นทางการของ xAI เมื่อวันที่ 23 เมษายน xAI ได้เปิดตัว Grok Voice Think Fast 1.0 ตัวแทน AI สำหรับเสียง และได้มีการติดตั้งใช้งานบนสายด่วนฝ่ายบริการลูกค้าของ Starlink +1 (888) GO STARLINK ตามข้อมูลการทดสอบที่เปิดเผยในประกาศ 70% ของสายโทรเข้าได้รับการปิดเคสโดย AI อัตโนมัติ ไม่จำเป็นต้องมีการแทรกแซงจากเจ้าหน้าที่มนุษย์

MarketWhisper30 นาที ที่แล้ว

GPT-5.5 กลับมาล้ำหน้าในการเขียนโค้ด แต่ OpenAI เปลี่ยนเกณฑ์มาตรฐานหลังแพ้ Opus 4.7

ข่าวประจำเกต 27 เมษายน — SemiAnalysis บริษัทวิเคราะห์เซมิคอนดักเตอร์และ AI ได้เผยแพร่มาตรฐานเปรียบเทียบเชิงเปรียบเทียบของผู้ช่วยการเขียนโค้ด รวมถึง GPT-5.5, Claude Opus 4.7 และ DeepSeek V4 ผลค้นหาที่สำคัญ: GPT-5.5 แสดงถึงการกลับสู่ขอบล้ำในการพัฒนาโมเดลการเขียนโค้ดของ OpenAI เป็นครั้งแรกในรอบหกเดือน โดยวิศวกรของ SemiAnalysis ตอนนี้สลับไปมาระหว่าง Codex และ Claude Code หลังจากก่อนหน้านี้พึ่งพา Claude เกือบทั้งหมด GPT-5.5 อ้างอิงจากแนวทางการพรีเทรนแบบใหม่ที่มีชื่อรหัสว่า "Spud" และถือเป็นการขยายขนาดการพรีเทรนครั้งแรกของ OpenAI นับตั้งแต่ GPT-4.5. ในการทดสอบเชิงปฏิบัติที่ชัดเจน ได้แยกบทบาทออกมาอย่างชัดเจน Claude จัดการการวางแผนโครงการใหม่และการตั้งค่าเริ่มต้น ในขณะที่ Codex โดดเด่นสำหรับการแก้บั๊กที่ต้องใช้การให้เหตุผลหนักๆ Codex แสดงความเข้าใจโครงสร้างข้อมูลและการให้เหตุผลเชิงตรรกะที่แข็งแกร่งกว่า แต่กลับมีปัญหาในการคาดเดาความตั้งใจของผู้ใช้ที่ไม่ชัดเจน ในงานที่คล้ายกันบนแดชบอร์ดเดียว Claude คัดลอกเค้าโครงหน้าจากตัวอย่างได้โดยอัตโนมัติแต่ได้สร้างข้อมูลจำนวนมากขึ้นมา ในขณะที่ Codex ข้ามเรื่องเค้าโครงแต่ให้ข้อมูลที่แม่นยำกว่ามาก การวิเคราะห์เผยรายละเอียดเกี่ยวกับการปรับแต่งเกณฑ์มาตรฐาน: โพสต์บล็อกของ OpenAI ในเดือนกุมภาพันธ์ได้เรียกร้องให้วงการนำ SWE-bench Pro มาเป็นมาตรฐานใหม่สำหรับการประเมินเกณฑ์การเขียนโค้ด อย่างไรก็ตาม การประกาศของ GPT-5.5 ได้เปลี่ยนไปใช้เกณฑ์มาตรฐานใหม่ที่ชื่อ "Expert-SWE" เหตุผล—ซ่อนอยู่ในส่วนปลีกย่อย—คือ GPT-5.5 ถูก Opus 4.7 แซงบน SWE-bench Pro และทำผลงานได้ต่ำกว่ามากเมื่อเทียบกับ Mythos ที่ยังไม่เผยแพร่ของ Anthropic 77.8%. สำหรับ Opus 4.7 Anthropic เผยแพร่การวิเคราะห์สรุปหลังเหตุการณ์ (postmortem) หนึ่งสัปดาห์หลังการเปิดตัว โดยยอมรับบั๊กสามจุดใน Claude Code ที่ยังคงอยู่ต่อเนื่องเป็นเวลาหลายสัปดาห์ตั้งแต่เดือนมีนาคมถึงเมษายน ส่งผลกระทบต่อผู้ใช้งานเกือบทั้งหมด วิศวกรหลายคนเคยรายงานว่าประสิทธิภาพลดลงในเวอร์ชัน 4.6 มาก่อน แต่ถูกมองว่าเป็นข้อสังเกตเชิงอัตวิสัย นอกจากนี้ โทเคไนเซอร์ใหม่ของ Opus 4.7 เพิ่มการใช้งานโทเคนได้สูงถึง 35% ซึ่ง Anthropic ยอมรับอย่างตรงไปตรงมา—ซึ่งเท่ากับเป็นการขึ้นราคาที่ซ่อนอยู่โดยปริยาย DeepSeek V4 ถูกประเมินว่า "ตามทันความก้าวหน้าในระดับแนวหน้าแต่ไม่ได้เป็นผู้นำ" โดยวางตำแหน่งตัวเองเป็นทางเลือกที่มีต้นทุนต่ำที่สุดในบรรดาโมเดลที่ปิดซอร์ส การวิเคราะห์ยังระบุว่า "Claude ยังคงทำผลงานได้ดีกว่า DeepSeek V4 Pro ในงานเขียนภาษาจีนที่มีความยากสูง" โดยแสดงความคิดเห็นว่า "Claude ชนะโมเดลภาษาจีนในภาษาเดียวกับที่มันใช้" บทความนำเสนอแนวคิดสำคัญว่า ควรประเมินราคาของโมเดลด้วย "ต้นทุนต่อหนึ่งงาน" แทนที่จะเป็น "ต้นทุนต่อหนึ่งโทเคน" ราคาของ GPT-5.5 เป็นสองเท่าของ GPT-5.4 input $5, output per million tokens แต่ทำงานเดียวกันได้โดยใช้โทเคนน้อยกว่า ดังนั้นต้นทุนที่แท้จริงจึงไม่ได้จำเป็นต้องสูงขึ้น ข้อมูลเบื้องต้นจาก SemiAnalysis แสดงว่าอัตราส่วนอินพุตต่อเอาต์พุตของ Codex อยู่ที่ 80:1 ต่ำกว่าของ Claude Code ที่ 100:1.

GateNews34 นาที ที่แล้ว

ผู้บริหาร Google DeepMind: ทุกบริษัทผลิตภัณฑ์ด้าน AI ควรสร้างเกณฑ์มาตรฐานเฉพาะของตนเอง

ข้อความข่าว Gate วันที่ 27 เมษายน — Logan Kilpatrick ผู้จัดการผลิตอาวุโสของ Google DeepMind และหัวหน้าฝ่ายผลิตภัณฑ์ของ Google AI Studio กล่าวบน X ว่าทุกบริษัทที่สร้างผลิตภัณฑ์ที่ขับเคลื่อนด้วย AI ควรจัดทำเกณฑ์มาตรฐานเฉพาะของตนเองเพื่อวัดประสิทธิภาพของโมเดล AI เขาอธิบายว่านี่เป็นวิธีเพื่อ

GateNews1 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
GateUser-f2645d1avip
· 04-18 00:45
มั่นคง HODL💎
ดูต้นฉบับตอบกลับ0