ASIC เตือนบริษัทการเงินเกี่ยวกับความเสี่ยงไซเบอร์จาก AI

CryptoFrontier

คณะกรรมการหลักทรัพย์และการลงทุนออสเตรเลีย (ASIC) เตือนบริษัทการเงินให้เสริมความแข็งแกร่งด้านการป้องกันไซเบอร์ โดยอ้างว่ารูปแบบ AI ขั้นสูง เช่น Mythos ของ Anthropic ทำให้เห็นช่องโหว่ในซอฟต์แวร์ รายงานของ Reuters ระบุว่า Simone Constant กรรมการของ ASIC กล่าวว่า บริษัทควรลงมือก่อนที่ภัยคุกคามจะชัดเจนขึ้น และให้ความสำคัญกับมาตรการพื้นฐานเพื่อความทนทานต่อภัยไซเบอร์

บริบทด้านกฎระเบียบ

คำเตือนดังกล่าวเกิดขึ้นหนึ่งเดือนหลังจาก Australian Prudential Regulation Authority ออกประกาศเตือนของตนเองเกี่ยวกับแนวทางปฏิบัติด้านความปลอดภัยที่รับมือกับ AI ไม่ไหว งานวิจัยแยกจาก Cambridge Centre for Alternative Finance พบว่าเพียง 20% ของหน่วยงานกำกับดูแลเท่านั้นที่นำ AI ขั้นสูงมาใช้ และผู้กำกับดูแลตามหลังบริษัทการเงินในการติดตามอันตรายที่กำลังเกิดขึ้น

ความสามารถในการโจมตีที่อาศัย Mythos

Mythos Preview ของ Anthropologic ไม่ได้จำกัดแค่การระบุช่องโหว่เท่านั้น—มันสามารถเขียนโค้ดเอ็กซ์พลอยต์ที่ใช้งานได้จริงสำหรับข้อบกพร่องของซอฟต์แวร์ โมเดลสามารถค้นพบและใช้ประโยชน์จากบั๊กที่มีอายุมากถึง 27 ปีใน OpenBSD ซึ่งเป็นระบบปฏิบัติการโอเพนซอร์สที่พัฒนาขึ้นเพื่อความปลอดภัย นอกจากนี้ Mythos ยังใช้ CVE-2026-4747 เพื่อให้เกิดการรันโค้ดระยะไกลในระดับ root ผ่าน Network File System (NFS) บน FreeBSD ซึ่งเป็นระบบปฏิบัติการโอเพนซอร์สอีกตัวหนึ่ง

Anthropic ระบุว่าโมเดลพบช่องโหว่ระดับความรุนแรงสูงหลายพันรายการในระบบปฏิบัติการและเว็บเบราว์เซอร์รายใหญ่ โดยจำนวนมากตรวจไม่พบมานานหลายปีหรือหลายทศวรรษ การเข้าถึง Mythos Preview ถูกจำกัด และ Project Glasswing รวบรวม Amazon Web Services ทีมความปลอดภัยของ Apple ทีมของ Google Microsoft NVIDIA และอื่นๆ เพื่อทำให้ซอฟต์แวร์ที่ถูกใช้งานอย่างแพร่หลายปลอดภัยก่อนที่เครื่องมือคล้ายกันจะแพร่กระจาย

ผลกระทบต่อเศรษฐศาสตร์ความปลอดภัยไซเบอร์

ความสามารถดังกล่าวเปลี่ยนต้นทุนและระยะเวลาสำหรับการเปิดฉากโจมตีไซเบอร์อย่างมีนัยสำคัญ บั๊กที่เคยถือว่าเสี่ยงต่ำกลับกลายเป็นประเด็นที่น่ากังวลมากขึ้น เพราะ Mythos Preview สามารถสร้างเอ็กซ์พลอยต์ได้ภายในไม่กี่ชั่วโมง งานที่ผู้ทดสอบเจาะระบบผู้เชี่ยวชาญระบุว่าจะใช้เวลาหลายสัปดาห์ด้วยวิธีการแบบดั้งเดิม ส่งผลให้บริษัทการเงินและองค์กรอื่นๆ อาจต้องมีรอบการอัปเดตแพตช์ที่เร็วขึ้นและมีระบบป้องกันที่ทำงานอัตโนมัติมากขึ้น

การทดสอบกับโมเดล AI แถวหน้าอื่นๆ บ่งชี้ว่าทักษะไซเบอร์ขั้นสูงมาพร้อมความก้าวหน้าด้าน AI ที่กว้างขึ้น ซึ่งชี้ว่าภัยคุกคามมีแนวโน้มจะทวีความรุนแรงขึ้น

FAQ

Mythos คืออะไร และเหตุใดจึงเป็นความกังวลสำหรับบริษัทการเงิน?

Mythos คือโมเดล AI ขั้นสูงของ Anthropic ที่สามารถระบุช่องโหว่ของซอฟต์แวร์และเขียนเอ็กซ์พลอยต์ที่ใช้งานได้จริง ASIC เตือนบริษัทการเงินเพราะ Mythos สามารถเปิดเผยจุดอ่อนด้านความปลอดภัยในระบบที่ใช้งานอย่างแพร่หลาย ทำให้เวลารวมถึงค่าใช้จ่ายที่ใช้ในการเปิดฉากโจมตีไซเบอร์ลดลง เหลือเพียงราคาของคีย์ API โมเดลแสดงให้เห็นความสามารถในการค้นพบช่องโหว่ระดับความรุนแรงสูงหลายพันรายการในระบบปฏิบัติการและเว็บเบราว์เซอร์

Mythos สร้างเอ็กซ์พลอยต์ได้เร็วแค่ไหนเมื่อเทียบกับวิธีแบบดั้งเดิม?

Mythos สามารถสร้างเอ็กซ์พลอยต์ได้ภายในไม่กี่ชั่วโมง ขณะที่ผู้ทดสอบเจาะระบบผู้เชี่ยวชาญกล่าวว่างานเดียวกันจะใช้เวลาหลายสัปดาห์ด้วยวิธีแบบดั้งเดิม ความเร่งดังกล่าวเปลี่ยนสมการด้านความปลอดภัยไซเบอร์อย่างรากฐาน และเพิ่มความเร่งด่วนในการแพตช์ช่องโหว่

หน่วยงานกำกับดูแลกำลังทำอะไรเพื่อรับมือความเสี่ยงไซเบอร์ที่ขับเคลื่อนด้วย AI?

ASIC แนะนำให้บริษัทการเงินเสริมความแข็งแกร่งด้านการป้องกันไซเบอร์ และเน้นมาตรการความทนทานต่อภัยไซเบอร์พื้นฐานก่อนที่ภัยคุกคามจะชัดเจนขึ้น Australian Prudential Regulation Authority ออกคำเตือนที่คล้ายกันเกี่ยวกับแนวทางด้านความปลอดภัยที่ตามหลังพัฒนาการของ AI Project Glasswing ซึ่งเกี่ยวข้องกับบริษัทเทคโนโลยีและคลาวด์รายใหญ่ ทำงานเพื่อทำให้ซอฟต์แวร์ที่ใช้กันอย่างแพร่หลายปลอดภัยก่อนที่เครื่องมือสร้างเอ็กซ์พลอยต์ลักษณะเดียวกันจะแพร่หลาย

news.article.disclaimer

btc.bar.articles

ศึก Anthropic Code Mode กับ MCP Vs CLI: เครื่องมือคุม Runtime และลด tokens จาก 150K เหลือ 2K

ตลอดทั้งปี 2025 ชุมชนวิศวกรรม AI ถกเถียงไม่จบในประเด็นว่า “MCP vs CLI” แบบไหนเหมาะกับการเรียกใช้งานเครื่องมือของ Agent มากกว่าจนกระทั่งงานวิจัยของ Anthropic ที่ตีพิมพ์ในเดือนพฤศจิกายน 2025 เรื่อง “Code execution with MCP” ได้กำหนดนิยามปัญหาขึ้นใหม่จากหลักการพื้นฐานที่สุด akshay\pachaar 5/10 สรุปไว้ใน thread ว่า ปัญหาไม่ได้อยู่ที่ “ตัวโปรโตคอล” เอง แต่คือ “นิสัยเก่าๆ ที่ยัดคำอธิบายเครื่องมือทั้งหมดเข้าไปใน context ตั้งแต่เริ่ม session” โดยวิธีของ Anthropic คือให้โมเดลเขียนโค้ดเพื่อเรียกเครื่องมือ

ChainNewsAbmedia1 ชั่วโมง ที่แล้ว

ByteDance วางแผนเพิ่มงบลงทุนโครงสร้างพื้นฐานด้าน AI 25% เป็น 200 พันล้านหยวนในปีนี้

อ้างอิงจาก ChainCatcher โดยอ้างถึง Golden Data ระบุว่า ByteDance วางแผนเพิ่มงบลงทุนโครงสร้างพื้นฐานด้าน AI 25% เป็น 200 พันล้านหยวนในปีนี้ โดยได้รับแรงหนุนจากต้นทุนชิปหน่วยความจำที่สูงขึ้นและการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ที่เร่งตัวขึ้น

GateNews2 ชั่วโมง ที่แล้ว

แพลตฟอร์ม AI ระดับองค์กรปิดรอบระดมทุนซีรีส์ $16M โดยมี a16z เป็นผู้นำ

ตามรายงานของ Odaily แพลตฟอร์ม AI ระดับองค์กร Pit ประกาศการปิดรอบระดมทุนมูลค่า 16 ล้านดอลลาร์ โดยมี a16z เป็นผู้นำ และได้รับการมีส่วนร่วมจาก Lakestar รวมถึงผู้บริหารจาก OpenAI, Anthropic, Google, Deel และ Revolut Pit วางตัวเองเป็น "AI product team as a service" โดยมีเป้าหมายเพื่อทดแทนสเปรดชีตแบบเดิมและระบบ SaaS ที่แข็งตัว

GateNews2 ชั่วโมง ที่แล้ว

Google ทดลองการสอบคัดเลือกที่เปิดโอกาสให้วิศวกรใช้เครื่องมือ AI

ตามรายงานของ The Chosun Daily กูเกิลกำลังทดลองใช้การสอบคัดเลือกงานที่อนุญาตให้ผู้สมัครวิศวกรซอฟต์แวร์ชาวสหรัฐใช้เครื่องมือ AI ได้ในตำแหน่งงานระดับเริ่มต้นและระดับกลางที่คัดเลือกมา แบบทดสอบนี้รวมถึงงานด้านความเข้าใจโค้ด โดยให้ผู้สมัครตรวจสอบโค้ดที่มีอยู่ แก้ไขบั๊ก และปรับปรุงประสิทธิภาพ ผู้สัมภาษณ์จะประเมินว่าผู้สมัคร “พรอมป์” ให้ AI อย่างไร ตรวจสอบผลลัพธ์ที่ได้ แก้ไขผลลัพธ์ และดีบักโค้ด โดยไม่ใช่ประเมินเพียงความสามารถในการเขียนโค้ดตั้งแต่เริ่มต้นเท่านั้น

GateNews4 ชั่วโมง ที่แล้ว

OpenAI ยุติ API การปรับแต่งโมเดล (Fine-tuning) ตั้งแต่มีผลทันที ผู้ใช้งานเดิมยังเข้าถึงได้จนถึงวันที่ 6 มกราคม 2027

ตามประกาศอย่างเป็นทางการของ OpenAI ที่ Beating เฝ้าติดตาม บริษัทจะยุติการให้บริการ Fine-tuning API แบบให้ผู้พัฒนาดำเนินการเอง (self-serve) ตั้งแต่ทันที ผู้ใช้รายใหม่ไม่สามารถสร้างงาน Fine-tuning ได้อีก ขณะที่ผู้ใช้งานที่ใช้งานอยู่แล้วสามารถเข้าถึงบริการได้จนถึงวันที่ 6 มกราคม 2027 โมเดลที่ถูก Fine-tuning แล้วจะมีบริการการอินเฟอเรนซ์ผูกกับวงจรชีวิตของโมเดลพื้นฐาน และจะยุติเมื่อโมเดลพื้นฐานถูกปลดออก OpenAI ระบุว่าโมเดลพื้นฐานรุ่นใหม่ เช่น GPT-5.5 ตอนนี้มีพลังเพียงพอในการปฏิบัติตามคำสั่งและรูปแบบ (

GateNews5 ชั่วโมง ที่แล้ว

Sakana AI และ Nvidia ทำได้เร็วกว่าการอินเฟอเรนซ์ H100 ถึง 30% ด้วยการข้ามการคำนวณที่ไม่ถูกต้อง 80%

Sakana AI และ Nvidia ได้เปิดซอร์ส TwELL ซึ่งเป็นรูปแบบข้อมูลแบบเบาบางที่ช่วยให้ GPU H100 ข้ามการคำนวณที่ไม่ถูกต้องไปถึง 80% ในโมเดลภาษาขนาดใหญ่โดยไม่ลดทอนความแม่นยำ โซลูชันนี้ช่วยให้การอนุมานเร็วขึ้นได้ถึง 30% และการฝึกเร็วขึ้น 24% บน H100 พร้อมทั้งลดการใช้หน่วยความจำสูงสุด ระหว่างการทดสอบกับโมเดลพารามิเตอร์ 1.5 พันล้าน วิธีดังกล่าวทำให้จำนวนประสาทที่ทำงานอยู่ลดลงต่ำกว่า 2% ด้วยการทำให้สม่ำเสมอแบบเบา (lightweight regularization) ระหว่างการฝึก โดยไม่พบการเสื่อมของประสิทธิภาพในงานปลายน้ำ 7 งาน

GateNews6 ชั่วโมง ที่แล้ว
แสดงความคิดเห็น
0/400
ReviewMonsterDoesn'tSleepvip
· 05-08 03:55
โมเดลอย่าง Mythos สามารถนำไปใช้เป็นเครื่องมือโจมตีได้ เทคโนโลยีไฟร์วอลล์แบบดั้งเดิมคงรับไม่ไหว ต้องใช้ AI ต่อสู้กับ AI แล้ว
ดูต้นฉบับตอบกลับ0
PocketValidatorvip
· 05-08 03:48
คณะกรรมาธิการพูดถูก รอให้เกิดปัญหาก็สายเกินไป แต่ปัญหาคือสถาบันขนาดกลางและเล็กจะมีงบประมาณทำการอัปเกรดความปลอดภัยระดับนี้ได้ที่ไหน? หน่วยงานกำกับดูแลควรให้การสนับสนุนที่เป็นรูปธรรมบ้าง
ดูต้นฉบับตอบกลับ0
雾里看TVLvip
· 05-08 03:48
ASIC ครั้งนี้เตือนล่วงหน้าค่อนข้างทันเวลา AI ค้นหาช่องโหว่ได้เร็วกว่ามนุษย์มาก สถาบันการเงินจริงๆ ต้องอัปเกรดมาตรการป้องกันแล้ว
ดูต้นฉบับตอบกลับ0