แรงกดดันต่อบริษัทให้ตามให้ทันการเปลี่ยนแปลงด้านกฎระเบียบยังคงมีอยู่และเพิ่มขึ้น แล้วทำไมการปฏิบัติตามกฎระเบียบจึงช้าในการนำ AI มาใช้ ทั้งที่มันอาจเป็นประโยชน์อย่างมาก?
ผู้กำกับดูแลส่วนใหญ่ก็เห็นด้วยว่า เมื่อพูดถึงการตัดสินใจโดยใช้ AI ต้องมีความรับผิดชอบอยู่เสมอ หากโมเดล AI บล็อกธุรกรรมที่ถูกต้องตามกฎหมายโดยผิดพลาด หรือมองข้ามธุรกรรมฉ้อโกง ความรับผิดชอบสุดท้ายก็ยังคงอยู่ที่บริษัท และเป็นเจ้าหน้าที่ปฏิบัติตามกฎระเบียบมนุษย์ที่ต้องรับผิดชอบ
สิ่งนี้สร้างความระมัดระวังตามธรรมชาติ: ผู้นำด้านการปฏิบัติตามกฎระเบียบต้องชั่งน้ำหนักระหว่างประโยชน์ของการตรวจสอบที่รวดเร็วขึ้นกับความเสี่ยงของบทลงโทษทางกฎระเบียบ และจนกว่าระบบ AI จะสามารถอธิบายและโปร่งใสมากขึ้น ก็มีแนวโน้มว่าบริษัทจำนวนมากจะลังเลที่จะให้ AI ตัดสินใจโดยอิสระ
วิธีการนำ AI ไปใช้ในทางรับผิดชอบ
บทเรียนสำคัญที่ได้จากทุกสิ่งข้างต้นคือ ความลังเลของผู้นำด้านการปฏิบัติตามกฎไม่ได้หมายความว่าพวกเขาคัดค้าน AI แต่อย่างใด จริง ๆ แล้ว หลายคนมองในแง่ดีเกี่ยวกับบทบาทของ AI ในอนาคต สิ่งสำคัญคือการหาวิธีที่เหมาะสมในการก้าวไปข้างหน้า
ตามที่ผมมอง การแนวทางที่เป็นธรรมชาติและมีแนวโน้มที่สุดคือการนำโมเดลแบบผสมผสานมาใช้ เป็นความร่วมมือระหว่างมนุษย์และ AI ซึ่ง AI ทำงานหนัก เช่น การสแกนธุรกรรม การแจ้งเตือนกิจกรรมผิดปกติ หรือการสร้างรายงาน และเมื่อผลลัพธ์พร้อมแล้ว มนุษย์สามารถตรวจสอบ วิเคราะห์บริบทของการตัดสินใจของ AI และตัดสินใจขั้นสุดท้าย
แต่เพื่อให้สามารถใช้โมเดลเช่นนี้ได้ บริษัทจำเป็นต้องทำให้ระบบ AI ของตนสามารถอธิบายได้ การปฏิบัติตามกฎระเบียบไม่ใช่แค่การตรวจจับความเสี่ยงเท่านั้น แต่เป็นการพิสูจน์ว่าการตัดสินใจเป็นธรรม ซึ่งเป็นเหตุผลที่ตลาดต้องการเครื่องมือ AI ที่สามารถอธิบายผลลัพธ์ของตนในภาษาที่เข้าใจง่าย
มันไม่ใช่เรื่อง “คน vs. เครื่อง”
ในความเป็นจริง ผมไม่เห็น AI ทำให้เจ้าหน้าที่ปฏิบัติตามกฎระเบียบกลายเป็นสิ่งล้าสมัย ยิ่งไปกว่านั้น น่าจะเป็นไปได้มากกว่าที่บทบาทของพวกเขาจะเปลี่ยนจากผู้ปฏิบัติเป็นผู้จัดการ เจ้าหน้าที่จะใช้เวลาน้อยลงในการตรวจสอบด้วยตนเอง และเปลี่ยนมาเป็นการตรวจสอบซ้ำคำตัดสินใจของ AI แทน ซึ่งจะเน้นไปที่พื้นที่สีเทาที่เครื่องยังคงขาดแคลน
ในที่สุดแล้ว การปฏิบัติตามกฎระเบียบเป็นธุรกิจที่ต้องใช้มนุษย์ และแม้ AI จะช่วยให้ทีมปฏิบัติตามกฎเร็วขึ้นและมีประสิทธิภาพมากขึ้น แต่ก็ไม่สามารถรับผิดชอบด้านจริยธรรมและกฎระเบียบที่มาพร้อมกับมันได้
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ปัญหาทางจริยธรรมของ AI: ความไว้วางใจยังคงเป็นของมนุษย์
Roman Eloshvili เป็นผู้ก่อตั้งและประธานเจ้าหน้าที่บริหารของ XData Group ซึ่งเป็นบริษัทพัฒนาซอฟต์แวร์ B2B ที่นั่น เขาดำเนินการพัฒนา AI ในธนาคาร พร้อมทั้งดูแลความสัมพันธ์กับนักลงทุนและส่งเสริมความสามารถในการขยายธุรกิจ เขายังเป็นผู้ก่อตั้ง ComplyControl สตาร์ทอัป RegTech ที่ตั้งอยู่ในสหราชอาณาจักร ซึ่งเชี่ยวชาญด้านโซลูชันเทคโนโลยีล้ำสมัยสำหรับธนาคาร
ค้นพบข่าวและกิจกรรมด้านฟินเทคชั้นนำ!
สมัครรับจดหมายข่าว FinTech Weekly
อ่านโดยผู้บริหารจาก JP Morgan, Coinbase, Blackrock, Klarna และอื่น ๆ
ธนาคารและฟินเทคทั่วโลกกำลังมองหาวิธีใช้ปัญญาประดิษฐ์ในหลายด้าน: เพื่อเร่งความเร็วในการดำเนินงาน ลดต้นทุน ปรับปรุงการติดต่อกับลูกค้า และอื่น ๆ และอย่างไรก็ตาม เมื่อพูดถึงการปฏิบัติตามกฎระเบียบ — ซึ่งเป็นหนึ่งในส่วนที่ท้าทายและใช้เวลามากที่สุดของการเงิน — บริษัทส่วนใหญ่มักยังคงลังเล
ผลสำรวจที่ดำเนินการในต้นปี 2025 พบว่า มีเพียงส่วนน้อยมาก (น้อยกว่า 2%) เท่านั้นที่ได้บูรณาการ AI เข้ากับกระบวนการทำงานอย่างเต็มที่ อย่างไรก็ตาม ส่วนใหญ่ยังคงอยู่ในขั้นตอนการสำรวจและนำไปใช้ในระดับเริ่มต้น หากพวกเขานำไปใช้จริง ๆ ก็เป็นไปได้ว่ากำลังอยู่ในช่วงทดลอง
แรงกดดันต่อบริษัทให้ตามให้ทันการเปลี่ยนแปลงด้านกฎระเบียบยังคงมีอยู่และเพิ่มขึ้น แล้วทำไมการปฏิบัติตามกฎระเบียบจึงช้าในการนำ AI มาใช้ ทั้งที่มันอาจเป็นประโยชน์อย่างมาก?
ลองมาหาคำตอบกันดู
สายตาของมนุษย์ยังคงสำคัญอยู่
สิ่งแรกและสำคัญที่สุดที่เราต้องจำไว้คือ การปฏิบัติตามกฎระเบียบไม่ใช่แค่การทำตามเช็คลิสต์ มันเกี่ยวกับการตัดสินใจในสถานการณ์ที่มักอยู่ในพื้นที่สีเทา โลกของการตัดสินใจทางการเงินแทบไม่ใช่ขาวดำเสมอไป กฎระเบียบแตกต่างกันไปในแต่ละเขตอำนาจศาล และการตีความกฎเหล่านั้นก็ไม่ใช่เรื่องง่าย
AI เก่งมากในการวิเคราะห์ข้อมูลอย่างรวดเร็วและตรวจจับความผิดปกติ แต่ในขณะที่มันสามารถแจ้งเตือนธุรกรรมที่ดูน่าสงสัยตามรูปแบบที่ตั้งไว้ล่วงหน้า นั่นไม่ได้หมายความว่ามันสามารถอธิบายเหตุผลเบื้องหลังข้อสรุปของมันได้อย่างชัดเจน ที่สำคัญ มันยังลำบากกับความละเอียดอ่อน เจ้าหน้าที่ปฏิบัติตามกฎระเบียบมนุษย์สามารถตรวจจับได้ว่า พฤติกรรมของลูกค้าแม้จะผิดปกติ แต่ก็ไม่เป็นอันตราย AI ในทางกลับกัน มีแนวโน้มที่จะเพียงแค่ส่งสัญญาณเตือนโดยไม่มีบริบท
นี่คือเหตุผลที่ผู้นำด้านการปฏิบัติตามกฎระเบียบยังลังเลที่จะปล่อยให้เครื่องจักรเป็นผู้ตัดสินใจ เครื่องจักรสามารถช่วยได้แน่นอน แต่คนส่วนใหญ่มักจะยังคงเชื่อมั่นในความสามารถของมนุษย์ในการมองภาพรวมและตัดสินใจตามนั้นมากกว่า
ประสิทธิภาพ vs. ความเสี่ยงด้านกฎระเบียบและชื่อเสียง
ความสามารถของ AI ในการวิเคราะห์ธุรกรรมหลายพันรายการแบบเรียลไทม์เป็นสิ่งที่ทีมปฏิบัติตามกฎระเบียบไม่สามารถทำได้ในโหมดแมนนวล ดังนั้นในแง่ของประสิทธิภาพ ไม่มีใครปฏิเสธว่าเป็นเครื่องมือสนับสนุนที่ดี ช่วยลดภาระงานให้พนักงานมนุษย์สามารถมุ่งเน้นไปที่งานเชิงกลยุทธ์และละเอียดอ่อนมากขึ้น
แต่การปฏิบัติตามกฎระเบียบไม่ใช่แค่เรื่องความเร็วเท่านั้น หากระบบ AI ทำผิดพลาดในการตัดสินใจ อาจหมายถึงค่าปรับ ความเสียหายต่อชื่อเสียง หรือการตรวจสอบจากหน่วยงานกำกับดูแล ทั้งหมดนี้อาจเป็นอันตรายต่อธุรกิจ — อาจถึงขั้นทำลายล้างได้ แล้วจึงไม่แปลกที่หลายบริษัทต้องการหลีกเลี่ยงความซับซ้อนเช่นนี้
ผู้กำกับดูแลส่วนใหญ่ก็เห็นด้วยว่า เมื่อพูดถึงการตัดสินใจโดยใช้ AI ต้องมีความรับผิดชอบอยู่เสมอ หากโมเดล AI บล็อกธุรกรรมที่ถูกต้องตามกฎหมายโดยผิดพลาด หรือมองข้ามธุรกรรมฉ้อโกง ความรับผิดชอบสุดท้ายก็ยังคงอยู่ที่บริษัท และเป็นเจ้าหน้าที่ปฏิบัติตามกฎระเบียบมนุษย์ที่ต้องรับผิดชอบ
สิ่งนี้สร้างความระมัดระวังตามธรรมชาติ: ผู้นำด้านการปฏิบัติตามกฎระเบียบต้องชั่งน้ำหนักระหว่างประโยชน์ของการตรวจสอบที่รวดเร็วขึ้นกับความเสี่ยงของบทลงโทษทางกฎระเบียบ และจนกว่าระบบ AI จะสามารถอธิบายและโปร่งใสมากขึ้น ก็มีแนวโน้มว่าบริษัทจำนวนมากจะลังเลที่จะให้ AI ตัดสินใจโดยอิสระ
วิธีการนำ AI ไปใช้ในทางรับผิดชอบ
บทเรียนสำคัญที่ได้จากทุกสิ่งข้างต้นคือ ความลังเลของผู้นำด้านการปฏิบัติตามกฎไม่ได้หมายความว่าพวกเขาคัดค้าน AI แต่อย่างใด จริง ๆ แล้ว หลายคนมองในแง่ดีเกี่ยวกับบทบาทของ AI ในอนาคต สิ่งสำคัญคือการหาวิธีที่เหมาะสมในการก้าวไปข้างหน้า
ตามที่ผมมอง การแนวทางที่เป็นธรรมชาติและมีแนวโน้มที่สุดคือการนำโมเดลแบบผสมผสานมาใช้ เป็นความร่วมมือระหว่างมนุษย์และ AI ซึ่ง AI ทำงานหนัก เช่น การสแกนธุรกรรม การแจ้งเตือนกิจกรรมผิดปกติ หรือการสร้างรายงาน และเมื่อผลลัพธ์พร้อมแล้ว มนุษย์สามารถตรวจสอบ วิเคราะห์บริบทของการตัดสินใจของ AI และตัดสินใจขั้นสุดท้าย
แต่เพื่อให้สามารถใช้โมเดลเช่นนี้ได้ บริษัทจำเป็นต้องทำให้ระบบ AI ของตนสามารถอธิบายได้ การปฏิบัติตามกฎระเบียบไม่ใช่แค่การตรวจจับความเสี่ยงเท่านั้น แต่เป็นการพิสูจน์ว่าการตัดสินใจเป็นธรรม ซึ่งเป็นเหตุผลที่ตลาดต้องการเครื่องมือ AI ที่สามารถอธิบายผลลัพธ์ของตนในภาษาที่เข้าใจง่าย
มันไม่ใช่เรื่อง “คน vs. เครื่อง”
ในความเป็นจริง ผมไม่เห็น AI ทำให้เจ้าหน้าที่ปฏิบัติตามกฎระเบียบกลายเป็นสิ่งล้าสมัย ยิ่งไปกว่านั้น น่าจะเป็นไปได้มากกว่าที่บทบาทของพวกเขาจะเปลี่ยนจากผู้ปฏิบัติเป็นผู้จัดการ เจ้าหน้าที่จะใช้เวลาน้อยลงในการตรวจสอบด้วยตนเอง และเปลี่ยนมาเป็นการตรวจสอบซ้ำคำตัดสินใจของ AI แทน ซึ่งจะเน้นไปที่พื้นที่สีเทาที่เครื่องยังคงขาดแคลน
ในที่สุดแล้ว การปฏิบัติตามกฎระเบียบเป็นธุรกิจที่ต้องใช้มนุษย์ และแม้ AI จะช่วยให้ทีมปฏิบัติตามกฎเร็วขึ้นและมีประสิทธิภาพมากขึ้น แต่ก็ไม่สามารถรับผิดชอบด้านจริยธรรมและกฎระเบียบที่มาพร้อมกับมันได้
ดังนั้น ผมเชื่ออย่างแน่วแน่ว่าอนาคตของการปฏิบัติตามกฎจะไม่ใช่เรื่อง “คนกับเครื่อง” แต่เป็น “คนกับเครื่อง” ที่ทำงานร่วมกันเพื่อรักษาความปลอดภัยและความเป็นธรรมของระบบการเงิน