จะทำอย่างไร เมื่อ AI ทำงานผิดพลาด?

AUG 21, 2020

“ผิดเป็นครู” เป็นสำนวนไทยที่เตือนให้เราเรียนรู้จากความผิดพลาดที่เกิดขึ้นได้กับทุกการแวดวงการทำงาน แม้แต่ในการทำงานของทีมของผม ที่เกี่ยวกับการวิจัยและพัฒนา AI เอง ก็อาจเกิดความผิดพลาดขึ้นได้เช่นกัน เพื่อควบคุมและลดข้อผิดพลาดเหล่านั้น ทางทีมงานจึงต้องคำนึงถึง การจัดการความเสี่ยงของ AI/ML โมเดล อยู่โดยตลอด 

 

ดังคำกล่าวของ Benjamin Franklin ที่ว่า “If you don’t plan to fail, you fail to plan.” หรือ “ถ้าคุณไม่วางแผนที่จะพลาด คุณพลาดที่จะวางแผน” เทคโนโลยี AI เป็นเทคโนโลยีใหม่ที่คนส่วนใหญ่อาจจะถูกโน้มน้าวจากสื่อให้เชื่อถือมันมากกว่าที่ควรจะเป็น ดังนั้น นักวิจัยและพัฒนา AI ควรบริหารความคาดหวังและให้ความรู้กับลูกค้าและผู้ใช้งาน ถึงข้อจำกัดและสิ่งที่จะเกิดขึ้นหากโมเดลทำงานผิดพลาด

 

ในบทความนี้ผมขอสรุปสาเหตุและบทเรียนที่ได้เรียนรู้จากข้อผิดพลาดในการทำงานของ AI 

โดยทาง MITRE หน่วยงานที่ไม่แสวงหาผลกำไรที่ทำงานกับภาครัฐของสหรัฐอเมริกา ได้รวบรวมไว้ 

ซึ่งมีดังต่อไปนี้

 

6 ข้อผิดพลาดที่สามารถเกิดขึ้นได้กับการทำงานของ AI 

  1. ผิดพลาดเพราะมนุษย์คิดว่า AI มีความสามารถเกินกว่ามนุษย์ หรือทำงานได้สมบูรณ์แบบกว่า เช่นความสามารถในการคาดการณ์ได้อย่างแม่นยำและคิดเองได้ โดยคิดว่า AI ไม่ต้องการมนุษย์ในการควบคุมดูแล

  2. ผิดพลาดเพราะในโลกของความเป็นจริงมีสิ่งแวดล้อมเป็นองค์ประกอบและเป็นตัวแปร ซึ่ง AI จะทำงานที่เฉพาะเจาะจงได้ดี เช่น การจำสิ่งของ การแปลภาษา โดยขึ้นอยู่กับข้อมูลที่นำมาสอนในสถานการณ์นั้น ๆ ถ้าหากสถานการณ์แตกต่างออกไป เช่น ภาพไม่ชัด แสงน้อย มีประโยคแปลก ๆ ที่โมเดลของเครื่องจับสัญญาณได้ไม่ดี หรือ AI ไม่เคยเห็นข้อมูลลักษณะนี้มาก่อน AI ก็อาจจะทำงานได้ไม่ดี และไม่มีระบบความปลอดภัยที่ดีพอ ซึ่งอาจทำให้ถูกโจมตีทางไซเบอร์ (cybersecurity attack) นำไปสู่การทำงานที่ผิดพลาดได้

  3. ผิดพลาดเพราะการที่ AI ถูกสอนด้วยข้อมูลที่เฉพาะเจาะจง ไม่ครอบคลุมจากหลาย ๆ บริบท อาจทำให้ระบบไม่เข้าใจบริบททั้งหมด เช่น การที่ AI Facial Recognition ถูกสอนให้จดจำใบหน้าด้วยข้อมูลใบหน้าของคนที่มีผิวขาวเป็นจำนวนมาก อาจทำให้การจดจำใบหน้าของคนผิวดำไม่ดีพอเมื่อเทียบกับข้อมูลของคนผิวขาว ยิ่งไปกว่านั้น คือ ในยุคของการแข่งขันเพื่อแสดงศักยภาพด้าน AI ของประเทศอาจนำไปสู่การแข่งขันเร่งผลิตพัฒนาระบบ AI ที่ไม่ได้รับการตรวจสอบคุณภาพอย่างถี่ถ้วน 

  4. ผิดพลาดเพราะเข้าใจผิดว่าการพัฒนา AI สำเร็จแล้ว ก็ถือว่าเสร็จสิ้น แต่การพัฒนา AI ไม่มีวันสิ้นสุด แม้ว่าเราจะเราจะพัฒนา AI กับงานบางอย่างได้สำเร็จ แต่ก็ยังคงต้องพัฒนาต่อไป เพื่อให้มีความปลอดภัยที่สูงขึ้น และถูกออกแบบเพื่อใช้ในบริบทต่าง ๆ กันอย่างเหมาะสม

  5. ผิดพลาดเพราะวางใจในเทคโนโลยีมากเกินไป มนุษย์มีแนวโน้มที่จะเชื่อและชื่นชมเทคโนโลยีที่ตัวเองไม่คุ้นเคยมากกว่าที่ควรจะเป็น (Cognitive Bias)

  6. ผิดพลาดเพราะไม่มีระบบสนับสนุนที่ครอบคลุม มีหลายสิ่งที่ยังต้องใช้ในการสนับสนุนให้เกิดระบบ AI ที่ปลอดภัย นอกจากข้อมูล อัลกอริทึมต้องมีมุมมองอื่น ๆ เช่นการจัดการ กฎระเบียบ ผลกระทบทางสังคม สิ่งต่าง ๆ เหล่านี้เป็นเหมือนระบบนิเวศที่จะช่วยให้การพัฒนาระบบ AI มีความครอบคลุมในหลากหลายมิติ และช่วยลดความเสื่ยงต่าง ๆ ที่อาจส่งผลกระทบต่อสังคมในอนาคต ในความเป็นจริงเราคงไม่สามารถหาข้อมูลมาสอน AI ได้อย่างครบถ้วน เพราะฉะนั้นการจัดการความเสี่ยงเรื่องผลกระทบของการนำ AI ไปใช้งานจึงเป็นเรื่องที่สำคัญมาก

 

บทเรียนจากความคิดของคนเกี่ยวกับ AI

  1. Multidisciplinary: การพัฒนา AI เป็นปัญหาที่ต้องใช้ศาสตร์จากหลากหลายแขนง ที่ต้องคิดให้รอบด้าน ทั้งด้านเทคนิคและด้านพฤติกรรมของมนุษย์

  2. Multistakeholder: การนำ AI ไปใช้มีผลกระทบนอกเหนือจากผู้ใช้งานเท่านั้น จึงจำเป็นต้องเก็บข้อมูลผู้ที่จะได้รับผลกระทบ เพื่อพัฒนาและออกแบบให้เหมาะสม และเกิดผลกระทบที่ไม่คาดคิดน้อยที่สุด

  3. Bias: ในโลกนี้ไม่มีอะไรที่ไม่มีอคติ ข้อมูลต่าง ๆ ถูกเก็บโดยมนุษย์ (ซึ่งมีอคติไม่มากก็น้อย) โดยสมมติฐานของมนุษย์มีอิทธิพลต่อการสร้าง AI เพราะฉะนั้นสิ่งเหล่านี้อาจจะมีข้อมูลหลบซ่อนและมีผลต่อการสร้าง AI/ML โมเดล

  4. Documentation: เอกสารในการพัฒนาเป็นเครื่องมือสำคัญที่จะช่วยลดความผิดพลาดของระบบ การบันทึกจุดประสงค์ แนวคิดข้อดี ข้อเสียของการออกแบบ การตัดสินใจ และสมมติฐานของการพัฒนาระบบจะเป็นกระบวนการที่ช่วยในการตรวจสอบได้

  5. Accountability: ภาระความรับผิดชอบต้องขึ้นกับผลกระทบของระบบ AI ยิ่ง AI สร้างผลกระทบวงกว้างและรุนแรงไม่ว่าจะเป็นด้านทรัพย์สิน จิตใจ ร่างกาย ยิ่งต้องมีความรอบคอบรัดกุมในการพัฒนามากขึ้น

 

ในบทความหน้า ผมจะพูดถึงรายละเอียดที่จะลดและหลีกเลี่ยงข้อผิดพลาดที่จะเกิดขึ้นได้จากการทำงานของ AI รอติดตามกันนะครับ

 

References:

https://ethicsinaction.ieee.org/

https://sites.mitre.org/aifails/

บทความโดย
คุณจรัล งามวิโรจน์เจริญ
Chief Data Scientist & VP of Data Innovation Lab
บริษัท เซอร์ทิส จำกัด

Related Posts

PR_articles-MLhealthcare_Cover.jpg

CONTACT US

Bangkok Office

Sertis Co.,Ltd. 

Suite No.302, 3rd Floor

597/5 Sukhumvit Road,

Khlong Tun Nuea, Wattana, Bangkok, Thailand 10110

Singapore Office

Sertis International Pte. Ltd.

3 Pickering Street

#03-05 Singapore 048660

© 2020 Sertis Co.,Ltd. All rights reserved.

  • Sertis Facebook
  • Sertis Linkedin
  • Sertis Channel
Sertis-Logo_2020.png