top of page
  • รูปภาพนักเขียนSertis

แนวทางการออกแบบ AI ที่คำนึงถึงจริยธรรม



ในอนาคตเราจะอยู่ในสังคมที่มี AI algorithm ที่หลากหลายและแพร่หลายในชีวิตประจำวัน โดย AI จะทำงานใกล้ชิดกับเราและสามารถตัดสินใจแทนมนุษย์ได้มากขึ้น เพราะฉะนั้นเราควรเริ่มมีการออกแบบ AI ที่คำนึงถึงความปลอดภัยและมีหลักจริยธรรมในการตัดสินใจ เพื่อให้เทคโนโลยีนี้มีประโยชน์สูงสุดกับมนุษย์

ในช่วงหลายปีที่ผ่านมามีผู้คนและนักวิชาการจากหลายศาสตร์หลายแขนง ร่วมกันนำเสนอแนวทางในการออกแบบ AI เพื่อมุ่งหมายที่จะทำให้ผู้ใช้งานรวมถึงผู้ออกแบบ เกิดความตระหนักและคำนึงถึงความปลอดภัยในการออกแบบ โดยมุ่งเน้นการทำให้มนุษย์เป็นศูนย์กลาง (Human centered AI) และทำความเข้าใจหลักการทำงานของ AI ให้ดีขึ้น ซึ่งผมจะขอยกตัวอย่างหัวข้อต่างๆ ที่สำคัญและน่าสนใจ ดังนี้

1. พฤติกรรมของเครื่อง (Machine behavior)

การทำความเข้าใจพฤติกรรมของ AI เป็นศาสตร์ที่รวมผู้เชี่ยวชาญในแขนงต่างๆ นอกเหนือจากวิศวกรรม โดยศึกษาพฤติกรรมการทำงานของ AI เหมือนที่เราศึกษาพฤติกรรมของคนหรือสัตว์ เพื่อคำนึงถึงผลกระทบในการใช้งาน ทั้งทางด้านสังคม วัฒนธรรม เศรษฐกิจ และการเมือง การศึกษานี้จะดูพฤติกรรม 3 ระดับ ได้แก่

1.) พฤติกรรมของ AI agent อย่างเดียว

2.) พฤติกรรมของกลุ่ม AI agent ที่ทำงานร่วมกัน

3.) พฤติกรรมของกลุ่ม AI ที่ผสมกับพฤติกรรมของมนุษย์

การดูพฤติกรรม AI agent อย่างเดียวสามารถดูได้แบบ within-machine โดยดูว่าพฤติกรรมของ AI agent เปลี่ยนไปอย่างไรเมื่อสถานการณ์เปลี่ยนหรือแบบ between-machine เพื่อดูว่าสถานการณ์เดียวกัน AI agent ที่ต่างกันมีพฤติกรรมเหมือนหรือแตกต่างกันอย่างไร

คำถามที่น่าสนใจคือ การมี AI เป็นส่วนหนึ่งของชีวิตจะทำให้พฤติกรรมมนุษย์เปลี่ยนไป หรือมนุษย์เองที่ทำให้พฤติกรรม AI เปลี่ยน หรืออาจเกิดพฤติกรรมร่วมระหว่างมนุษย์และ AI ในรูปแบบใหม่ ซึ่งสิ่งเหล่านี้ยังต้องมีการวิจัยเพิ่มมากขึ้น

2. การออกแบบที่คำนึงถึงจริยธรรม (Ethically aligned design)

สมาชิกของ IEEE สถาบันวิศวกรรมไฟฟ้าและอิเล็กทรอนิกส์ที่มีสมาชิกทั่วโลก ได้ช่วยกันร่าง framework ที่ใช้ในการพัฒนาระบบทำงานอัตโนมัติที่มีความฉลาด (A/IS – Autonomous and Intelligent Systems แต่ในบทความนี้ขอเรียกรวมๆ ว่า AI) โดยยึดถือหลักการต่อไปนี้ในการออกแบบ

1. Human rights: คำนึงถึงและไม่ล่วงละเมิดสิทธิมนุษยชน

ปัญหา: ทำอย่างไรเราจะมั่นใจว่า AI ไม่ล่วงล้ำสิทธิมนุษยชน คำแนะนำ:

1.) มีกรอบการจัดการเพื่อป้องกันสิทธิส่วนบุคคลและสร้างความเชื่อมั่นให้กับสาธารณะ 2.) มีวิธีที่จะเปลี่ยนข้อบังคับที่มีอยู่หรือที่กำลังจะมาถึงไปเป็นนโยบายหรือการพิจารณาทางเทคนิค 3.) ในอนาคต AI ไม่ควรมีสิทธิเท่าเทียมมนุษย์และควรอยู่ภายใต้ความควบคุมของมนุษย์

2. Well-being: ให้ความสำคัญกับความเป็นอยู่ของมนุษย์

ปัญหา: ตัวชี้วัดความเจริญแบบเดิมไม่ได้คำนึงถึงผลกระทบของเทคโนโลยี AI ที่มีต่อความเป็นอยู่ของมนุษย์ คำแนะนำ: ให้ความสำคัญกับความเป็นอยู่ของมนุษย์ในการออกแบบระบบ AI และใช้ตัวชี้วัดที่ดีที่สุดที่มีอยู่เป็นตัวอ้างอิง

3. Accountability: รับรองได้ว่าคนที่ออกแบบและผู้ใช้เทคโนโลยีมีความรับผิดชอบและตรวจสอบได้

ปัญหา: เราจะมั่นใจได้อย่างไรว่าคนออกแบบ ผู้ผลิต เจ้าของ ผู้ใช้ AI มีความรับผิดชอบและตรวจสอบได้ คำแนะนำ:

1.) ศาลควรจะอธิบายปัญหาความรับผิดชอบของ AI ระหว่างการพัฒนาและการใช้งาน 2.) ผู้ออกแบบและพัฒนาควรคำนึงถึงความหลากหลายด้านบรรทัดฐานทางวัฒนธรรม (cultural norms) ของผู้ใช้ 3.) ควรมีการพัฒนาระบบนิเวศที่มีผู้มีประโยชน์ร่วม (multi-stakeholder ecosystems) เพื่อทำให้เกิดบรรทัดฐานใหม่ที่จะมาเป็นรูปแบบปฏิบัติที่มีคุณภาพ (best practices) และออกเป็นกฎหมาย 4.) ควรมีระบบลงทะเบียนและบันทึกเพื่อการตรวจสอบหาผู้รับผิดชอบสำหรับระบบ AI

4. Transparency: รับรองได้ว่ามีความโปร่งใสในการทำงาน

ปัญหา: เราจะมั่นใจว่า AI โปร่งใสได้อย่างไร คำแนะนำ: พัฒนามาตรฐานใหม่ที่วัดและตรวจสอบระดับความโปร่งใสได้ เพื่อให้ระบบสามารถถูกประเมินและพิจารณาระดับของการปฏิบัติตามข้อกำหนด (levels of compliance)

5. Awareness of misuse: รับรู้ว่าใช้ในทางที่ผิด

ปัญหา: เราจะสามารถขยายประโยชน์และลดความเสี่ยงของการนำเทคโนโลยี AI ไปใช้ในทางที่ผิดได้อย่างไร คำแนะนำ:

1.) ให้การศึกษาด้านจริยธรรมและความมั่นคงเพื่อสร้างความตระหนักถึงการใช้ AI ในทางที่ถูกต้อง 2.) ขยายการศึกษาด้านนี้ให้ครอบคลุม 3.) ให้ความรู้กับภาครัฐ นักกฎหมาย ผู้บังคับใช้กฎหมาย ถึงปัญหาเหล่านี้เพื่อให้ประชาชนทำงานร่วมกัน และหลีกเลี่ยงความกลัวหรือความสับสนเกี่ยวกับเทคโนโลยี AI

เมื่อระบบ AI มีความเป็นอิสระในการตัดสินใจ (autonomy) มันควรจะถูกออกแบบให้เรียนรู้และทำตามบรรทัดฐาน (norms) หรือค่านิยม (values) ของสังคมที่ AI ทำงานอยู่ เราต้องสามารถอธิบายการกระทำของ AI เพื่อสร้างความเชื่อมั่นในการใช้งาน การจะนำบรรทัดฐานและค่านิยมมาเป็นส่วนหนึ่งในการออกแบบต้องคำนวณได้และยึดหลักว่า ต้องหาทางปฏิบัติและประเมินบรรทัดฐานที่กลุ่มคนใช้งานยอมรับ โดยต้องทบทวนกระบวนการนี้อย่างซ้ำๆ (iterative)

ในปีค.ศ. 2018 กลุ่มผู้เชี่ยวชาญหลากหลายสาขาใน EU (EU’s Ethics Guidelines For Trustworthy AI) ได้ร่วมกันร่างแนวทางจริยธรรมเพื่อการพัฒนา AI ที่น่าเชื่อถือ ซึ่งได้ผ่านการตรวจสอบและได้รับผลตอบรับ (feedback) จากผู้ร่วมตรวจสอบกว่า 500 คน โดยมุ่งเน้นว่าความน่าเชื่อ (trustworthiness) เป็นสิ่งจำเป็นที่มนุษย์และสังคมต้องมีในการพัฒนาและการใช้งาน AI 3. องค์ประกอบที่น่าเชื่อถือสำหรับ AI ที่ควรมีตลอดอายุการใช้งาน คือ

  1. Lawful ควรปฏิบัติตามกฎหมายและกฎระเบียบที่เหมาะสม

  2. Ethical ควรมีจริยธรรมที่สอดคล้องกับบรรทัดฐานและค่านิยม

  3. Robust ควรมีความทนทานทางด้านเทคนิคและสังคม

โดยแนวทางในการพัฒนาและใช้งานต้องคำนึงถึงหลักจริยธรรม เคารพความเป็นอิสระของมนุษย์ ป้องกันภัยอันตราย มีความเป็นธรรมและมีหลักการอธิบายได้ พร้อมที่จะแก้ไขจุดขัดแย้งที่อาจเกิดขึ้นจากหลักการที่กล่าวมาข้างต้น รวมทั้งให้ความสำคัญกับกลุ่มเปราะบาง (vulnerable group) เช่น เด็ก ผู้พิการ ผู้ด้อยโอกาสอื่นๆ นอกจากนี้ ต้องมีการเตรียมความพร้อมเพื่อรับความเสี่ยงต่อสังคมที่ไม่คาดคิดอย่างเหมาะสม

โดยภาพรวมแล้ว ใจความและหลักการของร่าง EU และแนวทางของหลายๆ กลุ่ม เช่น IBM everyday ethics ก็มีหลักการที่คล้ายกับ IEEE ที่เน้นมนุษย์เป็นศูนย์กลาง เพราะสุดท้ายแล้ว เรานำ AI มาใช้เพื่อก่อให้เกิดประโยชน์สูงสุดกับมนุษย์และสังคม ส่วนความท้าทายที่เรากำลังเผชิญ คือ การนำสิ่งที่เป็นนามธรรม เช่น จริยธรรม บรรทัดฐาน และค่านิยม ฝังเข้าไปเป็นส่วนหนึ่งในการออกแบบและใช้งาน AI นอกจากนี้ยังมีอีกหลากหลายมิติที่เนื้อหาในบทความนี้ยังไม่ครอบคลุม ผมอยากจะให้ทุกท่านได้เริ่มคิดและศึกษาดูครับ ซึ่งก็มีอะไรน่าคิดอีกเยอะเลย เช่น หากการออกแบบและพัฒนา AI ไม่ได้คำนึงถึงมนุษย์ ความเสี่ยงที่เราไม่คาดคิดจะเกิดขึ้นกับใคร คำถามนี้ก็เป็นสิ่งที่น่าคิดนะครับ



bottom of page