AI ETHICS BY DESIGN

แนวทางการออกแบบ AI ที่คำนึงถึงจริยธรรม

JUNE 24, 2019

ในอนาคตเราจะอยู่ในสังคมที่มี AI algorithm ที่หลากหลายและแพร่หลายในชีวิตประจำวัน โดย AI จะทำงานใกล้ชิดกับเราและสามารถตัดสินใจแทนมนุษย์ได้มากขึ้น เพราะฉะนั้นเราควรเริ่มมีการออกแบบ AI ที่คำนึงถึงความปลอดภัยและมีหลักจริยธรรมในการตัดสินใจ เพื่อให้เทคโนโลยีนี้มีประโยชน์สูงสุดกับมนุษย์

ในช่วงหลายปีที่ผ่านมามีผู้คนและนักวิชาการจากหลายศาสตร์หลายแขนง ร่วมกันนำเสนอแนวทางในการออกแบบ AI เพื่อมุ่งหมายที่จะทำให้ผู้ใช้งานรวมถึงผู้ออกแบบ เกิดความตระหนักและคำนึงถึงความปลอดภัยในการออกแบบ โดยมุ่งเน้นการทำให้มนุษย์เป็นศูนย์กลาง (Human centered AI) และทำความเข้าใจหลักการทำงานของ AI ให้ดีขึ้น ซึ่งผมจะขอยกตัวอย่างหัวข้อต่างๆ ที่สำคัญและน่าสนใจ ดังนี้

1. พฤติกรรมของเครื่อง (Machine behavior)

การทำความเข้าใจพฤติกรรมของ AI เป็นศาสตร์ที่รวมผู้เชี่ยวชาญในแขนงต่างๆ นอกเหนือจากวิศวกรรม โดยศึกษาพฤติกรรมการทำงานของ AI เหมือนที่เราศึกษาพฤติกรรมของคนหรือสัตว์ เพื่อคำนึงถึงผลกระทบในการใช้งาน ทั้งทางด้านสังคม วัฒนธรรม เศรษฐกิจ และการเมือง การศึกษานี้จะดูพฤติกรรม 3 ระดับ ได้แก่

1.) พฤติกรรมของ AI agent อย่างเดียว

2.) พฤติกรรมของกลุ่ม AI agent ที่ทำงานร่วมกัน

3.) พฤติกรรมของกลุ่ม AI ที่ผสมกับพฤติกรรมของมนุษย์

การดูพฤติกรรม AI agent อย่างเดียวสามารถดูได้แบบ within-machine โดยดูว่าพฤติกรรมของ AI agent เปลี่ยนไปอย่างไรเมื่อสถานการณ์เปลี่ยนหรือแบบ between-machine เพื่อดูว่าสถานการณ์เดียวกัน AI agent ที่ต่างกันมีพฤติกรรมเหมือนหรือแตกต่างกันอย่างไร

คำถามที่น่าสนใจคือ การมี AI เป็นส่วนหนึ่งของชีวิตจะทำให้พฤติกรรมมนุษย์เปลี่ยนไป หรือมนุษย์เองที่ทำให้พฤติกรรม AI เปลี่ยน หรืออาจเกิดพฤติกรรมร่วมระหว่างมนุษย์และ AI ในรูปแบบใหม่ ซึ่งสิ่งเหล่านี้ยังต้องมีการวิจัยเพิ่มมากขึ้น

2. การออกแบบที่คำนึงถึงจริยธรรม (Ethically aligned design)  

สมาชิกของ IEEE สถาบันวิศวกรรมไฟฟ้าและอิเล็กทรอนิกส์ที่มีสมาชิกทั่วโลก ได้ช่วยกันร่าง framework ที่ใช้ในการพัฒนาระบบทำงานอัตโนมัติที่มีความฉลาด (A/IS – Autonomous and Intelligent Systems แต่ในบทความนี้ขอเรียกรวมๆ ว่า AI) โดยยึดถือหลักการต่อไปนี้ในการออกแบบ

  1. Human rights: คำนึงถึงและไม่ล่วงละเมิดสิทธิมนุษยชน

ปัญหา: ทำอย่างไรเราจะมั่นใจว่า AI ไม่ล่วงล้ำสิทธิมนุษยชน
คำแนะนำ:

1.) มีกรอบการจัดการเพื่อป้องกันสิทธิส่วนบุคคลและสร้างความเชื่อมั่นให้กับสาธารณะ
2.) มีวิธีที่จะเปลี่ยนข้อบังคับที่มีอยู่หรือที่กำลังจะมาถึงไปเป็นนโยบายหรือการพิจารณาทางเทคนิค
3.) ในอนาคต AI ไม่ควรมีสิทธิเท่าเทียมมนุษย์และควรอยู่ภายใต้ความควบคุมของมนุษย์

  2. Well-being: ให้ความสำคัญกับความเป็นอยู่ของมนุษย์

ปัญหา: ตัวชี้วัดความเจริญแบบเดิมไม่ได้คำนึงถึงผลกระทบของเทคโนโลยี AI ที่มีต่อความเป็นอยู่ของมนุษย์
คำแนะนำ: ให้ความสำคัญกับความเป็นอยู่ของมนุษย์ในการออกแบบระบบ AI และใช้ตัวชี้วัดที่ดีที่สุดที่มีอยู่เป็นตัวอ้างอิง

  3. Accountability: รับรองได้ว่าคนที่ออกแบบและผู้ใช้เทคโนโลยีมีความรับผิดชอบและตรวจสอบได้

ปัญหา: เราจะมั่นใจได้อย่างไรว่าคนออกแบบ ผู้ผลิต เจ้าของ ผู้ใช้ AI มีความรับผิดชอบและตรวจสอบได้
คำแนะนำ:

1.) ศาลควรจะอธิบายปัญหาความรับผิดชอบของ AI ระหว่างการพัฒนาและการใช้งาน
2.) ผู้ออกแบบและพัฒนาควรคำนึงถึงความหลากหลายด้านบรรทัดฐานทางวัฒนธรรม (cultural norms) ของผู้ใช้
3.) ควรมีการพัฒนาระบบนิเวศที่มีผู้มีประโยชน์ร่วม (multi-stakeholder ecosystems) เพื่อทำให้เกิดบรรทัดฐานใหม่ที่จะมาเป็นรูปแบบปฏิบัติที่มีคุณภาพ (best practices) และออกเป็นกฎหมาย
4.) ควรมีระบบลงทะเบียนและบันทึกเพื่อการตรวจสอบหาผู้รับผิดชอบสำหรับระบบ AI

  4. Transparency: รับรองได้ว่ามีความโปร่งใสในการทำงาน

ปัญหา: เราจะมั่นใจว่า AI โปร่งใสได้อย่างไร
คำแนะนำ: พัฒนามาตรฐานใหม่ที่วัดและตรวจสอบระดับความโปร่งใสได้ เพื่อให้ระบบสามารถถูกประเมินและพิจารณาระดับของการปฏิบัติตามข้อกำหนด (levels of compliance)

  5. Awareness of misuse: รับรู้ว่าใช้ในทางที่ผิด

ปัญหา: เราจะสามารถขยายประโยชน์และลดความเสี่ยงของการนำเทคโนโลยี AI ไปใช้ในทางที่ผิดได้อย่างไร
คำแนะนำ:

1.) ให้การศึกษาด้านจริยธรรมและความมั่นคงเพื่อสร้างความตระหนักถึงการใช้ AI ในทางที่ถูกต้อง
2.) ขยายการศึกษาด้านนี้ให้ครอบคลุม
3.) ให้ความรู้กับภาครัฐ นักกฎหมาย ผู้บังคับใช้กฎหมาย ถึงปัญหาเหล่านี้เพื่อให้ประชาชนทำงานร่วมกัน และหลีกเลี่ยงความกลัวหรือความสับสนเกี่ยวกับเทคโนโลยี AI

เมื่อระบบ AI มีความเป็นอิสระในการตัดสินใจ (autonomy) มันควรจะถูกออกแบบให้เรียนรู้และทำตามบรรทัดฐาน (norms) หรือค่านิยม (values) ของสังคมที่ AI ทำงานอยู่ เราต้องสามารถอธิบายการกระทำของ AI เพื่อสร้างความเชื่อมั่นในการใช้งาน การจะนำบรรทัดฐานและค่านิยมมาเป็นส่วนหนึ่งในการออกแบบต้องคำนวณได้และยึดหลักว่า ต้องหาทางปฏิบัติและประเมินบรรทัดฐานที่กลุ่มคนใช้งานยอมรับ โดยต้องทบทวนกระบวนการนี้อย่างซ้ำๆ (iterative)

ในปีค.ศ. 2018 กลุ่มผู้เชี่ยวชาญหลากหลายสาขาใน EU (EU’s Ethics Guidelines For Trustworthy AI) ได้ร่วมกันร่างแนวทางจริยธรรมเพื่อการพัฒนา AI ที่น่าเชื่อถือ ซึ่งได้ผ่านการตรวจสอบและได้รับผลตอบรับ (feedback) จากผู้ร่วมตรวจสอบกว่า 500 คน โดยมุ่งเน้นว่าความน่าเชื่อ (trustworthiness) เป็นสิ่งจำเป็นที่มนุษย์และสังคมต้องมีในการพัฒนาและการใช้งาน AI
 
3 องค์ประกอบที่น่าเชื่อถือสำหรับ AI ที่ควรมีตลอดอายุการใช้งาน คือ

  1. Lawful ควรปฏิบัติตามกฎหมายและกฎระเบียบที่เหมาะสม

  2. Ethical ควรมีจริยธรรมที่สอดคล้องกับบรรทัดฐานและค่านิยม

  3. Robust ควรมีความทนทานทางด้านเทคนิคและสังคม

โดยแนวทางในการพัฒนาและใช้งานต้องคำนึงถึงหลักจริยธรรม เคารพความเป็นอิสระของมนุษย์ ป้องกันภัยอันตราย มีความเป็นธรรมและมีหลักการอธิบายได้ พร้อมที่จะแก้ไขจุดขัดแย้งที่อาจเกิดขึ้นจากหลักการที่กล่าวมาข้างต้น รวมทั้งให้ความสำคัญกับกลุ่มเปราะบาง (vulnerable group) เช่น เด็ก ผู้พิการ ผู้ด้อยโอกาสอื่นๆ นอกจากนี้ ต้องมีการเตรียมความพร้อมเพื่อรับความเสี่ยงต่อสังคมที่ไม่คาดคิดอย่างเหมาะสม

โดยภาพรวมแล้ว ใจความและหลักการของร่าง EU และแนวทางของหลายๆ กลุ่ม เช่น IBM everyday ethics ก็มีหลักการที่คล้ายกับ IEEE ที่เน้นมนุษย์เป็นศูนย์กลาง เพราะสุดท้ายแล้ว เรานำ AI มาใช้เพื่อก่อให้เกิดประโยชน์สูงสุดกับมนุษย์และสังคม ส่วนความท้าทายที่เรากำลังเผชิญ คือ การนำสิ่งที่เป็นนามธรรม เช่น จริยธรรม บรรทัดฐาน และค่านิยม ฝังเข้าไปเป็นส่วนหนึ่งในการออกแบบและใช้งาน AI นอกจากนี้ยังมีอีกหลากหลายมิติที่เนื้อหาในบทความนี้ยังไม่ครอบคลุม ผมอยากจะให้ทุกท่านได้เริ่มคิดและศึกษาดูครับ ซึ่งก็มีอะไรน่าคิดอีกเยอะเลย เช่น หากการออกแบบและพัฒนา AI ไม่ได้คำนึงถึงมนุษย์ ความเสี่ยงที่เราไม่คาดคิดจะเกิดขึ้นกับใคร คำถามนี้ก็เป็นสิ่งที่น่าคิดนะครับ

In the future, we will be living in a society where AI algorithms become a part of our daily lives. AI will work closely with humans and somehow can come to solutions similar to how we do. Therefore, when designing AI ethics should be taken into account when developing and designing AI to make the most of AI technology for humans.

 Many academics in different fields of knowledge have brought out the design guidelines of AI to share among AI designers and developers, to be aware of the cyber security of the automation and design of AI with a focus on Human centered AI, to better understand the principle of AI. In this article, I’m going to share some examples in the different issues on the importance of ethics in AI.

​1. Machine behavior

We should understand the function and behavior of AI like we understand the behavior of humans and animals. So that we can realize the affect of using AI to our social, culture, economic and political interactions. The understanding of machine behavior includes 3 levels of concern

1.) The behavior of AI agent alone

2.) The behavior of a group of AI agents and

3.) The behavior of a group of AI with human behavior.

To monitor the behavior of AI agents alone can be viewed  within-machines, to see the change of AI agent behavior in different environments, or it can be viewed in between-machines to see whether AI agents act the same or different when it comes to the same environment. 

​The interesting question that is still in further discussion, is having AI to be part of life will certainly change human behavior? or are humans the ones who change AI behavior?

​2. Ethically aligned design

Members of IEEE, the world's largest technical professional organization are proceeding a legal framework for Artificial Intelligence, by following these principles:

​  1. Human rights:

Problem: Human rights impact from AI

Recommended actions to take:

1.) Establish a framework to protect privacy and build public confidence.

2.) The change of existing or forthcoming regulations into policies or some technical consideration to follow.

3.) In the future, AI should not have equal rights to humans and should be under humans’ control

 

  2. Well-being:

Problem: The existing key indicators of growth do not take into account the impact from technology on human well-being.

Recommended actions to take: Pay close attention on human well-being in designing AI and use the existing relevant key indicator as a reference.

 

  3. Accountability:

Problem: how can we ensure that every person involved in the creation of AI algorithm is accountable for considering the system’s impact in the world and responsible for what they do?

Recommended actions to take:

1.) The court should clearly clarify the responsibilities of using and developing AI algorithms.

2.) The designer and developer should consider the diversification of users’ culture norms.

3.) It should be the development of multi-stakeholder ecosystems for the best practices and legislation.

4.) There should be a registration and record for investigating responsible persons in AI systems.

  4. Transparency:

Problem: how can we ensure that AI is transparent?

Recommended actions to take: Set up new standards that can be measured and investigate the transparent, so that the system can be evaluated and considered the levels of compliance.

  5. Awareness of misuse:

Problem: will we be able to expand the benefits and reduce the risk of using AI technology unethically? 

Recommended actions to take:

1.) To share knowledge about ethics and security of using AI in the right way

2.) Expand knowledge

3.) To share knowledge to the government sector, lawyers and general people on the problems, in order to avoid anxiety and confusion over AI technology.

When AI is free to make decisions, autonomy should be designed to follow the norms or values in society where AI is operated. Also, we should be able to explain the way AI works to build confidence in using it. However, when norms and values are involved in the design of AI, it should be able to measure and evaluate under the accepted standard of the users in that society, and a process should be repeated in order to generate a sequence of outcomes.

In 2018, the high-level expert group on AI presented Ethics Guidelines for Trustworthy Artificial Intelligence. This followed the publication of the guidelines on which more than 500 comments were received through an open consultation.

 

According to the Guidelines, trustworthy AI should be:

1. Lawful - respecting all applicable laws and regulations

2. Ethical - respecting ethical principles and values

3. Robust - both from a technical perspective while taking into account its social environment

 

The direction to develop and use AI technology must rely on ethics when crafting regulation, to ensure that AI is fair to everyone and to realize the importance of ethics, especially to vulnerable groups such as children, the disabled, and underprivileged. Additionally, it should be a further plan to cope with unexpected issues that can possibly affect the society.

Overall, the main guideline of drafting EU and other groups; such as IBM everyday ethics put forward the same requirement as IEEE which focus mainly on humans. According to the main purpose of AI, it will take us to the next level of progress and innovation to make most people better off over the work. But we are now facing the challenging issues of ethics, norms and values to put into developing and using AI. So we should take this into serious consideration.

References:

https://www.eli.org/sites/default/files/eli-pubs/when-software-rules-web.pdf

http://standards.ieee.org/develop/indconn/ec/autonomous_systems.html

https://www.nature.com/articles/s41586-019-1138-y.epdf

https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf

บทความโดย
คุณจรัล งามวิโรจน์เจริญ
Chief Data Scientist & VP of Data Innovation Lab
บริษัท เซอร์ทิส จำกัด

Related Posts

CONTACT US

Bangkok 

597/5 Sukhumvit Road,

Wattana, Bangkok, Thailand

Singapore

3 Pickering Street

#03-05 Singapore 048660

© 2020 Sertis Co.,Ltd. All rights reserved.

  • Sertis Facebook
  • Sertis Linkedin
  • Sertis Channel
Sertis-Logo_2020(white)-02.png