เตรียมรับมือกับภัยคุกคามของ Deepfake

NOVEMBER 14, 2019

ความก้าวหน้าของเทคโนโลยีในปัจจุบัน ช่วยให้ผู้คนสามารถเชื่อมต่อกันได้อย่างไร้ขอบเขต และพัฒนาวงการสื่อสารมวลชนให้เกิดการเปลี่ยนแปลง จากยุคก่อนที่มีการส่งสารแบบจังหวะเดียว (One - Step Flow) หรือรับสารทางเดียว ไปสู่การสื่อสารแบบสองทาง (Two Way Communication) ระหว่างผู้ส่งสารและผู้รับสาร จนถึงปัจจุบันที่ผู้รับสารสามารถที่จะสร้างเนื้อหา (content) ได้ด้วยตัวเอง และเผยแพร่ผ่านช่องทางโซเชียลมีเดีย (Social Media) ได้อย่างอิสระ 

 

ถึงแม้ว่าเทคโนโลยีคือสิ่งสำคัญที่เข้ามาช่วยพัฒนาและสร้างประโยชน์ในการเผยแพร่ข้อมูลข่าวสาร แต่เทคโนโลยีเองก็เปรียบเสมือนดาบสองคม หากถูกนำไปใช้ในเชิงสร้างสรรค์ ก็จะก่อให้เกิดประโยชน์อย่างมหาศาล แต่หากนำไปใช้ในทางที่ผิด เช่น การบิดเบือนข่าวสาร การส่งต่อข่าวเท็จ หรือการสร้างข่าวเท็จ  (Disinformation) ก็อาจสร้างความเสียหาย ทั้งในระดับบุคคลและในวงกว้าง อาทิ การสร้างความเสียหายให้กับแบรนด์สินค้า สร้างความเสียหายทางการดำเนินธุรกิจ การสร้างความสับสนเพื่อลดความเชื่อจากสาธารณชน (Public trust) ที่มีต่อสังคม การเมือง และการปกครอง ยิ่งไปกว่านั้นการทำลายความน่าเชื่อถือของสื่อ จะส่งผลกระทบต่อสภาพแวดล้อมทางการเมืองที่เปราะบาง และจุดมุ่งหมายสุดท้ายของผู้ไม่หวังดีคือ ความต้องการให้คนตั้งคำถามหรือไม่เชื่อใจกับทุกสิ่ง ยิ่งทุกวันนี้ที่เทคโนโลยีเอไอ (AI : Artificial Intelligence) มีประสิทธิภาพที่สามารถส่งเสริมการสร้างข้อมูลที่ผิดได้อย่างแยบยล ยกตัวอย่างเช่น

- การเลียนแบบเสียงของคนอย่างการให้บริการของ Lyrebird or Baidu DeepVoice

- เครื่องมือที่ช่วยในการตัดต่อ - ลบภาพ เช่น Adobe Cloak 

- การสลับใบหน้าหรือแปลงการขยับหน้า ตา ปาก ของคนคนหนึ่งไปเป็นของอีกคนหนึ่ง เช่น Face2Face, FaceSwap, Deep Video Portraits หรือ LipSync Obama project​ และ ดีพเฟค (Deepfake) คืออีกหนึ่งรูปแบบของการปลอมแปลงเนื้อหาตั้งแต่ข้อความ ภาพ เสียง วิดีโอ หรือแม้กระทั่งบทความ เช่น การตัดต่อใบหน้าของดาราไปใส่ในวิดิโออนาจาร การปลอมแปลงวิดีโอที่ทำให้คนพูดประโยคที่ต่างจากวิดีโอต้นฉบับ การปลอมแปลงเสียง และการเขียนข่าวลวงที่ทำให้ประชาชนเชื่อถือ ซึ่งผลงานที่ดีพเฟคสร้างขึ้นนั้นมีความแนบเนียน สมจริง ยากที่จะให้คนที่ไม่เข้าใจเทคโนโลยีเหล่านี้จะสามารถแยกแยะเองได้ ซึ่งสถิติการเติบโตของวิดีโอดีพเฟคจากช่วงสิ้นปี 2018 ที่ผ่านมามีอัตราการเติบโตขึ้นเกือบ 100% โดยมีจำนวนวิดีโอดีพเฟคสูงถึง 14,678 วิดีโอ (96% เกี่ยวข้องกับหนังอนาจาร)

 

การทำงานของดีพเฟคคือการนำเอไออัลกอริทึม (AI algorithm) ประเภท Deep Learning Algorithm ที่มีโครงสร้างที่เรียกว่า GANs (Generative Adversarial Networks) ซึ่งโดยปกติเอไออัลกอริทึมประเภทนี้จะถูกนำมาใช้ประโยชน์ในการสร้างข้อมูลสังเคราะห์ (Synthetic data) เพื่อสร้างข้อมูลเพิ่มในงานวิจัยต่างๆ และใช้ตรวจจับความผิดปกติของข้อมูล (fraud) รวมถึงสามารถตรวจจับดีพเฟคได้ด้วยเช่นกัน

 

รู้อย่างนี้แล้ว หน่วยงานต่างๆทั้งภาครัฐและเอกชน รวมทั้งประชาชน ควรเตรียมพร้อมรับมือกับดีพเฟค รวมถึงสื่อออนไลน์ที่อาจมาในรูปแบบต่างๆ ตั้งแต่ระดับบุคคลไปจนถึงวงกว้างระดับประเทศ ด้วยวิธีการดังนี้

 

1. Self เริ่มต้นจากตัวเราเอง เพิ่มความระมัดระวัง คิดก่อนลงข้อความหรือแชร์ข้อมูลต่างๆ ผ่านโซเชียลมีเดีย เพราะสิ่งที่เราสื่อออกไปอาจเป็นประโยชน์หรือโทษก็ได้

 

​2. Social / Global inclusion ดีพเฟคเป็นภัยคุกคามระดับประเทศและนานาชาติ ดังนั้นทุกคนต้องช่วยกันสอดส่องข้อมูลที่เผยแพร่ในช่องทางต่างๆ รับและส่งต่อข้อมูลอย่างมีวิจารณญาณ อีกทั้งควรมีกฎหมายที่ช่วยคุ้มครองผู้ตกเป็นเหยื่อ และควรมีความร่วมมือระดับนานาชาติในการดำเนินการทางกฎหมายกับผู้กระทำความผิดทั้งในและต่างประเทศ มีกระบวนการรายงานและแนวทางการจัดการที่ชัดเจน เพราะงานลักษณะนี้มีตลาดที่ให้บริการทั่วโลก

 

​3. Research สร้างความร่วมมือให้เกิดการทำงานร่วมกันข้ามสาขาวิชา (Cross-disciplinary) โดยร่วมมือกับองค์กรชั้นนำเพื่อสร้างผู้เชี่ยวชาญและแบ่งปันแนวทางในพัฒนาเทคโนโลยีในการตรวจจับดีพเฟค เพื่อให้เกิดประโยชน์กับส่วนรวม

 

4. Collaboration การร่วมมือกันทั้งจากกลุ่มสื่อมวลชน (Mass media) กลุ่มประชาสังคม (Civil society) กลุ่มเทคโนโลยี ผู้ให้บริการแพลตฟอร์ม (platform) หน่วยงานภาครัฐและเอกชน ในการทำความเข้าใจถึงภัยคุกคาม รวมทั้งสร้างมาตรการความช่วยเหลือ เพื่อให้เกิดการประสานงานที่จะป้องกันภัยคุกคามครอบคลุมในวงกว้าง

 

​5. Ethical ควรส่งเสริมให้ผู้พัฒนาและผู้ใช้งานเอไอคำนึงถึงจริยธรรมในการออกแบบและใช้งานเอไอ รวมถึงมีการกำหนดมาตรฐานการใช้งานทั้งระดับการศึกษา หน่วยงานภาครัฐและเอกชน 

 

นอกจากนี้ในการพัฒนาหรือวิจัยเทคโนโลยีต่างๆนั้น เราควรคำนึงถึงความเสี่ยงและผลกระทบ ที่จะเกิดขึ้นต่อมนุษย์และสังคมทั้งในเชิงบวกและลบ รวมถึงความเสี่ยงที่จะมีการนำงานวิจัยไปใช้ในทางที่ไม่ดี ซึ่ง Aviv Ovadya ผู้ก่อตั้ง The Thoughtful Technology Project และ Jess Whittlestone ผู้ก่อตั้งกลุ่ม Leverhulme Centre for the Future of Intelligence ได้ให้คำแนะนำไว้ดังต่อไปนี้

1. เพิ่มความเข้าใจเกี่ยวกับขอบเขตของความเสี่ยง และยุทธศาสตร์การจัดการความเสี่ยง

a) พัฒนาภาษามาตรฐานที่ทุกคนสามารถเข้าใจตรงกัน เพื่อใช้ในการสื่อสารปัญหา ไม่ว่าจะเป็นความเสี่ยง การปองร้าย และการจัดการกับการเผยแพร่งานในพื้นที่สาธารณะ

b) ร่วมประชุมกับผู้เชี่ยวชาญเพื่อประเมินความเสี่ยงของงานวิจัยด้าน Machine Learning (ML)

c) วางแผนรับมือทั้งในระยะสั้นและระยะยาว ในการลดความเสียหายจากการนำเอางานวิจัยไปใช้ในทางที่ผิด 

 

​2. สร้างมาตรฐานเพื่อส่งเสริมให้กลุ่มนักวิจัยเกิดความเข้าในเกี่ยวกับผลกระทบของงานวิจัยทางด้าน Machine Learning (ML)

a) กำหนดการสัมมนาเชิงปฏิบัติการอย่างสม่ำเสมอ เกี่ยวกับเรื่องของความท้าทายในการเผยแพร่ผลงานด้านการวิจัย

b) สร้างความตระหนักถึงความเสี่ยงของงานวิจัยด้าน ML รวมถึงการมีส่วนร่วมของผู้ที่ได้รับผลกระทบ และผู้ที่มีส่วนช่วยในจัดการความเสี่ยง

c) สนับสนุนงานประเมินผลกระทบทั้งเชิงบวกและลบของงานวิจัย

 

​3. สนับสนุนสถาบันและระบบที่เกี่ยวข้องกับงานด้านการวิจัย ML

a) สนับสนุนให้เกิดขั้นตอนการประเมินความเสี่ยงของโครงการวิจัยโดยผู้เชี่ยวชาญ ก่อนดำเนินงาน เพื่อลดผลกระทบที่อาจเกิดขึ้นต่อนักวิจัย

b) สร้างระบบการตรวจสอบและจัดการงานวิจัย ที่อนุญาตให้นักวิจัยท่านอื่นสามารถเข้าถึงและช่วยตรวจสอบได้

c) พัฒนาขั้นตอนการเผยแพร่งานวิจัยที่อาจจะมีความเสี่ยง เพื่อทำให้งานวิจัยบางอย่างสามารถเผยแพร่ได้อย่างปลอดภัยมากขึ้น

 

แม้ว่าเราจะเตรียมตัวกับภัยคุกคามของดีพเฟคไว้พอสมควรแล้ว แต่ก็ยังมีประเด็นปัญหาอื่นๆ ที่ชวนคิดอีกมากมาย เช่น

​1. การใช้เทคโนโลยีเอไอเพื่อตรวจจับดีพเฟค คงเป็นเพียงแค่การให้คำแนะนำที่ไม่สามารถสรุปให้ชัดเจนได้ เพราะดีพเฟคเป็นได้ทั้งในลักษณะของการล้อเลียน การแต่งนิยาย ข่าวลวง การแยกแยะในบริบทแต่ละประเภทอาจต้องใช้สื่อ หรือแพลตฟอร์มที่สามารถมาช่วยกลั่นกรอง แต่สิ่งที่สำคัญที่สุดคือการให้ความรู้และการมีส่วนร่วมของประชาชนในการช่วยกันตรวจสอบและสามารถรายงานได้อย่างรวดเร็ว

 

2. การเข้าถึงเทคโนโลยีในการตรวจจับดีพเฟคเป็นเรื่องสำคัญสำหรับทุกกลุ่ม โดยเฉพาะเพื่อปกป้องกลุ่มคนที่เปราะบาง

 

3. การตรวจจับดีพเฟคปกติมักจะเกิดขึ้นหลังเหตุการณ์ไม่ดีได้เกิดขึ้นไปแล้ว ซึ่งจะสายเกินไปสำหรับเหยื่อที่ได้รับความเสียหาย เราจึงควรมีกฎหมายที่พร้อมจะปกป้องผู้ตกเป็นเหยื่อ ซึ่งถือว่าเป็นสิ่งที่สำคัญมาก รวมถึงการกระทำที่เกิดขึ้นนอกประเทศ เพราะดีพเฟคอาจถูกใช้เป็นอาวุธจากนอกประเทศเพื่อทำให้เกิดความสับสนของคนในประเทศได้เช่นกัน

 

ทุกวันนี้เราอยู่ในโลกที่คนเรามีหลายตัวตน ทั้งในโลกแห่งความจริงและในโลกเสมือนจริง ซึ่งมีทั้ง Cyberspace, Virtual Reality, หรือแม้กระทั่ง Augmented Reality สิ่งที่เราเห็นนอกจากจะเป็นสิ่งที่ถูกสังเคราะห์ขึ้นเพื่อประโยชน์ในการสื่อสาร การเรียนรู้ และความบันเทิงแล้ว ยังเปิดโอกาสให้ดีพเฟคสามารถเข้ามาสร้างความสับสน และส่งผลต่อความเชื่อและความศรัทธาของผู้คนในสังคม เพราะฉะนั้นประชาชนทุกคน ตั้งแต่ระดับ เด็ก ผู้ใหญ่ ครอบครัว สังคม และองค์กรต่างๆ ควรมีส่วนร่วมในการสร้างจิตสำนึกของการใช้เทคโนโลยี  เพื่อลดความเสี่ยงของการใช้เทคโนโลยีในทางที่ผิด

 

ถ้าเราไม่เริ่มต้นที่ตัวเราแล้วใครจะทำ ใช่ไหมครับ

 

References:

​- 2019 Brand Disinformation Impact Study

https://www.newknowledge.com/articles/2019-brand-disinformation-impact-study/

​- The biggest threat of Deepfakes isn’t the Deepfakes themselves

https://www.technologyreview.com/s/614526/the-biggest-threat-of-deepfakes-isnt-the-deepfakes-themselves

 

​- Social Engineering And Sabotage: Why Deepfakes Pose An Unprecedented Threat To Businesses

https://deeptracelabs.com/social-engineering-and-sabotage-why-deepfakes-pose-an-unprecedented-threat-to-businesses/

 

​- Text-based Editing of Talking-head Video

https://www.ohadf.com/projects/text-based-editing/

 

​- Researchers, scared by their own work, hold back “Deepfakes for text” AI

https://arstechnica.com/information-technology/2019/02/researchers-scared-by-their-own-work-hold-back-deepfakes-for-text-ai/

 

​- Reducing malicious use of synthetic media research: Considerations and potential release practices for machine learning

https://arxiv.org/abs/1907.11274

 

​- Prepare, Don’t Panic: Synthetic Media and Deepfakes

https://lab.witness.org/projects/synthetic-media-and-deep-fakes/

บทความโดย
คุณจรัล งามวิโรจน์เจริญ
Chief Data Scientist & VP of Data Innovation Lab
บริษัท เซอร์ทิส จำกัด

Related Posts

CONTACT US

Bangkok 

597/5 Sukhumvit Road,

Wattana, Bangkok, Thailand

Singapore

3 Pickering Street

#03-05 Singapore 048660

© 2019 Sertis Co.,Ltd. All rights reserved.

  • Sertis Facebook
  • Sertis Linkedin
  • Sertis Channel
Untitled-2-01_edited.png