เตรียมรับมือกับภัยคุกคามของ Deepfake

NOVEMBER 14, 2019

ความก้าวหน้าของเทคโนโลยีในปัจจุบัน ช่วยให้ผู้คนสามารถเชื่อมต่อกันได้อย่างไร้ขอบเขต และพัฒนาวงการสื่อสารมวลชนให้เกิดการเปลี่ยนแปลง จากยุคก่อนที่มีการส่งสารแบบจังหวะเดียว (One - Step Flow) หรือรับสารทางเดียว ไปสู่การสื่อสารแบบสองทาง (Two Way Communication) ระหว่างผู้ส่งสารและผู้รับสาร จนถึงปัจจุบันที่ผู้รับสารสามารถที่จะสร้างเนื้อหา (content) ได้ด้วยตัวเอง และเผยแพร่ผ่านช่องทางโซเชียลมีเดีย (Social Media) ได้อย่างอิสระ 

 

ถึงแม้ว่าเทคโนโลยีคือสิ่งสำคัญที่เข้ามาช่วยพัฒนาและสร้างประโยชน์ในการเผยแพร่ข้อมูลข่าวสาร แต่เทคโนโลยีเองก็เปรียบเสมือนดาบสองคม หากถูกนำไปใช้ในเชิงสร้างสรรค์ ก็จะก่อให้เกิดประโยชน์อย่างมหาศาล แต่หากนำไปใช้ในทางที่ผิด เช่น การบิดเบือนข่าวสาร การส่งต่อข่าวเท็จ หรือการสร้างข่าวเท็จ  (Disinformation) ก็อาจสร้างความเสียหาย ทั้งในระดับบุคคลและในวงกว้าง อาทิ การสร้างความเสียหายให้กับแบรนด์สินค้า สร้างความเสียหายทางการดำเนินธุรกิจ การสร้างความสับสนเพื่อลดความเชื่อจากสาธารณชน (Public trust) ที่มีต่อสังคม การเมือง และการปกครอง ยิ่งไปกว่านั้นการทำลายความน่าเชื่อถือของสื่อ จะส่งผลกระทบต่อสภาพแวดล้อมทางการเมืองที่เปราะบาง และจุดมุ่งหมายสุดท้ายของผู้ไม่หวังดีคือ ความต้องการให้คนตั้งคำถามหรือไม่เชื่อใจกับทุกสิ่ง ยิ่งทุกวันนี้ที่เทคโนโลยีเอไอ (AI : Artificial Intelligence) มีประสิทธิภาพที่สามารถส่งเสริมการสร้างข้อมูลที่ผิดได้อย่างแยบยล ยกตัวอย่างเช่น

- การเลียนแบบเสียงของคนอย่างการให้บริการของ Lyrebird or Baidu DeepVoice

- เครื่องมือที่ช่วยในการตัดต่อ - ลบภาพ เช่น Adobe Cloak 

- การสลับใบหน้าหรือแปลงการขยับหน้า ตา ปาก ของคนคนหนึ่งไปเป็นของอีกคนหนึ่ง เช่น Face2Face, FaceSwap, Deep Video Portraits หรือ LipSync Obama project​ และ ดีพเฟค (Deepfake) คืออีกหนึ่งรูปแบบของการปลอมแปลงเนื้อหาตั้งแต่ข้อความ ภาพ เสียง วิดีโอ หรือแม้กระทั่งบทความ เช่น การตัดต่อใบหน้าของดาราไปใส่ในวิดิโออนาจาร การปลอมแปลงวิดีโอที่ทำให้คนพูดประโยคที่ต่างจากวิดีโอต้นฉบับ การปลอมแปลงเสียง และการเขียนข่าวลวงที่ทำให้ประชาชนเชื่อถือ ซึ่งผลงานที่ดีพเฟคสร้างขึ้นนั้นมีความแนบเนียน สมจริง ยากที่จะให้คนที่ไม่เข้าใจเทคโนโลยีเหล่านี้จะสามารถแยกแยะเองได้ ซึ่งสถิติการเติบโตของวิดีโอดีพเฟคจากช่วงสิ้นปี 2018 ที่ผ่านมามีอัตราการเติบโตขึ้นเกือบ 100% โดยมีจำนวนวิดีโอดีพเฟคสูงถึง 14,678 วิดีโอ (96% เกี่ยวข้องกับหนังอนาจาร)

 

การทำงานของดีพเฟคคือการนำเอไออัลกอริทึม (AI algorithm) ประเภท Deep Learning Algorithm ที่มีโครงสร้างที่เรียกว่า GANs (Generative Adversarial Networks) ซึ่งโดยปกติเอไออัลกอริทึมประเภทนี้จะถูกนำมาใช้ประโยชน์ในการสร้างข้อมูลสังเคราะห์ (Synthetic data) เพื่อสร้างข้อมูลเพิ่มในงานวิจัยต่างๆ และใช้ตรวจจับความผิดปกติของข้อมูล (fraud) รวมถึงสามารถตรวจจับดีพเฟคได้ด้วยเช่นกัน

 

รู้อย่างนี้แล้ว หน่วยงานต่างๆทั้งภาครัฐและเอกชน รวมทั้งประชาชน ควรเตรียมพร้อมรับมือกับดีพเฟค รวมถึงสื่อออนไลน์ที่อาจมาในรูปแบบต่างๆ ตั้งแต่ระดับบุคคลไปจนถึงวงกว้างระดับประเทศ ด้วยวิธีการดังนี้

 

1. Self เริ่มต้นจากตัวเราเอง เพิ่มความระมัดระวัง คิดก่อนลงข้อความหรือแชร์ข้อมูลต่างๆ ผ่านโซเชียลมีเดีย เพราะสิ่งที่เราสื่อออกไปอาจเป็นประโยชน์หรือโทษก็ได้

 

​2. Social / Global inclusion ดีพเฟคเป็นภัยคุกคามระดับประเทศและนานาชาติ ดังนั้นทุกคนต้องช่วยกันสอดส่องข้อมูลที่เผยแพร่ในช่องทางต่างๆ รับและส่งต่อข้อมูลอย่างมีวิจารณญาณ อีกทั้งควรมีกฎหมายที่ช่วยคุ้มครองผู้ตกเป็นเหยื่อ และควรมีความร่วมมือระดับนานาชาติในการดำเนินการทางกฎหมายกับผู้กระทำความผิดทั้งในและต่างประเทศ มีกระบวนการรายงานและแนวทางการจัดการที่ชัดเจน เพราะงานลักษณะนี้มีตลาดที่ให้บริการทั่วโลก

 

​3. Research สร้างความร่วมมือให้เกิดการทำงานร่วมกันข้ามสาขาวิชา (Cross-disciplinary) โดยร่วมมือกับองค์กรชั้นนำเพื่อสร้างผู้เชี่ยวชาญและแบ่งปันแนวทางในพัฒนาเทคโนโลยีในการตรวจจับดีพเฟค เพื่อให้เกิดประโยชน์กับส่วนรวม

 

4. Collaboration การร่วมมือกันทั้งจากกลุ่มสื่อมวลชน (Mass media) กลุ่มประชาสังคม (Civil society) กลุ่มเทคโนโลยี ผู้ให้บริการแพลตฟอร์ม (platform) หน่วยงานภาครัฐและเอกชน ในการทำความเข้าใจถึงภัยคุกคาม รวมทั้งสร้างมาตรการความช่วยเหลือ เพื่อให้เกิดการประสานงานที่จะป้องกันภัยคุกคามครอบคลุมในวงกว้าง

 

​5. Ethical ควรส่งเสริมให้ผู้พัฒนาและผู้ใช้งานเอไอคำนึงถึงจริยธรรมในการออกแบบและใช้งานเอไอ รวมถึงมีการกำหนดมาตรฐานการใช้งานทั้งระดับการศึกษา หน่วยงานภาครัฐและเอกชน 

 

นอกจากนี้ในการพัฒนาหรือวิจัยเทคโนโลยีต่างๆนั้น เราควรคำนึงถึงความเสี่ยงและผลกระทบ ที่จะเกิดขึ้นต่อมนุษย์และสังคมทั้งในเชิงบวกและลบ รวมถึงความเสี่ยงที่จะมีการนำงานวิจัยไปใช้ในทางที่ไม่ดี ซึ่ง Aviv Ovadya ผู้ก่อตั้ง The Thoughtful Technology Project และ Jess Whittlestone ผู้ก่อตั้งกลุ่ม Leverhulme Centre for the Future of Intelligence ได้ให้คำแนะนำไว้ดังต่อไปนี้

1. เพิ่มความเข้าใจเกี่ยวกับขอบเขตของความเสี่ยง และยุทธศาสตร์การจัดการความเสี่ยง

a) พัฒนาภาษามาตรฐานที่ทุกคนสามารถเข้าใจตรงกัน เพื่อใช้ในการสื่อสารปัญหา ไม่ว่าจะเป็นความเสี่ยง การปองร้าย และการจัดการกับการเผยแพร่งานในพื้นที่สาธารณะ

b) ร่วมประชุมกับผู้เชี่ยวชาญเพื่อประเมินความเสี่ยงของงานวิจัยด้าน Machine Learning (ML)

c) วางแผนรับมือทั้งในระยะสั้นและระยะยาว ในการลดความเสียหายจากการนำเอางานวิจัยไปใช้ในทางที่ผิด 

 

​2. สร้างมาตรฐานเพื่อส่งเสริมให้กลุ่มนักวิจัยเกิดความเข้าในเกี่ยวกับผลกระทบของงานวิจัยทางด้าน Machine Learning (ML)

a) กำหนดการสัมมนาเชิงปฏิบัติการอย่างสม่ำเสมอ เกี่ยวกับเรื่องของความท้าทายในการเผยแพร่ผลงานด้านการวิจัย

b) สร้างความตระหนักถึงความเสี่ยงของงานวิจัยด้าน ML รวมถึงการมีส่วนร่วมของผู้ที่ได้รับผลกระทบ และผู้ที่มีส่วนช่วยในจัดการความเสี่ยง

c) สนับสนุนงานประเมินผลกระทบทั้งเชิงบวกและลบของงานวิจัย

 

​3. สนับสนุนสถาบันและระบบที่เกี่ยวข้องกับงานด้านการวิจัย ML

a) สนับสนุนให้เกิดขั้นตอนการประเมินความเสี่ยงของโครงการวิจัยโดยผู้เชี่ยวชาญ ก่อนดำเนินงาน เพื่อลดผลกระทบที่อาจเกิดขึ้นต่อนักวิจัย

b) สร้างระบบการตรวจสอบและจัดการงานวิจัย ที่อนุญาตให้นักวิจัยท่านอื่นสามารถเข้าถึงและช่วยตรวจสอบได้

c) พัฒนาขั้นตอนการเผยแพร่งานวิจัยที่อาจจะมีความเสี่ยง เพื่อทำให้งานวิจัยบางอย่างสามารถเผยแพร่ได้อย่างปลอดภัยมากขึ้น

 

แม้ว่าเราจะเตรียมตัวกับภัยคุกคามของดีพเฟคไว้พอสมควรแล้ว แต่ก็ยังมีประเด็นปัญหาอื่นๆ ที่ชวนคิดอีกมากมาย เช่น

​1. การใช้เทคโนโลยีเอไอเพื่อตรวจจับดีพเฟค คงเป็นเพียงแค่การให้คำแนะนำที่ไม่สามารถสรุปให้ชัดเจนได้ เพราะดีพเฟคเป็นได้ทั้งในลักษณะของการล้อเลียน การแต่งนิยาย ข่าวลวง การแยกแยะในบริบทแต่ละประเภทอาจต้องใช้สื่อ หรือแพลตฟอร์มที่สามารถมาช่วยกลั่นกรอง แต่สิ่งที่สำคัญที่สุดคือการให้ความรู้และการมีส่วนร่วมของประชาชนในการช่วยกันตรวจสอบและสามารถรายงานได้อย่างรวดเร็ว

 

2. การเข้าถึงเทคโนโลยีในการตรวจจับดีพเฟคเป็นเรื่องสำคัญสำหรับทุกกลุ่ม โดยเฉพาะเพื่อปกป้องกลุ่มคนที่เปราะบาง

 

3. การตรวจจับดีพเฟคปกติมักจะเกิดขึ้นหลังเหตุการณ์ไม่ดีได้เกิดขึ้นไปแล้ว ซึ่งจะสายเกินไปสำหรับเหยื่อที่ได้รับความเสียหาย เราจึงควรมีกฎหมายที่พร้อมจะปกป้องผู้ตกเป็นเหยื่อ ซึ่งถือว่าเป็นสิ่งที่สำคัญมาก รวมถึงการกระทำที่เกิดขึ้นนอกประเทศ เพราะดีพเฟคอาจถูกใช้เป็นอาวุธจากนอกประเทศเพื่อทำให้เกิดความสับสนของคนในประเทศได้เช่นกัน

 

ทุกวันนี้เราอยู่ในโลกที่คนเรามีหลายตัวตน ทั้งในโลกแห่งความจริงและในโลกเสมือนจริง ซึ่งมีทั้ง Cyberspace, Virtual Reality, หรือแม้กระทั่ง Augmented Reality สิ่งที่เราเห็นนอกจากจะเป็นสิ่งที่ถูกสังเคราะห์ขึ้นเพื่อประโยชน์ในการสื่อสาร การเรียนรู้ และความบันเทิงแล้ว ยังเปิดโอกาสให้ดีพเฟคสามารถเข้ามาสร้างความสับสน และส่งผลต่อความเชื่อและความศรัทธาของผู้คนในสังคม เพราะฉะนั้นประชาชนทุกคน ตั้งแต่ระดับ เด็ก ผู้ใหญ่ ครอบครัว สังคม และองค์กรต่างๆ ควรมีส่วนร่วมในการสร้างจิตสำนึกของการใช้เทคโนโลยี  เพื่อลดความเสี่ยงของการใช้เทคโนโลยีในทางที่ผิด

 

ถ้าเราไม่เริ่มต้นที่ตัวเราแล้วใครจะทำ ใช่ไหมครับ

Advanced technology helps people stay connected and have  influence in mass communication from the past where we communicated by one way communication, but now have two-way Communication. Receivers can create  content on their own and freely communicate via their social media channels.

Although technology is the most important tool for communication  it is also a double-edged sword. If we use technology to create something positive, it will  benefit us all. However, if we use technology in a negative way such as news distorting, sending fake news, or disinformation; this may cause personal and social damage such as destroying brand image, business development, and spin out public trust including government, social, etc. Moreover, destroying media trust can potentially affect the  government. Lastly, the objectives of some who wish you harm is to lead everyone to question and don’t trust in anything . Especially now that Artificial Intelligence has the capability to create fake information at a high level, such as:

- The copy of a human voice from Lyrebird or Baidu DeepVoice

- Editing – deleting picture tools from Adobe Cloak

- Switching someone's face, eyes, mouth, to others from Face2Face, FaceSwap, Deep Video Portraits. Deep fake is another tool to counterfeit content, photo, voice, video or even articles such as editing the face of a famous actress in adult videos, editing sentences in original videos, editing voice and writing fake news that leads to misunderstanding. Deep fake can create something so real it could be very hard to distinguish what is real to fake. Deep fake video statistics growth reports show there is 100% growth since 2018, comparing to 14,678 deep fake videos.  (96% is adult videos)

 

So how does Deep fake work? By Deep Learning Algorithms which has a main structure called GANs (Generative Adversarial Networks). Normally this AI algorithm can bring to use in synthetic data to create data for many research and detect fraud and deep fake.

With knowing how it works, then every organization, government, public sectors and public should be ready to deal with deep fake with the following: 

1. Self: Start with yourself by being more careful and think twice before posting or sharing information through  social media. 

2. Social/ Global inclusion: Deep fake is a national and international threat. Therefore, everyone should keep an eye on news from social media and receive/share it carefully. We must have a law to protect the victims from deep fake. We should have cooperation on an international level for legal proceeding both local and international criminals.

3.Research: Cross-disciplinary by cooperating with leading organizations aiming to create more experts and share “know how to”   detect deep fake and spread awareness to society.

4. Collaboration: Collaboration between mass media, society, platform owners, government and private sector to know about threats in order to help each other.

5. Ethical: We should promote AI developers and users considering ethics to specify the standard of using AI for education, government and private sectors.

In addition to developing or researching new technology, we should consider risks and effects which will occur to society in both positive/ negative ways. Aviv Ovadya, the founder of The Thoughtful Technology Project and Jess Whittlestone, the founder of Leverhulme Centre for the Future of Intelligence, give the following suggestions:

 

1. Enhance more understanding of risk and risk strategy

a) Develop the barrier of language issue and set the standard of language in order to communicate for problem solving such as risk management, threat, etc.

b) Meeting with experts to evaluate the risk of Machine Learning (ML) research

c) Planning a short and long-term plan to dealing with someone using  research in an unethical way. 

2. Set standard to enhance more understanding for researchers about the effect of ML research

a) Arrange  workshops about challenges of research dissemination

b)  Awareness about the dangers of ML research including victims and risk manager

c) Supporting effect evaluation for both positive and negative for researches

3. Supporting institute and system related to ML research

a) Supporting to initiate the evaluation research process before starting to work in order to reduce the impact which may occur to researcher

b) Create checking processes that allow other researchers check the research

c) Developing dissemination process for some risk research and safer disseminate research  

Although we have prepared ourselves to deal with deep fake, we still have some points to think about: 

1. Using AI to detect deep fake is just a suggestion which can not be clear because deep fake has many types; such as mimic, novel, fake news, etc. We can screen by using media or social media platforms, but the most important thing is knowledge and people cooperating to help check and report.

2. Detecting deep fake technology is the most important thing to consider in every group, especially sensitive people?

3. Normally, detecting deep fake occurs after something has already happened. It’s too late for the victim. We should have a law that protects a victim. Deep fake may also be used as a weapon from other countries to make people in the country confused and lose trust.

Nowadays, we live in a world that can have many characters in the real world and virtual world such as Cyberspace, Virtual Reality and Augmented Reality. Things that we can see are made and synthesized for education and entertainment. But sometimes, they were made to interrupt and interfere with the trust and hope of people in society too. Therefore, everyone including children, adults, family, society, and organizations must enhance awareness on how to use technology in ethical ways in order to reduce the risk of using technology the wrong way.

If we don’t start with ourselves, who else?

 

References:

​- 2019 Brand Disinformation Impact Study

https://www.newknowledge.com/articles/2019-brand-disinformation-impact-study/

​- The biggest threat of Deepfakes isn’t the Deepfakes themselves

https://www.technologyreview.com/s/614526/the-biggest-threat-of-deepfakes-isnt-the-deepfakes-themselves

 

​- Social Engineering And Sabotage: Why Deepfakes Pose An Unprecedented Threat To Businesses

https://deeptracelabs.com/social-engineering-and-sabotage-why-deepfakes-pose-an-unprecedented-threat-to-businesses/

 

​- Text-based Editing of Talking-head Video

https://www.ohadf.com/projects/text-based-editing/

 

​- Researchers, scared by their own work, hold back “Deepfakes for text” AI

https://arstechnica.com/information-technology/2019/02/researchers-scared-by-their-own-work-hold-back-deepfakes-for-text-ai/

 

​- Reducing malicious use of synthetic media research: Considerations and potential release practices for machine learning

https://arxiv.org/abs/1907.11274

 

​- Prepare, Don’t Panic: Synthetic Media and Deepfakes

https://lab.witness.org/projects/synthetic-media-and-deep-fakes/

บทความโดย
คุณจรัล งามวิโรจน์เจริญ
Chief Data Scientist & VP of Data Innovation Lab
บริษัท เซอร์ทิส จำกัด

Related Posts

CONTACT US

Bangkok 

597/5 Sukhumvit Road,

Wattana, Bangkok, Thailand

Singapore

3 Pickering Street

#03-05 Singapore 048660

© 2019 Sertis Co.,Ltd. All rights reserved.

  • Sertis Facebook
  • Sertis Linkedin
  • Sertis Channel
Untitled-2-01_edited.png