top of page
Sertis
AC_member_horizontal_reversed_fullclr_PNG.png

การออกแบบ UX สำหรับ Chatbot: ใช้งานง่าย เป็นธรรมชาติ และมีความเป็นมนุษย์

  • รูปภาพนักเขียน: Omtawan Mangkang
    Omtawan Mangkang
  • 22 เม.ย.
  • ยาว 3 นาที


ในยุคที่ระบบปัญญาประดิษฐ์ (AI) กลายเป็นส่วนหนึ่งของประสบการณ์ผู้ใช้ (UX) บนแพลตฟอร์มดิจิทัลมากขึ้น Chatbot ได้กลายมาเป็นหนึ่งในเครื่องมือสำคัญที่หลายองค์กรเลือกใช้เพื่อให้บริการข้อมูล ตอบคำถาม และแม้กระทั่งประเมินสุขภาพเบื้องต้นของผู้ใช้งาน หนึ่งในหัวใจสำคัญของการออกแบบ Chatbot ที่ดี คือ Usability หรือ “ความสามารถในการใช้งานได้ดี” ของระบบ

บทความนี้นำเสนอแนวคิดการออกแบบ UX สำหรับ Chatbot โดยมุ่งเน้นปัจจัยด้าน Usability และเสนอแนวทางจากการประยุกต์ใช้เทคโนโลยีด้านการตรวจจับอารมณ์ความรู้สึก (Sentiment Detection) เพื่อเสริมความเป็นมนุษย์ให้กับการสนทนา พร้อมอ้างอิงกรอบแนวคิดสากล เช่น ISO 9241-11, Nielsen's Heuristics, PARADISE และ SASSI ที่สามารถประยุกต์ใช้ในการประเมินและออกแบบระบบสนทนาอัตโนมัติ

ปัจจัยด้าน Usability ที่ควรคำนึงถึง

การออกแบบ UX สำหรับ Chatbot ไม่สามารถอาศัยหลักการของ UI แบบดั้งเดิมเพียงอย่างเดียว เนื่องจากอินเทอร์เฟซแบบสนทนา (Conversational User Interface: CUI) มีธรรมชาติที่ต่างออกไป โดยเฉพาะอย่างยิ่งเมื่อผู้ใช้มีความคาดหวังว่าจะสามารถโต้ตอบ “เหมือนคุยกับมนุษย์”

เพื่อออกแบบ Chatbot ที่ใช้งานได้ดี การประเมินด้าน Usability จำเป็นต้องยึดตาม มาตรฐานและกรอบการประเมินที่ได้รับการยอมรับในระดับสากล เช่น:

  • ISO 9241-11 (1998) ที่เน้น 3 แกนหลัก: Effectiveness, Efficiency, Satisfaction

  • Nielsen’s Heuristics ที่เน้นเรื่อง Learnability, Error Prevention และ Satisfaction

  • PARADISE Framework (Walker et al., 1997) สำหรับระบบสนทนา: Naturalness, Clarity, Willingness to use

  • SASSI (Hone & Graham, 2000) สำหรับ Voice/Chat Interface: Likability, Humanness, Cognitive Demand

จากกรอบแนวคิดข้างต้น สามารถสรุปปัจจัย Usability ที่เกี่ยวข้องกับ Chatbot ในบริบทนี้ได้ 5 ประเด็นหลัก

  1. Effectiveness – ผู้ใช้สามารถรับข้อมูลหรือดำเนินการที่ต้องการได้อย่างถูกต้อง

  2. Learnability – ระบบใช้งานง่ายโดยไม่ต้องเรียนรู้มาก

  3. Reliability – ผู้ใช้เชื่อถือในคำตอบที่ได้รับ

  4. Humanness – ระบบสื่อสารอย่างเป็นธรรมชาติ ไม่รู้สึกเหมือนคุยกับเครื่องจักร

  5. Likability – ผู้ใช้มีความรู้สึกบวกต่อประสบการณ์ที่ได้รับ


ความท้าทายของอุตสาหกรรม: Chatbot ที่ "ไม่เหมือนมนุษย์"

ในหลายอุตสาหกรรม โดยเฉพาะในภาคการเงินและบริการที่เกี่ยวข้องกับลูกค้ารายบุคคล มีการรายงานอย่างต่อเนื่องว่า Chatbot มักขาดความสามารถในการสื่อสารอย่าง "มีมนุษยธรรม" (Humanness) ซึ่งส่งผลให้ผู้ใช้งานรู้สึกไม่พึงพอใจแม้ระบบจะสามารถตอบคำถามได้ถูกต้องก็ตาม

“As conversational AI becomes more advanced, designing for trust—including emotional sensitivity, transparency, and fairness—is crucial to create meaningful user experiences.”— Accenture, Building Trust into Conversational AI Solutions

แนวโน้มนี้สอดคล้องกับงานวิจัยของ Brave & Nass (2003) ที่พบว่า การแสดงอารมณ์และบุคลิกของ Chatbot มีผลอย่างมีนัยสำคัญต่อความน่าเชื่อถือ (Reliability), ความรู้สึกผูกพัน (Intimacy) และความน่าชื่นชอบ (Likability)

องค์กรหลายแห่งจึงเริ่มใช้แนวทาง "Sentiment-Aware Design" ในการพัฒนา Chatbot โดยฝังระบบตรวจจับอารมณ์ (Sentiment Detection) เพื่อให้สามารถปรับโทนภาษาตอบกลับให้เหมาะสมกับอารมณ์ของผู้ใช้ในขณะนั้น

ตัวอย่าง:

  • ผู้ใช้พิมพ์ว่า "นี่คุณจะให้รอไปถึงเมื่อไหร่!" → ระบบตอบกลับด้วยภาษาที่แสดงความสุภาพและเห็นอกเห็นใจ เช่น "ขออภัยอย่างยิ่งค่ะ ดิฉันเข้าใจว่าคุณรู้สึกไม่สะดวก เดี๋ยวจะรีบช่วยตรวจสอบให้นะคะ"

แนวทางนี้สามารถอ้างอิงจาก SASSI Framework (Hone & Graham, 2000) ที่เน้นว่าความรู้สึกของผู้ใช้ต่อบุคลิกของระบบ (Likability) และความรู้สึกว่าเหมือนคุยกับมนุษย์ (Humanness) เป็นปัจจัยสำคัญที่ส่งผลต่อ ความเต็มใจในการใช้งาน (Willingness to Use) และความพึงพอใจโดยรวม

ผลการทดลอง: Chatbot ที่เข้าใจอารมณ์ สร้างความรู้สึกเหมือนคุยกับมนุษย์

ทีม UX/UI design ของเราได้รับมอบหมายจากองค์กรภาคการเงินแห่งหนึ่งในการออกแบบและปรับปรุง Chatbot ที่ใช้เป็นด่านแรกในการช่วยลูกค้าติดต่อสอบถามข้อมูลหรือปัญหาเบื้องต้น

จากการทดสอบโดยใช้วิธี A/B testing เปรียบเทียบระหว่าง Chatbot ที่มีฟังก์ชัน Sentiment-Aware กับ Chatbot ปกติ โดยให้ผู้ใช้งานทดลองโต้ตอบกับทั้งสองเวอร์ชัน พร้อมพูดความรู้สึกออกมาในระหว่างใช้งาน (Think-Aloud Protocol) จากนั้นจึงให้ผู้ใช้ทำแบบประเมิน Usability Questionnaire เพื่อลงคะแนนความพึงพอใจและแสดงความคิดเห็นเพิ่มเติม:

  • กลุ่มที่ได้ใช้ Chatbot ที่ตอบคำถามในแนว Sentiment-Aware Response มีแนวโน้มให้คะแนนความพึงพอใจ (4-5 ดาว) สูงกว่ากลุ่มที่ไม่ได้ใช้

  • ผู้ใช้ให้เหตุผลว่า Chatbot "เข้าใจอารมณ์ของตน" มากขึ้น และรู้สึกว่าคุยกับ "ผู้ช่วยจริง" มากกว่าระบบอัตโนมัติ

  • ความคิดเห็นสะท้อนว่า: การใช้ภาษาสุภาพ, มีระดับความนอบน้อม, ตอบสั้นกระชับ และมีอารมณ์ร่วม ล้วนส่งผลต่อความพึงพอใจ

ปัจจัยที่ช่วยเพิ่มคะแนน Usability:

  • ปรับลดการใช้ภาษาทางการในบางสถานการณ์

  • ใช้ Emoji หรือโทนคำพูดให้เข้ากับอารมณ์ของผู้ใช้

  • มีคำตอบที่สื่อถึงความตั้งใจช่วยเหลือ ไม่ใช่ตอบแบบ System Template ซ้ำ ๆ

ตัวอย่าง Insight จากผู้ใช้:

"รู้สึกว่า Chatbot เข้าใจความไม่พอใจของเราและแสดงออกถึงความรับผิดชอบ""คุยกับ Chatbot แล้วไม่รู้สึกเหมือนโดนเท เหมือนมีคนอยู่ฟังจริง ๆ"

แม้การปรับตอบแบบ Based on Sentiment อาจไม่ได้ทำให้คะแนนความพึงพอใจสูงขึ้นอย่างมีนัยสำคัญในทุกกรณี แต่จากผลทดลองพบว่า มีผลชัดเจนในกลุ่มผู้ใช้ที่อยู่ในอารมณ์ลบ (เช่น โกรธหรือผิดหวัง) ซึ่งถือเป็นช่วงเวลาที่สำคัญที่สุดในการรักษาความสัมพันธ์ระหว่างผู้ใช้กับแบรนด์


LLM กับบทบาทใหม่ของ Chatbot: โอกาสและความท้าทายด้าน UX

ในช่วงไม่กี่ปีที่ผ่านมา Chatbot ที่ใช้เทคโนโลยี LLM (Large Language Model) เช่น GPT, Claude หรือ Gemini ได้รับความนิยมอย่างรวดเร็ว โดยเฉพาะในองค์กรขนาดใหญ่ที่ต้องการให้ระบบสามารถตอบคำถามที่หลากหลายและมีความยืดหยุ่นสูง อย่างไรก็ตาม แม้ LLM จะเพิ่มความสามารถของ Chatbot อย่างมหาศาล แต่ก็เปิดประเด็นใหม่ในมุมของ UX ที่นักออกแบบควรพิจารณา:

  • ความล่าช้าในการตอบ (Latency): LLM ต้องประมวลผลแบบเรียลไทม์ ทำให้บางครั้งการตอบช้ากว่า Chatbot แบบ Rule-Based นักออกแบบควรใส่ Feedback เช่น "กำลังพิมพ์…" หรือ Progress Indicator เพื่อลดความกังวลของผู้ใช้

  • คำตอบที่ไม่แน่นอน (AI Hallucination): ผู้ใช้บางคนคาดหวังว่าคำตอบจาก Chatbot จะถูกต้องเสมอ การออกแบบควรใส่ข้อความเตือน เช่น "คำตอบนี้สร้างโดยระบบอัตโนมัติ อาจไม่ถูกต้อง 100%" หรือเปิดให้ผู้ใช้ตรวจสอบแหล่งอ้างอิง

  • การควบคุมโทนเสียง (Tone) และบุคลิกภาพ: LLM อาจตอบอย่างหลากหลายจนยากจะควบคุม Persona ให้คงที่ การเสริม UX Layer เช่นการปรับ Prompt, การตั้ง Style Guide หรือใช้ Sentiment-Aware Rewriter ช่วยให้ Chatbot คงบุคลิกตามแบรนด์ได้ดีขึ้น

  • ความสอดคล้องของบริบท: แม้ LLM จะจำได้หลายรอบสนทนา แต่การจัดการ Context Memory อย่างเหมาะสม เช่น การแสดงสิ่งที่ Chatbot "จำได้" หรือให้ผู้ใช้ลบ Context ได้เอง ช่วยเพิ่มความโปร่งใสในการใช้งาน

โดยเฉพาะในบริบทองค์กรด้านการเงิน การผสาน LLM เข้ากับ Sentiment-Aware Design ถือเป็นทางออกสำคัญ เพราะ LLM เองยังไม่ได้รับการออกแบบมาให้เข้าใจอารมณ์ผู้ใช้โดยตรง การใช้ Sentiment Detection Layer ช่วยแปลความรู้สึกของผู้ใช้ก่อนส่งไปยัง LLM จะช่วยให้ Chatbot ตอบกลับได้อย่างเหมาะสมยิ่งขึ้น


ข้อเสนอแนะสำหรับนักออกแบบ Chatbot

  1. ฟังให้มากกว่าตอบ: อย่าตอบกลับทุกคำถามด้วยภาษาทางการแบบเดียวกัน ให้เรียนรู้จากอารมณ์ของผู้ใช้และออกแบบการตอบกลับให้ยืดหยุ่น

  2. ออกแบบชุดคำตอบหลายแบบ (Answer Variations): เพื่อลดความจำเจของ Pattern-Based Response และช่วยให้ระบบดู “เหมือนคน” มากขึ้น

  3. ใช้ Emoji อย่างมีบริบท: ในบริบทที่เป็นมิตรหรือ Informal การใช้อีโมจิช่วยเสริมความรู้สึกว่าบอทกำลัง “แสดงออก” ได้

  4. ตั้งค่าระดับ Tone & Politeness: ให้เหมาะสมกับประเภทของคำถามและอารมณ์ เช่น ในสถานการณ์ที่ผู้ใช้ไม่พอใจ บอทควรใช้ภาษาที่สุภาพและลดภาษาทางการลง

  5. ให้บอทยอมรับข้อจำกัดของตัวเอง: เช่น "ดิฉันอาจยังตอบคำถามนี้ไม่ได้ แต่สามารถส่งเรื่องให้เจ้าหน้าที่ได้เลยค่ะ" เพื่อรักษาความไว้ใจ

  6. ทดสอบกับผู้ใช้จริงเป็นระยะ: เพื่อรับ Feedback ด้าน Emotional Experience ซึ่งมักไม่สามารถระบุได้จากแค่ Task Success Rate

สรุป

การออกแบบ UX สำหรับ Chatbot ต้องคำนึงถึงความสมดุลระหว่าง ความถูกต้อง แม่นยำ (Effectiveness) กับ ความรู้สึกเชิงอารมณ์ของผู้ใช้ (Humanness & Likability) ระบบที่ดีไม่ควรเป็นเพียงผู้ช่วยที่ตอบคำถามได้รวดเร็ว แต่ควรเป็นตัวแทนของแบรนด์ที่ “เข้าใจและใส่ใจ” ผู้ใช้ด้วย

การนำแนวคิดด้าน Usability ตามมาตรฐานสากล เช่น ISO 9241-11, PARADISE และ SASSI มาประยุกต์ใช้ในบริบทจริง จะช่วยให้ Chatbot กลายเป็น Touchpoint ที่มีคุณค่าในประสบการณ์ของผู้ใช้ และเสริมสร้างความไว้วางใจให้กับองค์กรในระยะยาว

References

  1. ISO 9241-11 (1998). Ergonomic requirements for office work with visual display terminals (VDTs) – Part 11: Guidance on usability. International Organization for Standardization.

  2. Nielsen, J. (1994). Usability engineering. Morgan Kaufmann.

  3. Walker, M. A., Litman, D. J., Kamm, C. A., & Abella, A. (1997). PARADISE: A framework for evaluating spoken dialogue agents. arXiv preprint cmp-lg/9704004.

  4. Hone, K. S., & Graham, R. (2000). Towards a tool for the subjective assessment of speech system interfaces (SASSI). Natural Language Engineering, 6(3-4), 287-303.

  5. Brave, S., & Nass, C. (2007). Emotion in human-computer interaction. In The human-computer interaction handbook (pp. 103-118). CR

  6. Accenture, Building Trust into Conversational AI Solutions* (https://www.accenture.com/content/dam/accenture/final/a-com-migration/manual/r3/pdf/pdf-181/Accenture-POV-Ethics-Final.pdf)

  7. Mangkang, O., & Yun, J. Y. (2019). Usability Evaluation of Self-Diagnosis User Interfaces for Depression: A Comparative Study among Paper-Based, Text-Based, and Voice-Based Conversational Interfaces. 한국 HCI 학회 논문지, 14(3), 5-12.

Comments


Have a project in mind?

bottom of page