การสร้างฐานข้อมูลการแสดงออกทางอารมณ์ผ่านทางอวัจนภาษาในบริบทของการบำบัดเชิงจิตวิทยา

ผู้แต่ง

  • กลกรณ์ วงศ์ภาติกะเสรี มหาวิทยาลัยมหิดล
  • พณิดา โยมะบุตร มหาวิทยาลัยมหิดล
  • นภวรรณ มั่นพรรษา มหาวิทยาลัยมหิดล
  • นริศ หนูหอม มหาวิทยาลัยมหิดล
  • สุเมธ ยืนยง มหาวิทยาลัยมหิดล

คำสำคัญ:

อารมณ์, อวัจนภาษา , จิตวิทยา, ฐานข้อมูล, ปัญญาประดิษฐ์ (เอไอ)

บทคัดย่อ

งานวิจัยนี้เป็นการพัฒนาการสร้างฐานข้อมูลการแสดงออกทางอารมณ์ผ่านอวัจนภาษาในบริบทการให้คำปรึกษาทางจิตวิทยาใน 2 ด้าน คือ การแสดงออกผ่านกล้ามเนื้อบนใบหน้า รวมทั้งการเคลื่อนไหวของดวงตา และการแสดงออกผ่านน้ำเสียง ศึกษาด้วยวิธีวิจัยเชิงทดลอง โดยจำลองสถานการณ์การให้คำปรึกษาทางจิตวิทยาในกลุ่มตัวอย่างทั่วไปซึ่งได้รับการกระตุ้นอารมณ์ตามทฤษฎีกงล้ออารมณ์คนละ 1 อารมณ์ และบันทึกการแสดงออกทางอารมณ์ที่ได้จากกระบวนการพูดคุย 15-25 นาที เพื่อนำข้อมูลให้บุคคลทั่วไปและนักจิตวิทยาระบุลักษณะการแสดงออกทางอารมณ์ อ้างอิงระบบถอดรหัสสีหน้าและการแสดงอารมณ์ผ่านเสียง ผลการศึกษา พบว่า ด้านข้อมูลภาพ จากการตัดภาพที่ได้จากคลิปวิดีโอความยาว 15-25 นาที ข้อมูลที่ได้ 1 ชุด จะมีภาพใบหน้าของกลุ่มตัวอย่างซึ่งเป็นภาพต่อเนื่องจำนวน 3,000-8,000 ภาพ ภาพที่ได้ขึ้นอยู่กับเงื่อนไขการกระตุ้นอารมณ์ที่ได้รับ สำหรับข้อมูลเสียงที่วิเคราะห์ได้ ไม่มีความหมายเชิงภาษา เนื่องจากเป็นวลีที่มีใจความไม่ครบถ้วน โดยสัดส่วนอารมณ์ที่วิเคราะห์ได้จะแตกต่างกันไปขึ้นอยู่กับเงื่อนไขการกระตุ้นอารมณ์ที่ได้รับเช่นเดียวกับข้อมูลภาพ ข้อมูลการแสดงออกทั้งภาพและเสียงดังกล่าวสามารถนำไปต่อยอดเพื่อพัฒนาโมเดลปัญญาประดิษฐ์สำหรับวิเคราะห์อารมณ์จากอวัจนภาษาของคนไทยในบริบทการให้บริการทางจิตใจได้

References

นันทวัช สิทธิรักษ์, กมลเนตร วรรณเสวก, กมลพร วรรณฤทธิ์, ปเนต ผู้กฤตยาคามี, สุพร อภินันทเวช, และ พนม เกตุมาน. (2558). จิตเวช ศิริราช DSM-5. ภาควิชาจิตเวชศาสตร์ คณะแพทยศาสตร์ศิริราชพยาบาล มหาวิทยาลัยมหิดล.

วรางคณา โสมะนันทน์, คาลอส บุญสุภา, และ พลอยไพลิน กมลนาวิน. (2564). การให้บริการการปรึกษาเชิงจิตวิทยาแบบออนไลน์: มิติ ใหม่ของการให้บริการปรึกษาเชิงจิตวิทยา. วารสารบัณฑิตศึกษา มหาวิทยาลัยราชภัฏวไลยอลงกรณ์ ในพระบรมราชูปถัมภ์, 15(1), 247-260. https://opac02.rbru.ac.th/cgi-bin/koha/opac-detail.pl?biblionumber=4465

Borges, V., Duarte, R. P., Cunha, C. A., & Mota, D. B. (2019). Are you lost? Using facial recognition to detect customer emotions in retail stores. Advances in Human-oriented and Personalized Mechanisms, Technologies, and Services. CENTRIC 2019 (pp. 49-54). Valencia: Spain. https://www.researchgate.net/publication/338019900_Are_you_Lost_Using_Facial_Recognition_to_Detect_Customer_Emotions_in_Retail_Stores

Busso, C., Bulut, M., Lee, C. -C., Kazemzadeh, A., Mower, E., Kim, S., Chang, J. N., Lee, S., & Narayanan, S. S. (2008). IEMOCAP: Interactive emotional dyadic motion capture database. Language Resources and Evaluation, 42, 335-359. https://doi.org/10.1007/s10579-008-9076-6

Cordaro, D. T., Sun, R., Keltner, D., Kamble, S., Huddar, N., & McNeil, G. (2018). Universals and cultural variations in 22 emotional expressions across five cultures. Emotion, 18(1), 75-93. https://doi.org/10.1037/emo0000302

Ekman, P., & Friesen, W. V. (1978). Facial Action Coding System (FACS) [Database record]. APA PsycTests. https://doi.org/10.1037/t27734-000

Gross, J. J. (2015). Handbook of Emotion Regulation Second Edition. Guilford.

Kasuriya, S., Theeramunkong, T., Wutiwiwatchai, C., & Sukhummek, P. (2019). Developing a Thai emotional speech corpus from Lakorn (EMOLA). Language Resources and Evaluation, 53, 17-55. https://doi.org/10.1007/s10579-018-9428-9

Keltner, D., Sauter, D., Tracy, J., & Cowen, A. (2019). Emotional expression: Advances in basic emotion theory. Journal of Nonverbal Behavior, 43(2), 133-160. https://doi.org/10.1007/s10919-019-00293-3

Lapakko, D. (2007). Communication is 93% Nonverbal: An Urban Legend Proliferates. Communication and Theater Association of Minnesota Journal, 34, 7-19. https://cornerstone.lib.mnsu.edu/ctamj/vol34/iss1/2/

Luna-Jiménez, C., Griol, D., Callejas, Z., Kleinlein, R., Montero, J. M., & Fernández-Martínez, F. (2021). Multimodal emotion recognition on RAVDESS dataset using transfer learning. Sensors, 21(22), 7665. https://doi.org/10.3390/s21227665

Matsumoto, D., & Willingham, B. (2009). Spontaneous facial expressions of emotion of congenitally and noncongenitally blind individuals. Journal of Personality and Social Psychology, 96(1), 1-10. https://doi.org/10.1037/a0014037

Mollahosseini, A., Hasani, B., & Mahoor, M. H. (2019). AffectNet: A Database for Facial Expression, Valence, and Arousal Computing in the Wild. IEEE Transactions on Affective Computing, 10(1), 18-31. https://doi.org/10.1109/TAFFC.2017.2740923

Russell, J. A. (1980). A circumplex model of affect. Journal of personality and Social Psychology, 39(6), 1161–1178. https://doi.org/10.1037/h0077714

Siedlecka, E., & Denson, T. F. (2019). Experimental methods for inducing basic emotions: A qualitative review. Emotion Review, 11(1), 87-97. https://doi.org/10.1177/1754073917749016

Sobin, C., & Alpert, M. (1999). Emotion in speech: The acoustic attributes of fear, anger, sadness, and joy. Journal of psycholinguistic research, 28(4), 347-365. https://doi.org/10.1023/a:1023237014909

Zeren, S. G., Erus, S. M., Amanvermez, Y., Genc, A. B., Yilmaz, M. B., & Duy, B. (2020). The Effectiveness of Online Counseling for University Students in Turkey: A Non-Randomized Controlled Trial. European Journal of Educational Research, 9(2), 825-834. https://doi.org/10.12973/eu-jer.9.2.825

Zhang, L., Walter, S., Ma, X., Werner, P., Al-Hamadi, A., Traue, H. C., & Gruss, S. (2016). “BioVid Emo DB”: A multimodal database for emotion analyses validated by subjective ratings. 2016 IEEE Symposium Series on Computational Intelligence. SSCI (pp. 1-6). IEEE. https://doi.org/10.1109/SSCI.2016.7849931

Downloads

เผยแพร่แล้ว

31-10-2024

How to Cite

วงศ์ภาติกะเสรี ก., โยมะบุตร พ., มั่นพรรษา น., หนูหอม น., & ยืนยง ส. . (2024). การสร้างฐานข้อมูลการแสดงออกทางอารมณ์ผ่านทางอวัจนภาษาในบริบทของการบำบัดเชิงจิตวิทยา. วารสารกิจการสื่อสารดิจิทัล, 8(2), 95–117. สืบค้น จาก https://so04.tci-thaijo.org/index.php/NBTC_Journal/article/view/267216