การสร้างฐานข้อมูลการแสดงออกทางอารมณ์ผ่านทางอวัจนภาษาในบริบทของการบำบัดเชิงจิตวิทยา
คำสำคัญ:
อารมณ์, อวัจนภาษา , จิตวิทยา, ฐานข้อมูล, ปัญญาประดิษฐ์ (เอไอ)บทคัดย่อ
งานวิจัยนี้เป็นการพัฒนาการสร้างฐานข้อมูลการแสดงออกทางอารมณ์ผ่านอวัจนภาษาในบริบทการให้คำปรึกษาทางจิตวิทยาใน 2 ด้าน คือ การแสดงออกผ่านกล้ามเนื้อบนใบหน้า รวมทั้งการเคลื่อนไหวของดวงตา และการแสดงออกผ่านน้ำเสียง ศึกษาด้วยวิธีวิจัยเชิงทดลอง โดยจำลองสถานการณ์การให้คำปรึกษาทางจิตวิทยาในกลุ่มตัวอย่างทั่วไปซึ่งได้รับการกระตุ้นอารมณ์ตามทฤษฎีกงล้ออารมณ์คนละ 1 อารมณ์ และบันทึกการแสดงออกทางอารมณ์ที่ได้จากกระบวนการพูดคุย 15-25 นาที เพื่อนำข้อมูลให้บุคคลทั่วไปและนักจิตวิทยาระบุลักษณะการแสดงออกทางอารมณ์ อ้างอิงระบบถอดรหัสสีหน้าและการแสดงอารมณ์ผ่านเสียง ผลการศึกษา พบว่า ด้านข้อมูลภาพ จากการตัดภาพที่ได้จากคลิปวิดีโอความยาว 15-25 นาที ข้อมูลที่ได้ 1 ชุด จะมีภาพใบหน้าของกลุ่มตัวอย่างซึ่งเป็นภาพต่อเนื่องจำนวน 3,000-8,000 ภาพ ภาพที่ได้ขึ้นอยู่กับเงื่อนไขการกระตุ้นอารมณ์ที่ได้รับ สำหรับข้อมูลเสียงที่วิเคราะห์ได้ ไม่มีความหมายเชิงภาษา เนื่องจากเป็นวลีที่มีใจความไม่ครบถ้วน โดยสัดส่วนอารมณ์ที่วิเคราะห์ได้จะแตกต่างกันไปขึ้นอยู่กับเงื่อนไขการกระตุ้นอารมณ์ที่ได้รับเช่นเดียวกับข้อมูลภาพ ข้อมูลการแสดงออกทั้งภาพและเสียงดังกล่าวสามารถนำไปต่อยอดเพื่อพัฒนาโมเดลปัญญาประดิษฐ์สำหรับวิเคราะห์อารมณ์จากอวัจนภาษาของคนไทยในบริบทการให้บริการทางจิตใจได้
References
นันทวัช สิทธิรักษ์, กมลเนตร วรรณเสวก, กมลพร วรรณฤทธิ์, ปเนต ผู้กฤตยาคามี, สุพร อภินันทเวช, และ พนม เกตุมาน. (2558). จิตเวช ศิริราช DSM-5. ภาควิชาจิตเวชศาสตร์ คณะแพทยศาสตร์ศิริราชพยาบาล มหาวิทยาลัยมหิดล.
วรางคณา โสมะนันทน์, คาลอส บุญสุภา, และ พลอยไพลิน กมลนาวิน. (2564). การให้บริการการปรึกษาเชิงจิตวิทยาแบบออนไลน์: มิติ ใหม่ของการให้บริการปรึกษาเชิงจิตวิทยา. วารสารบัณฑิตศึกษา มหาวิทยาลัยราชภัฏวไลยอลงกรณ์ ในพระบรมราชูปถัมภ์, 15(1), 247-260. https://opac02.rbru.ac.th/cgi-bin/koha/opac-detail.pl?biblionumber=4465
Borges, V., Duarte, R. P., Cunha, C. A., & Mota, D. B. (2019). Are you lost? Using facial recognition to detect customer emotions in retail stores. Advances in Human-oriented and Personalized Mechanisms, Technologies, and Services. CENTRIC 2019 (pp. 49-54). Valencia: Spain. https://www.researchgate.net/publication/338019900_Are_you_Lost_Using_Facial_Recognition_to_Detect_Customer_Emotions_in_Retail_Stores
Busso, C., Bulut, M., Lee, C. -C., Kazemzadeh, A., Mower, E., Kim, S., Chang, J. N., Lee, S., & Narayanan, S. S. (2008). IEMOCAP: Interactive emotional dyadic motion capture database. Language Resources and Evaluation, 42, 335-359. https://doi.org/10.1007/s10579-008-9076-6
Cordaro, D. T., Sun, R., Keltner, D., Kamble, S., Huddar, N., & McNeil, G. (2018). Universals and cultural variations in 22 emotional expressions across five cultures. Emotion, 18(1), 75-93. https://doi.org/10.1037/emo0000302
Ekman, P., & Friesen, W. V. (1978). Facial Action Coding System (FACS) [Database record]. APA PsycTests. https://doi.org/10.1037/t27734-000
Gross, J. J. (2015). Handbook of Emotion Regulation Second Edition. Guilford.
Kasuriya, S., Theeramunkong, T., Wutiwiwatchai, C., & Sukhummek, P. (2019). Developing a Thai emotional speech corpus from Lakorn (EMOLA). Language Resources and Evaluation, 53, 17-55. https://doi.org/10.1007/s10579-018-9428-9
Keltner, D., Sauter, D., Tracy, J., & Cowen, A. (2019). Emotional expression: Advances in basic emotion theory. Journal of Nonverbal Behavior, 43(2), 133-160. https://doi.org/10.1007/s10919-019-00293-3
Lapakko, D. (2007). Communication is 93% Nonverbal: An Urban Legend Proliferates. Communication and Theater Association of Minnesota Journal, 34, 7-19. https://cornerstone.lib.mnsu.edu/ctamj/vol34/iss1/2/
Luna-Jiménez, C., Griol, D., Callejas, Z., Kleinlein, R., Montero, J. M., & Fernández-Martínez, F. (2021). Multimodal emotion recognition on RAVDESS dataset using transfer learning. Sensors, 21(22), 7665. https://doi.org/10.3390/s21227665
Matsumoto, D., & Willingham, B. (2009). Spontaneous facial expressions of emotion of congenitally and noncongenitally blind individuals. Journal of Personality and Social Psychology, 96(1), 1-10. https://doi.org/10.1037/a0014037
Mollahosseini, A., Hasani, B., & Mahoor, M. H. (2019). AffectNet: A Database for Facial Expression, Valence, and Arousal Computing in the Wild. IEEE Transactions on Affective Computing, 10(1), 18-31. https://doi.org/10.1109/TAFFC.2017.2740923
Russell, J. A. (1980). A circumplex model of affect. Journal of personality and Social Psychology, 39(6), 1161–1178. https://doi.org/10.1037/h0077714
Siedlecka, E., & Denson, T. F. (2019). Experimental methods for inducing basic emotions: A qualitative review. Emotion Review, 11(1), 87-97. https://doi.org/10.1177/1754073917749016
Sobin, C., & Alpert, M. (1999). Emotion in speech: The acoustic attributes of fear, anger, sadness, and joy. Journal of psycholinguistic research, 28(4), 347-365. https://doi.org/10.1023/a:1023237014909
Zeren, S. G., Erus, S. M., Amanvermez, Y., Genc, A. B., Yilmaz, M. B., & Duy, B. (2020). The Effectiveness of Online Counseling for University Students in Turkey: A Non-Randomized Controlled Trial. European Journal of Educational Research, 9(2), 825-834. https://doi.org/10.12973/eu-jer.9.2.825
Zhang, L., Walter, S., Ma, X., Werner, P., Al-Hamadi, A., Traue, H. C., & Gruss, S. (2016). “BioVid Emo DB”: A multimodal database for emotion analyses validated by subjective ratings. 2016 IEEE Symposium Series on Computational Intelligence. SSCI (pp. 1-6). IEEE. https://doi.org/10.1109/SSCI.2016.7849931

Downloads
เผยแพร่แล้ว
How to Cite
ฉบับ
บท
License
Copyright (c) 2024 วารสารกิจการสื่อสารดิจิทัล

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
บทความที่ปรากฏในวารสารกิจการสื่อสารดิจิทัล เป็นลิขสิทธิ์ของสำนักงาน กสทช. ซึ่งสำนักงาน กสทช. เปิดโอกาสให้สาธารณะหรือบุคคลทั่วไปสามารถนำผลงานไปเผยแพร่ คัดลอก หรือตีพิมพ์ซ้ำได้ ภายใต้สัญญาอนุญาตแบบเปิด (Creative Commons: CC) โดยมีเงื่อนไขสำหรับผู้ที่นำผลงานไปใช้ต้องระบุอ้างอิงแหล่งที่มา (Attribution: BY) ห้ามดัดแปลง (NoDerivatives: ND) และต้องไม่ใช้เพื่อการค้า (NonCommercial: NC) เว้นแต่ได้รับอนุญาตเป็นลายลักษณ์อักษรจากสำนักงาน กสทช.
อนึ่ง ข้อความ ตาราง และภาพที่ปรากฏในบทความซึ่งได้รับการตอบรับให้ตีพิมพ์และเผยแพร่ในวารสารนี้เป็นความคิดเห็นของผู้นิพนธ์ โดยไม่ผูกพันต่อ กสทช. และสำนักงาน กสทช. หากมีความผิดพลาดใด ๆ ผู้นิพนธ์แต่ละท่านต้องรับผิดชอบบทความของตนเองแต่เพียงผู้เดียว ไม่เกี่ยวข้องกับ กสทช. และสำนักงาน กสทช. แต่ประการใด