การใช้ระบบตรวจจับท่าทางเพื่อพัฒนาการเต้นเลียนแบบศิลปินเพลงป๊อปเกาหลี

Main Article Content

ฤตินันท์ หาญประสพวัฒน์
อนุวัติ มาลินี
รักชนก ทองคำปั้น
จักษวัชร์ บุนารักษ์
วรัทยา โรจน์รัชนีกร
ฐิติรัตน์ ศิริบวรรัตนกุล

บทคัดย่อ

ภายใต้สถานการณ์การระบาดของโรคไวรัสโควิด 19 กิจกรรมทางสังคมต่าง ๆ ได้รับผลกระทบมากมาย ซึ่งรวมถึงการเรียนการเต้นเลียนแบบศิลปินเพลงป๊อปเกาหลีด้วย ส่งผลให้คลาสการเต้นเลียนแบบศิลปินเพลงป๊อปเกาหลีย้ายไปใช้แพลตฟอร์มออนไลน์ ทำให้ประสิทธิผลลดลงสำหรับผู้เรียน ท้ายที่สุดปัญหานี้ทำให้การประสานของการเต้นระหว่างร่างกายและเสียงดนตรีที่แน่นอนในการเต้นเลียนแบบศิลปินเพลงป๊อปเกาหลีกลายเป็นแนวทางที่ลำบากขึ้น การเรียนการเต้นออนไลน์เพิ่มความยากลำบากเนื่องจากผู้ฝึกไม่สามารถให้คำแนะนำที่แม่นยำได้อย่างเหมาะสม งานวิจัยนี้มีวัตถุประสงค์ที่จะแก้ไขปัญหานี้โดยการใช้เทคโนโลยีการประมาณท่าทางของมนุษย์และพัฒนาระบบเพื่อเสริมสร้างกระบวนการการเรียนการเต้นเลียนแบบศิลปินเพลงป๊อปเกาหลีออนไลน์ ระบบนี้จะตรวจจับและวิเคราะห์ความเหมือนกันระหว่างการเคลื่อนไหวของนักเต้นต้น นอกจากนี้ยังให้คำแนะนำในการปรับปรุงและให้คะแนนสะสมสำหรับทั้งเพลง การสำรวจเรื่องการเต้นที่มีการเปลี่ยนแปลงของมุมได้แสดงให้เห็นถึงความเหมือนกันที่สูงถึง 99.5 ถึง 100.0 เปอร์เซ็นต์ ตลอดระยะเวลาวิดีโอ (1.16 นาที ประมวลผลโดยคอมพิวเตอร์) ด้วยสถานการณ์ที่แตกต่างกัน เช่น วิดีโอของนักเต้นต้นและนักเต้นคัฟเวอร์ที่เต้นเพลงเดียวกัน หรือ วิดีโอของนักเต้นต้นและนักเต้นคัฟเวอร์ที่เต้นโดยมีบุคคลที่ต่างกัน ทั้งสองกรณียังคงรักษารูปแบบการเต้นที่มีความเหมือนกันอย่างมีนัยสำคัญ และคะแนนการเต้นเริ่มต้นที่ 22 เปอร์เซ็นต์ และมีแนวโน้มที่เพิ่มขึ้นไปถึง 74.4 เปอร์เซ็นต์ ตั้งแต่เริ่มจนถึงสิ้นสุด ซึ่งชัดเจนว่าระบบมีประสิทธิภาพในการสนับสนุนการเรียนการเต้นเลียนแบบศิลปินเพลงป๊อปเกาหลีออนไลน์

Article Details

ประเภทบทความ
บทความวิจัย (Research Article)

เอกสารอ้างอิง

Hajji YEO. Analysis of the Global-Local- Global Strategy in K-pop Music Videos. 2021. Faculty of Economics and Business of University of Barcelona 2021.

Gnedash IA, Ivanov NS, Khaimina AD. The Korean wave as a tool of South Korea's soft power in 1990- 2020. Theories and Problems of Political Studies. 2021;10(2-1):44-55.

Gamra MB, Akhloufi MA. A review of deep learning techniques for 2D and 3D human pose estimation. Image and Vision Computing.

;114: 104282.

Badiola- Bengoa A, Mendez - Zorrilla A. A systematic review of the application of camerabased human pose estimation in the field of

sport and physical exercise. Sensors. 2021;21(18):5996.

Šajina R, Kos MI. Pose estimation, tracking and comparison. Croatian Science Foundation, the project. IP-2016-06-8345 (RAASS).

Peng F, Zhang H. Research on action recognition method of dance video image based on humancomputer interaction. Scientific Programming. 2021;2021.

Choi JH, Lee JJ, Nasridinov A. Dance self-learning application and its dance pose evaluations. Proceedings of the 36th Annual ACM Symposium on Applied Computing; 2021.

Broadwell P, Tangherlini TR. Comparative k-pop choreography analysis through deep - learning pose estimation across a large video corpus. DHQ: Digital Humanities Quarterly. 2021;15(1).

Zheng C, Wu W, Yang T, Zhu S, Chen C, Liu R, et al. Deep learning-based human pose estimation: A survey, Publisher, City, 2020.

Cao Z, Simon T, Wei SE, Sheikh Y. Real time multi- person 2d pose estimation using part affinity fields. Proceedings of the IEEE conference on computer vision and pattern recognition; 2017.

Wang Y, Li M, Cai H, Chen W, Han S. Lite Pose: Efficient Architecture Design for 2D Human Pose Estimation. Proceedings of the IEEE/ CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2022: pp. 13126-13136. [12] Sun K, Xiao B, Liu D, Wang J. Deep high-resolution representation learning for human pose estimation, in: Proceedings of the IEEE/ CVF Conference on Computer Vision and Pattern Recognition. 2019, pp. 5693-5703.

Bazarevsky V, Grishchenko I, Raveendran K, Zhu T, Zhang F, Grundmann M. Blazepose: On-device real- time body pose tracking. arXiv. 2020; abs/2006.10204.

Sarah M, Natalie B, Connor M, Pascale J, Albert T, Kevin C, et al. Comparing the quality of human pose estimation with BlazePose or OpenPose. 2021 4th International Conference on BioEngineering for Smart Technologies ( BioSMART), Paris / Créteil, France. 2021, pp. 1-4.

Chan C, Ginosar S, Zhou T, Efros AA. Everybody dance now. Proceedings of the IEEE/ CVF International Conference on Computer Vision. 2019.

Sun K, Lan C, Xing J, Zeng W, Liu D, Wang J. Human pose estimation using global and local normalization. Proceedings of the IEEE

international conference on computer vision. 2017.

Kim Y, Kim D. Real- time dance evaluation by markerless human pose estimation. Multimedia Tools and Applications. 2018;77(23):31199-220.

Broadwell PM, Tangherlini TR. Comparative Kpop choreography analysis through deeplearning pose estimation across a large video corpus. Digital Humanities Quarterly. 2021;15(1).

Siriborvornratanakul T. A New Human Factor Study in Developing Practical Vision- Based plications with the Transformer- Based Deep Learning Model. Artificial Intelligence in HCI. 2022; 35: 436-447.

Zhao C, Uchitomi H, Ogata T, Ming X, Miyake Y. Reducing the device complexity for 3D human pose estimation: A deep learning approach using monocular camera and IMUs. Engineering Applications of Artificial Intelligence. 2023;124: 106639.

Kittipongdaja P, Siriborvornratanakul T. Automatic kidney segmentation using 2. 5D. ResUNet and 2. 5D DenseUNet for malignant

potential analysis in complex renal cyst based on CT images. EURASIP J. Image Video Process. 2022;1: 5.

Liu W, Bao Q, Sun Y, Mei T. Recent advances of monocular 2D and 3D human pose estimation: A deep learning perspective. ACM Computing Surveys. 2023; 55(4): 80, 1-41.

Pei Y, Yang W, Wei S, Cai R, Li J, Guo S, et al. Automated measurement of hip – knee– ankle angle on the unilateral lower limb X- rays using deep learning. Physical and Engineering Sciences in Medicine. 2021;44: 53–62.