การพัฒนาเว็บแอปพลิเคชันเพื่อตรวจจับตัวอักษรภาษาไทยผ่านการแสดงท่าทางของมือ
Main Article Content
Abstract
ระบบการตรวจจับอักษรภาษาไทยผ่านการแสดงท่าทางของมือในบทความนี้ได้รับการพัฒนาขึ้นเพื่อช่วยเหลือผู้ที่มีความบกพร่องทางการได้ยินและการพูดหรือบุคคลที่ใช้สื่อสารกับผู้อื่นด้วยสัญญาณมือ ให้มีเครื่องมือสำหรับการเรียนรู้การแสดงออกของมือและนิ้วที่เพื่อการสะกดตัวอักษรไทย วัตถุประสงค์เพื่อพัฒนาเว็บแอปพลิเคชันบนฟลาสก์เฟรมเวิร์คที่สามารถตรวจจับและแปลสัญญาณมือผ่านกล้องเว็บแคมเป็นตัวอักษรภาษาไทย (Thai Sign Language: ThSL) ทั้งนี้เพื่อให้ระบบสามารถรับรู้การเคลื่อนไหวของมือเป็นอักขระภาษาไทยได้ ในงานนี้จึงมีการสร้างตัวแบบอักษรมือไทยที่มีการใช้เทคนิคการเรียนรู้ของเครื่องจักร การเรียนรู้เชิงลึก โดยเฉพาะตัวแบบเครือข่ายประสาทความจำระยะสั้นแบบยาว ที่มีการบูรณาการเฟรมเวิร์คต่าง ๆ เช่น เครื่องมือมีเดียไปป์ เทนเซอร์โฟลว์ โดยมีเป้าหมายที่จะปรับปรุงความแม่นยำผ่านการฝึกฝนแบบวนซ้ำและป้องกันการโอเวอร์ฟิตติ้งโดยการจัดการกระบวนการฝึกฝนอย่างรอบคอบ ในตอนท้ายของงานนี้มีการนำเสนอการประเมินคุณภาพของตัวแบบการเรียนรู้ของเครื่องจักรที่แสดงให้เห็นค่าเฉลี่ยผลการทดสอบความถูกต้องแม่นยำของตัวแบบการเรียนรู้ของเครื่องจักรในแต่ละตัวอักษรไทยทั้ง 42 ตัวในงานนี้ได้ผลลัพธ์ในเกณฑ์ดีมาก (0.98)
Article Details
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
References
กรมส่งเสริมและพัฒนาคุณภาพชีวิตคนพิการ. (2567). สถานการณ์คนพิการ 30 กันยายน 2566. กรุงเทพฯ: กรมส่งเสริมและพัฒนาคุณภาพชีวิตคนพิการ. https://dep.go.th/th/law-academic/knowledge-base/disabled-person-situation/สถานการณ์คนพิการ-30-กันยายน-2565
ภาควิชาภาษาศาสตร์ มหาวิทยาลัยเกษตรศาสตร์. (ม.ป.ป.). แบบสะกดนิ้วมือไทย. https://pirun.ku.ac.th/~fhumalt/THSL/THSL/html/nav_th/THSL_fsp_th.htm
Ballard, D. H., & Brown, C. M. (1982). Computer Vision. Prentice Hall.
Goldsborough, P. (2016). A tour of TensorFlow. arXiv preprint arXiv:1610.01178. https://doi.org/10.48550/arXiv.1610.01178
Google. (2020, December 14). MediaPipe Holistic: Simultaneous face, hand, and pose prediction. https://blog.research.google/2020/12/mediapipe-holistic-simultaneous-face.html
Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. Neural Computation, 9(8), 1735-1780. https://doi.org/10.1162/neco.1997.9.8.1735
Jintanachaiwat, W., Jongsathitphaibul, K., Pimsan, N., Sojiphan, M., Tayakee, A., Junthep, T., & Siriborvornratanakul, T. (2024). Using LSTM to translate Thai sign language to text in real time. Discover Artificial Intelligence, 4(1), 17. https://doi.org/10.1007/s44163-024-00113-8
Joseph, F. J., Nonsiri, S., & Monsakul, A. (2021). Keras and TensorFlow: A hands-on experience. In Advanced deep learning for engineers and scientists: A practical approach (pp. 85-111).
Lugaresi, C., Tang, J., Nash, H., McClanahan, C., Uboweja, E., Hays, M., Zhang, F., Chang, C.L., Yong, M.G., Lee, J., Chang, W.T., Hua, W., Georg, M., Grundmann, M. (2019). Mediapipe: A framework for building perception pipelines. arXiv preprint arXiv:1906.08172. https://doi.org/10.48550/arXiv.1906.08172
Sertis. (2564). MediaPipe Holistic อุปกรณ์ที่สามารถจับการเคลื่อนไหวของใบหน้า มือ และท่าทางได้ในเวลาเดียวกัน. https://sertiscorp.medium.com/mediapipe-holistic-อุปกรณ์ที่สามารถจับการเคลื่อนไหวของใบหน้า-มือ-และท่าทางได้ในเวลาเดียวกัน-e1185469e111
Techhub. (2567). รู้จัก Computer Vision เทคโนโลยีที่ทำให้ AI มองเห็น. https://www.techhub.in.th/computer-vision-technology-for-ai