การพัฒนาแอปพลิเคชันระบุธนบัตรไทยด้วยเสียงสำหรับผู้พิการทางสายตาผ่านสมาร์ทโฟน

Main Article Content

ณัฐวดี หงษ์บุญมี
กาญจนา แสงตาล

บทคัดย่อ

งานวิจัยนี้มีวัตถุประสงค์เพื่อนำเสนอการพัฒนาแอปพลิเคชันช่วยระบุธนบัตรไทยด้วยเสียงสำหรับผู้พิการทางสายตาผ่านสมาร์ทโฟนระบบปฏิบัติการแอนดรอยด์ด้วยเทคโนโลยีการเรียนรู้เชิงลึกสำหรับการจำแนกภาพธนบัตรและเทคโนโลยี Text to Speech สำหรับการแปลงข้อความเป็นเสียงผ่านสมาร์ทโฟน การดำเนินงานเริ่มจากการรวบรวมกลุ่มตัวอย่างธนบัตรไทยจำนวน 2,700 ภาพ โดยการนำภาพมาวิเคราะห์และสร้างโมเดลจำแนกภาพด้วยโครงข่ายประสาทเทียมแบบคอนโวลูชันที่มีการใช้อัลกอริธึม MobileNet ผ่านไลบรารี Tensorflow จากนั้นนำโมเดลไปพัฒนาเป็นแอปพลิเคชันบนสมาร์ทโฟน แอปพลิเคชันนี้พัฒนาด้วยโปรแกรม Android Studio ภาษา JAVA และไลบรารี่ Text to Speech ผลการวัดประสิทธิภาพโมเดลได้ค่าความถูกต้องเท่ากับ 95.00% ผลการทดสอบแอปพลิเคชันพบว่าสามารถจำแนกธนบัตรได้ถูกต้อง 84.00% ส่วนผลประเมินความพึงพอใจจากผู้ใช้งานพบว่ามีความพึงพอใจเฉลี่ยเท่ากับ 4.33 ส่วนเบี่ยงเบนมาตรฐาน 0.56 อยู่ในระดับดี สามารถสรุปได้ว่าแอปพลิเคชันนี้มีประสิทธิภาพสามารถช่วยให้ผู้พิการทางสายตาทราบถึงชนิดธนบัตรได้ง่ายขึ้น เนื่องจากสามารถระบุชนิดธนบัตรด้วยเสียงและอำนวยความสะดวกแก่ผู้พิการทางสายตาในการใช้งานได้ทุกที่ทุกเวลา ทั้งยังช่วยส่งเสริมการดำเนินชีวิตสำหรับผู้พิการทางสายตาให้สามารถดำรงชีวิตขั้นพื้นฐานได้สะดวกเพิ่มมากขึ้น

Article Details

รูปแบบการอ้างอิง
[1]
หงษ์บุญมี ณ. และ แสงตาล ก., “การพัฒนาแอปพลิเคชันระบุธนบัตรไทยด้วยเสียงสำหรับผู้พิการทางสายตาผ่านสมาร์ทโฟน”, JIST, ปี 9, ฉบับที่ 2, น. 24–34, ธ.ค. 2019.
ประเภทบทความ
บทความวิจัย Multidisciplinary

เอกสารอ้างอิง

1. กรมส่งเสริมและพัฒนาคุณภาพชีวิตคนพิการ, “สถานการณ์คนพิการ มีนาคม 2562,” [Online]. Available: https://dep.go.th/Content/View/4232/1 [Accessed: April 10, 2019].

2. ศุภา คงแสงไชย, กลยุทธ์การกระตุ้นพัฒนาการทางสายตาสำหรับเด็กพิการทางสายตาและเด็กด้อยโอกาสอายุ 0-3 ปี, กรุงเทพฯ: สำนักพิมพ์สุภา, 2014.

3. L. Deng and D. Yu, “Deep Learning Methods and Application,” Foundations and Trends in Signal Processing, vol. 17, No.3-4, pp. 197–387, June. 2014.

4. “The Connect Between Deep Learning and AI”. [Online]. Available: https://opensourceforu.com/2018/01/connect-deep-learning-ai/. [Accessed: April 14, 2019].

5. Y. Gao and H. J. Lee, “Vehicle Make Recognition Based on Convolutional Neural Network,” 2015 2nd International Conference on Information Science and Security (ICISS), Seoul, 2015, pp. 1–4.

6. S. Rabano, M. Cabatuan, E. Sybingco, E. Dadios and E. Calilung, “Common Garbage Classification Using MobileNet,” 2018 IEEE 10th International Conference on Humanoid, Nanotechnology, Information Technology, Communication and Control, Environment and Management (HNICEM), Baguio City, Philippines, 2018, pp. 1–4.

7. S. Lukose and S. Upadhya, “Text to Speech Synthesizer-Formant Synthesis,” in Proceeding of IEEE International Conference on Nascent Technologies in the Engineering Field, Navi Mumbai, India, 2017, pp. 121–124.

8. P. Pankerd, T. Tirabutr, T. Tanduang and S. Pongpinigpinyo, “Using deep learning for printed thai charaters recognition,” in Proceeding of 13th National Conference on Computing and Information Technology (NCCIT), King Mongkut’s University of Technology North Bangkok, Bangkok, 2017, pp. 181–186.

9. W. Wairotchanaphuttha, M. Uimin, N. Boonsirisumpun and W. Puarungroj, “Detection and classification of vehicles using deep learning algorithm for video surveillance systems,” in Proceeding of 14th National Conference on Computing and Information Technology (NCCIT), King Mongkut’s University of Technology North Bangkok, Bangkok, 2018, pp. 402–407.

10. A. Reangsuk and T. Kungkajit, “Classification of amulets using deep learning techniques,” in Proceeding of 10th National Conference on Information Technology (NCIT), Mahasarakham University, Mahasarakham, 2018, pp. 190–194.

11. N. Manoi, A. Bunjanda and C. Rattanapoka, “A System for cooking recipe sharing and cooking recipe finding.