การศึกษาเทคโนโลยีการรู้จำตัวบุคคลด้วยเสียงเพื่อพัฒนาแพลตฟอร์มการยืนยันตัวบุคคลด้วยเทคโนโลยีชีวมิติที่มีความมั่นคงปลอดภัย สำหรับกองทัพอากาศไทย

Main Article Content

พายัพ ศิรินาม
ประสงค์ ปราณีตพลกรัง

บทคัดย่อ

          ในปัจจุบัน การประยุกต์ใช้งานการยืนยันตัวบุคคลด้วยเทคโนโลยีชีวมิติได้รับความนิยมเพิ่มมากขึ้นสำหรับการยืนยันตัวบุคคลแบบหลายปัจจัย ถึงกระนั้นกองทัพอากาศยังขาดการประยุกต์ใช้เทคโนโลยีชีวมิติเพื่อการยืนยันตัวบุคคล ดังนั้น คณะผู้วิจัยจึงได้วิจัยและพัฒนาองค์ความรู้ในการประยุกต์ใช้งานเทคโนโลยีชีวมิติด้วยการใช้เสียงของมนุษย์เพื่อใช้ยืนยันตัวบุคคล เนื่องจากชีวมิติดังกล่าวมีความแม่นยำ ปลอดภัย และใช้ต้นทุนในการพัฒนาระบบที่ต่ำกว่าชีวมิติประเภทอื่น ๆ โดยคณะผู้วิจัยได้พัฒนาโมเดลโดยใช้ชุดข้อมูล LibriSpeech และทำการทดสอบโดยใช้เสียงภาษาไทย ภายใต้ข้อจำกัดด้านสภาพแวดล้อมและความเสี่ยงจากเสียงปลอมแปลงจากเทคโนโลยี Deep Voice ผลการทดลองพบว่า โมเดลมีระดับความถูกต้องในการยืนยันตัวบุคคลที่ดีที่สุดอยู่ที่ 75% ณ ค่าขีดแบ่งที่ 0.9 และพบว่าปัจจัยเกี่ยวกับสภาพแวดล้อมที่มีผลกระทบอย่างมีนัยยะสำคัญต่อประสิทธิภาพของโมเดลได้แก่ รูปแบบประโยคในการยืนยันตัวบุคคลที่แตกต่างกัน ประเภทของอุปกรณ์บันทึกเสียงที่แตกต่างกัน ในทางตรงกันข้าม การใส่หน้ากากอนามัยและเสียงรบกวนต่าง ๆ ที่ไม่ดังเกินไป กลับไม่มีผลกระทบอย่างมีนัยยะสำคัญกับประสิทธิภาพ มากไปกว่านั้น ผลการวิจัยยังระบุว่า โมเดลดังกล่าวมีความเปราะบางต่อเสียงปลอมแปลงจากเทคโนโลยี Deep Voice ซึ่งเป็นการเน้นย้ำถึงความสำคัญของการพัฒนาโมเดลที่ทนทานต่อการโจมตีทางไซเบอร์ดังกล่าวก่อนที่จะนำเอาโมเดลไปประยุกต์ใช้งานจริงในอนาคต

Article Details

รูปแบบการอ้างอิง
[1]
ศิรินาม พ. และ ปราณีตพลกรัง ป., “การศึกษาเทคโนโลยีการรู้จำตัวบุคคลด้วยเสียงเพื่อพัฒนาแพลตฟอร์มการยืนยันตัวบุคคลด้วยเทคโนโลยีชีวมิติที่มีความมั่นคงปลอดภัย สำหรับกองทัพอากาศไทย”, NKRAFA J.Sci Technol., ปี 18, ฉบับที่ 2, น. 1–15, ธ.ค. 2022.
ประเภทบทความ
บทความวิจัย

เอกสารอ้างอิง

กองทัพอากาศ. (2563). ยุทธศาสตร์กองทัพอากาศ 20 ปี (ฉบับปรับปรุง พ.ศ.2563). สืบค้น 12 มีนาคม 2565,

จาก www.rtaf.mi.th/th/Documents/Publication/RTAF%20Strategy_Final_04122563.pdf

Manikandan, K., & Chandra, E. (2016). Speaker Identification using a Novel Prosody with Fuzzy based Hierarchical

Decision Tree Approach. Indian Journal of Science and Technology. 9: 44.

Dhakal, P., Damacharla, P., Javaid, A. Y., & Devabhaktuni, V. (2019). A Near Real-Time Automatic Speaker Recognition

Architecture for Voice-Based User Interface. Machine Learning and Knowledge Extraction. 1: 504 - 520.

The Math Works, Inc. (1994). Speaker Identification Using Pitch and MFCC. Retrieved on May 5, 2022, from

https://www.mathworks.com/help/audio/ug/speaker-identification-using-pitch-and-mfcc.html

Zaharchuk, G., Gong, E., Wintermark, M., et al. (2018). Deep learning in neuroradiology. AJNR Am J Neuroradiol.

: 1776 - 1784.

Tirumala, S.S., Shahamiri, S. R., Garhwal, A. S., & Wang, R. (2017). Speaker identification features extraction

methods: A systematic review. Expert Systems with Applications. 90: 250 - 271.

พายัพ ศิรินาม. (2562). การพัฒนาโมเดลการเลียนเสียงเชิงลึกสำหรับงานด้านสงครามไซเบอร์ (รายงานผลการวิจัย).

กรุงเทพฯ: โรงเรียนนายเรืออากาศนวมินทกษัตริยาธิราช.

Adrian Rosebrock. (2020). GANs with Keras. Retrieved on May 12, 2022, from https://pyimagesearch.com/

/11/16/gans-with-keras-and-tensorflow/

Vassil Panayotov. (2015). LibriSpeech. Retrieved on June 6, 2022, from https://paperswithcode.com/dataset/librispeech

Ambient Sound TH. (2565). เสียงคนงานกำลังทำงานก่อสร้าง. Retrieved on June 6, 2022, from https://www.youtube.com/

watch?v=3mpmmCqx9fo&ab_channel=AmbientSound%E2%80%8BTH