The Study of Speaker Recognition Technology to Develop a Secure Biometric Authentication Platform for RTAF

Main Article Content

Payap Sirinam

Abstract

          Applications for multi-factor authentication using biometrics are becoming increasingly popular today. However, the Royal Thai Air Force has not implemented biometric technologies for identity verification. For this reason, the research team conducted a study and created a body of knowledge on the use of biometric technologies to identify individuals by their voice. The researchers created a model based on the LibriSpeech dataset and tested it using the Thai voice, as such biometric methods are more accurate, secure, and cost-effective than other biometric methods. The results reveal that environmental elements such as different sentence forms for verification and different types of recording devices are found to significantly affect the performance of the model.  In contrast, wearing a mask and other quiet noises do not significantly decrease the performance of the model. Finally, the results also show the model's vulnerability to deep voice spoofing, highlighting the need to develop a model that is resistant to such cyberattacks before it is used in the future.

Article Details

How to Cite
Sirinam, P. (2022). The Study of Speaker Recognition Technology to Develop a Secure Biometric Authentication Platform for RTAF. NKRAFA JOURNAL OF SCIENCE AND TECHNOLOGY, 18(2), 1–15. Retrieved from https://ph02.tci-thaijo.org/index.php/nkrafa-sct/article/view/247757
Section
Research Articles

References

Zaharchuk G, Gong E, Wintermark M, et al. Deep learning in neuroradiology.AJNR Am J Neuroradiol 2018;

:1776–84 doi:10.3174/ajnr.A5543 pmid:29419402

The MathWorks, Inc (1994-2022). Speaker Identification Using Pitch and MFCC. สืบค้น 5 พฤษภาคม 2565, จาก

https://www.mathworks.com/help/audio/ug/speaker-identification-using-pitch-and-mfcc.html

Adrian Rosebrock (2020). GANs with Keras. สืบค้น 12 พฤษภาคม 2565, จาก https://pyimagesearch.com/

/11/16/gans-with-keras-and-tensorflow/

Jahangir, R., TEh, Y. W., Memon, N. A., Mujtaba, G., Zareei, M., Ishtiaq, U., … Ali, I. (2020). Text-independent

speaker identification through feature fusion and deep neural network. IEEE Access, 8, 32187–32202

Craig Silverman (2018). How To Spot A Deepfake Like The Barack Obama–Jordan Peele Video. สืบค้น 5 มิถุนายน

, จาก https://www.buzzfeed.com/craigsilverman/obama-jordan-peele-deepfake-video-debunk-buzzfeed

Vassil Panayotov. LibriSpeech. สืบค้น 6 มิถุนายน 2565, จาก https://paperswithcode.com/dataset/librispeech

Ambient Sound TH. เสียงคนงานกำลังทำงานก่อสร้าง. สืบค้น 6 มิถุนายน 2565 จาก https://www.youtube.com/

watch?v=3mpmmCqx9fo&ab_channel=AmbientSound%E2%80%8BTH

Ian Sorbello. (2021). What Is 2FA vs. MFA, SCA and Step Ups?. สืบค้น 5 มิถุนายน 2565, จาก

https://www.transmitsecurity.com/blog/what-is-2fa-vs-mfa-sca-and-step-ups

กองทัพอากาศ. (2562). หลักนิยมกองทัพอากาศ พ.ศ.2562. สืบค้น 5 พฤษภาคม 2565, จาก

www.rtaf.mi.th/th/Documents/Publication/RTAF_Doctrine_2020.pdf

กองทัพอากาศ. (2563). ยุทธศาสตร์กองทัพอากาศ 20 ปี (พ.ศ.2561 - 2580) (ฉบับปรับปรุง พ.ศ.2563). สืบค้น

มีนาคม 2565, จาก www.rtaf.mi.th/th/Documents/Publication/RTAF%20Strategy_Final_04122563.pdf

กองทัพอากาศ. (2564). นโยบายผู้บัญชาการทหารอากาศ พ.ศ.2564. สืบค้น 5 มิถุนายน 2565, จาก

www.rtaf.mi.th/th/Documents/Publication/RTAF_Policy_2565.pdf

พายัพ ศิรินาม. (2562). การพัฒนาโมเดลการเลียนเสียงเชิงลึกสำหรับงานด้านสงครามไซเบอร์ (รายงานผลการวิจัย).

กรุงเทพฯ: โรงเรียนนายเรืออากาศนวมินทกษัตริยาธิราช.

Tirumala, S. S., Shahamiri, S. R., Garhwal, A. S., & Wang, R. (2017). “Speaker identification features extraction

methods: A systematic review. Expert Systems with Applications”, 90, 250–271.

Manikandan, K., & Chandra, E. (2016). “Speaker Identification using a Novel Prosody with Fuzzy based Hierarchical

Decision Tree Approach”. Indian Journal of Science and Technology, 9, 44

Jahangir, R., TEh, Y. W., Memon, N. A., Mujtaba, G., Zareei, M., Ishtiaq, U., … Ali, I. (2020). “Text-independent

speaker identification through feature fusion and deep neural network”. IEEE Access, 8, 32187–32202.

Dhakal, P., Damacharla, P., Javaid, A. Y., & Devabhaktuni, V. (2019). A Near Real-Time Automatic Speaker

Recognition Architecture for Voice-Based User Interface. Machine Learning and Knowledge Extraction, 1, 504–