การจำแนกภาพเมล็ดข้าววัชพืชจากภาพโทรศัพท์เคลื่อนที่ โดยใช้โครงข่ายประสาทเทียมด้วยวิธีการถ่ายโอนความรู้ (Classification of Weedy Rice-grain from Mobile Images Using Transfer learning Neural network)
Main Article Content
บทคัดย่อ
งานวิจัยนี้ได้เสนอการใช้โครงข่ายประสาทเทียม (Neural network) ในการคัดแยกข้าววัชพืชออกจากข้าวปลูกสำหรับรูปภาพที่ถ่ายด้วยกล้องโทรศัพท์เคลื่อนที่โดยใช้วิธีการถ่ายทอดการเรียนรู้จากตัวแบบที่เทรนด้วยภาพจากกล้องสะท้อนภาพเลนส์เดี่ยวด้วยระบบดิจิทัล (DSLR) ที่มีรายละเอียดของภาพสูงและถ่ายในสภาพแวดล้อมแบบปิด เพื่อนำภาพไปใช้เป็นตัวตั้งต้นสำหรับสร้างตัวแบบเพื่อทำนายภาพโทรศัพท์เคลื่อนที่ โดยงานวิจัยใกล้เคียงล้วนเสนอไปทางด้านการสกัดคุณลักษณะ (Feature extraction) ซึ่งมีข้อจำกัดที่ต้องใช้งานในสภาพแวดล้อมแบบปิดจึงไม่เหมาะสมกับภาพโทรศัพท์เคลื่อนที่ที่มีสภาพแวดล้อมของภาพหลากหลาย ขั้นตอนการเตรียมข้อมูล ทางผู้วิจัยได้แยกภาพเมล็ดข้าวออกจากพื้นหลังและฝุ่นผงและทำการปรับสเกลของภาพเมล็ดข้าวที่ถ่ายด้วยกล้องโทรศัพท์เคลื่อนที่ (Scaled mobile) ให้ใกล้เคียงขนาดจริงโดยอ้างอิงขนาดของเหรียญบาท เมื่อทดสอบตัวแบบที่เทรนด้วยภาพ DSLR พบว่ามีค่าความแม่นยำเมื่อทำนายด้วยภาพโทรศัพท์เคลื่อนที่ (Original mobile) เพิ่มขึ้นจากร้อยละ 49 เป็นร้อยละ 67 ผู้วิจัยเลือกใช้ตัวแบบ VGG16 และ Resnet50 ทดลองหาไฮเปอร์พารามิเตอร์ที่เหมาะสม และได้แบ่งวิธีการป้อนข้อมูลเป็น 3 วิธีดังนี้ (1) Mix method: สร้างตัวแบบจากข้อมูลภาพ DSLR และภาพ Scaled mobile (2) Retrain1 method: นำตัวแบบที่เทรนด้วยภาพ DSLR นำมาเทรนซ้ำด้วยภาพ Scaled mobile ให้ชุด validate set มีภาพจากทั้งสองชุด และ (3) Retrain2 method: ดัดแปลงมาจากวิธีที่ (2) โดยเพิ่มชุดภาพ DSLR อัตราสามในสิบส่วนจากตัวแบบต้นแบบ จากการทดลองพบว่าวิธีที่ให้ความแม่นยำดีที่สุดคือวิธีที่ (1) Mix method มีความแม่นยำร้อยละ 95 และร้อยละ 92 ในชุดทดสอบ DSLR และ Scaled mobile ตามลำดับ สำหรับวิธีที่ (3) Retrain2 method ให้ผลดีรองลงมา แต่มีประโยชน์ในด้านการประหยัดเวลาในการเทรนตัวแบบและใช้ขนาดข้อมูลที่น้อย
Article Details
เอกสารอ้างอิง
Aukkapinyo, K., Sawangwong, S., P., P., and Kusakunniran, W. (2020). Localization and classification of rice-grain images using region proposals-based convolutional neural network. International Journal of Automation and Computing, 17, 233-246.
Han, S. S., Park, G. H., Lim, W., Kim, M. S., Na, J. I., Park, I., and Chang, S. E. (2018). Deep neural networks show an equivalent and often superior performance to dermatologists in onychomycosis diagnosis: Automatic construction of onychomycosis datasets by region-based convolutional deep neural network. PLoS ONE, 13.
He, K., Zhang, X., Ren, S., and Sun, J. (2016). Deep residual learning for image recognition. The Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 27-30 June 2016, Las Vegas, NV, USA, 770-778.
Joshi, M., and Patel, V. (2018). Convolutional neural network with transfer learning for rice type classification. The proceedings of Tenth international Conference on Machine Vision(ICMV 2017), 13 April 2018, Vol. 10696, pp. 282-289.
Lurstwut, B., and Pornpanomchai, C. (2017). Image analysis based on color, shape and texture for rice seed (Oryza sativa L.) germination evaluation. Agriculture and Natural Resources, 51(5), 383-389.
Mehra, R. (2018). Breast cancer histology images classification: Training from scratch or transfer learning?. ICT Express, 4(4), 247-254.
Rezende, E., Ruppert, G., Carvalho, T., Theophilo, A., Ramos, F., and de Geus, P. (2018). Malicious software classification using VGG16 deep neural network’s bottleneck features. In Information Technology-New Generation. Springer, Cham., 51-59.
Silva, C. S., and Sonnadara, D. (2013). Classification of rice grains using neural networks. The Proceedings of the Technical Sessions (IPSL). Sri Lanka., 29, 9-14.
Simonyan, K., and Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. [Online]. Retrieved May 15, 2021 from: https://arxiv.org/abs/1409.1556