การพัฒนาแบบจำลองการแนะนำชมรมของนักศึกษาโดยประยุกต์เทคนิคเคมีนส์ และต้นไม้ตัดสินใจ บทความวิจัย
Main Article Content
บทคัดย่อ
การวิจัยครั้งนี้มีวัตถุประสงค์เพื่อ 1) ศึกษากระบวนการจัดกลุ่มนักศึกษาโดยใช้เทคนิค K-Means Clustering 2) พัฒนาโมเดล Decision Tree สำหรับการแนะนำชมรม และ 3) ประเมินประสิทธิภาพของกระบวนการจัดกลุ่มและโมเดลแนะนำชมรม กลุ่มตัวอย่าง ได้แก่ นักศึกษาระดับปริญญาตรี จำนวน 171 คน จากมหาวิทยาลัยเซาธ์อีสท์บางกอก โดยเลือกด้วยวิธีการสุ่มอย่างง่าย (Simple Random Sampling) เครื่องมือคือแบบสอบถามที่ผ่านการตรวจสอบความตรงเชิงเนื้อหา โดยผู้เชี่ยวชาญ 3 ท่าน สถิติที่ใช้ในการวิเคราะห์ประกอบด้วย การเข้ารหัสข้อมูลด้วย Label Encoding, การวิเคราะห์การจัดกลุ่มด้วย K-Means, และการประเมินจำนวนกลุ่มที่เหมาะสมด้วย Elbow Method, Davies–Bouldin Index และ Calinski–Harabasz Index ผลการวิจัยพบว่า 1) จำนวนกลุ่มที่เหมาะสมคือ 4 กลุ่ม 2) นักศึกษาแต่ละกลุ่มมีลักษณะความสนใจและทักษะที่แตกต่างกันอย่างชัดเจน และ 3) โมเดล Decision Tree มีค่า Accuracy เฉลี่ย 0.89 ซึ่งแสดงถึงความแม่นยำในระดับน่าพอใจ นักศึกษาแต่ละกลุ่มมีความสนใจและทักษะที่แตกต่างกันชัดเจน เทคนิคการเรียนรู้ของเครื่อง (ML) ช่วยเพิ่มความแม่นยำ ในการจัดกลุ่มนักศึกษาและการแนะนำชมรมให้เหมาะสมกับความสนใจ โดยสรุป การวิจัยครั้งนี้ยืนยันว่าเทคนิคการเรียนรู้ของเครื่องมีศักยภาพในการสนับสนุนการเลือกชมรมที่เหมาะสม และสามารถเพิ่มโอกาสการมีส่วนร่วมของนักศึกษาในกิจกรรมได้อย่างเป็นรูปธรรม
Article Details

อนุญาตภายใต้เงื่อนไข Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
บทความที่ได้รับการตีพิมพ์และเป็นลิขสิทธิ์ของวารสารวิทยาศาสตร์และเทคโนโลยี มหาวิทยาลัยเซาธ์อีสท์บางกอก
เอกสารอ้างอิง
Ministry of Higher Education, Science, Research and Innovation, Guidelines for the Development of Thai Higher Education Graduates in the 21st Century. Bangkok, Thailand: Ministry of Higher Education, Science, Research and Innovation, 2021. (in Thai)
Ministry of Education, Bachelor’s Degree Qualification Standards in Education and Teacher Education (Four-Year Program). Bangkok, Thailand: Ministry of Education, 2019. (in Thai)
T. M. Mitchell, Machine Learning. New York, NY, USA: McGraw-Hill, 1997.
T. Hastie, R. Tibshirani, and J. Friedman, The Elements of Statistical Learning. New York, NY, USA: Springer, 2009.
A. K. Jain, M. N. Murty, and P. J. Flynn, “Data clustering: A review,” ACM Computing Surveys, vol. 31, no. 3, pp. 264–323, 1999.
J. Han, M. Kamber, and J. Pei, Data Mining: Concepts and Techniques, 3rd ed. San Francisco, CA, USA: Morgan Kaufmann, 2012.
H. Zhao, “Design and implementation of an improved K-means clustering algorithm,” Mobile Information Systems, Art. no. 6041484, 2022.
N. R. Jevintya, U. Darusalam, and S. Abdullah, “Application of the K-means and decision tree algorithms in determining student achievement,” Jurnal Informatika dan Komputer (JIKO), vol. 7, no. 1, pp. 13–18, 2024.
A. H. Anshor and A. T. Zy, “Implementasi metode decision tree pada sistem prediksi status kualitas produk minuman A,” Jurnal Ilmiah Informatika Global, vol. 15, no. 1, pp. 17–22, 2024.
S. Raschka and V. Mirjalili, Python Machine Learning: Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow 2, 3rd ed. Birmingham, UK: Packt, 2019.
Z. Guo, Y. Shi, F. Huang, X. Fan, and J. Huang, “Landslide susceptibility zonation method based on C5.0 decision tree and K-means cluster algorithms to improve the efficiency of risk management,” Geoscience Frontiers, vol. 12, Art. no. 101249, 2021.
D. M. W. Powers, “Evaluation: From precision, recall and F-measure to ROC, informedness, markedness, and correlation,” Journal of Machine Learning Technologies, vol. 2, no. 1, pp. 37–63, 2011.
R. A. Stemler, “A comparison of consensus, consistency, and measurement approaches to estimating interrater reliability,” Practical Assessment, Research, and Evaluation, vol. 9, no. 4, pp. 1–19, 2004.
R. V. Krejcie and D. W. Morgan, “Determining sample size for research activities,” Educational and Psychological Measurement, vol. 30, no. 3, pp. 607–610, 1970.
W. McKinney, Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython, 2nd ed. Sebastopol, CA, USA: O’Reilly Media, 2017.
F. Pedregosa et al., “Scikit-learn: Machine learning in Python,” Journal of Machine Learning Research, vol. 12, pp. 2825–2830, 2011.
J. D. Hunter, “Matplotlib: A 2D graphics environment,” Computing in Science & Engineering, vol. 9, no. 3, pp. 90–95, 2007.
F. Chollet, Deep Learning with Python, 2nd ed. Shelter Island, NY, USA: Manning Publications, 2021.
A. Agresti and B. Finlay, Statistical Methods for the Social Sciences, 4th ed. Upper Saddle River, NJ, USA: Pearson, 2009.
R. Kohavi, “A study of cross-validation and bootstrap for accuracy estimation and model selection,” in Proc. Int. Joint Conf. Artificial Intelligence (IJCAI), pp. 1137–1145, 1995.
L. Breiman, J. Friedman, R. Olshen, and C. Stone, Classification and Regression Trees. Belmont, CA, USA: Wadsworth, 1984.
S. Lundberg and S.-I. Lee, “A unified approach to interpreting model predictions,” in Advances in Neural Information Processing Systems (NeurIPS), pp. 4765–4774, 2017.
World Medical Association, “Declaration of Helsinki: Ethical principles for medical research involving human subjects,” JAMA, vol. 310, no. 20, pp. 2191–2194, 2013.
A. Field, Discovering Statistics Using SPSS, 5th ed. London, UK: SAGE Publications, 2018.
A. Arslan, M. Kaya, and T. Demir, “Clustering students based on learning styles using K-means algorithm,” Education and Information Technologies, vol. 29, no. 1, pp. 55–70, 2024.
H. Do and P. Le, “Communication activities and student social skills development: A study in higher education,” Education and Training, vol. 66, no. 2, pp. 123–135, 2024.
J. David and R. Balakrishnan, “Predicting student performance using decision tree models in higher education,” Applied Artificial Intelligence, vol. 38, no. 5, pp. 412–428, 2024.
D. A. Kolb, Experiential Learning: Experience as the Source of Learning and Development, 2nd ed. Upper Saddle River, NJ, USA: Pearson, 2015.
C. Rogers, Freedom to Learn, 3rd ed. Columbus, OH, USA: Merrill, 1994.