หุ่นยนต์เคลื่อนที่อัตโนมัติโดยการใช้กล้องระบุตำแหน่ง

Main Article Content

นภัสดล สิงหะตา

บทคัดย่อ

บทความนี้นำเสนอการระบุตำแหน่ง ซึ่งเป็นวิธีที่เชื่อถือได้ในการระบุตำแหน่งปัจจุบันของหุ่นยนต์โดยใช้การประมวลผลภาพ ซึ่งสามารถปรับปรุงการหลีกเลี่ยงการชนของสิ่งกีดขวางได้อย่างมีประสิทธิภาพด้วยเซ็นเซอร์ตรวจจับแสงและวัดระยะ (LiDAR) สำหรับหุ่นยนต์เคลื่อนที่อัตโนมัติ หุ่นยนต์พิจารณาห้าประการ ประการแรก เพื่อลดปัญหาที่เกิดจากการเลี้ยวเมื่อหุ่นยนต์ต้องการเปลี่ยนทิศทางการเคลื่อนที่ ได้มีการออกแบบหุ่นยนต์เคลื่อนที่โดยให้หุ่นยนต์สามารถเปลี่ยนทิศทางโดยไม่ต้องตีวงเลี้ยวการเคลื่อนที่ ประการที่สอง มีการใช้เซ็นเซอร์ตรวจจับแสงและวัดระยะในการตรวจจับวัตถุที่อยู่ด้านหน้าหุ่นยนต์เคลื่อนที่ เพื่อให้หุ่นยนต์มีความสามารถในการหลีกเลี่ยงสิ่งกีดขวางได้ ประการที่สาม เสนอให้มีการวางแผนเส้นทางโดยใช้อัลกอริธึมในการเดินทางหลบหลีกสิ่งกีดขวางจากท่าเริ่มต้นไปยังปลายทางในสภาพแวดล้อมที่ไม่รู้จักได้ ประการที่สี่ เพื่อปรับปรุงประสิทธิภาพการเคลื่อนที่ระบบสามารถประมวลผลแบบทันที โดยใช้การสื่อสารแบบไร้สายมีความยืดหยุ่นหุ่นยนต์สามารถเคลื่อนที่ได้อย่างอิสระมากกว่าใช้สาย สุดท้ายการปรับปรุงที่เป็นไปได้คือการเพิ่มกล้องมากกว่าหนึ่งตัว ซึ่งจะสามารถครอบคลุมการเคลื่อนที่ของหุ่นยต์ได้กว้างมากขึ้น

Article Details

How to Cite
[1]
สิงหะตา น., “หุ่นยนต์เคลื่อนที่อัตโนมัติโดยการใช้กล้องระบุตำแหน่ง”, RMUTP Sci J, ปี 17, ฉบับที่ 1, น. 102–115, มิ.ย. 2023.
บท
บทความวิจัย (Research Articles)

References

A.A. Aldair, A.L. Mayyahi and A. Maze, “Maneuvering and Colored Object Tracking for Differential Drive Mobile Robot,” Iraqi Journal for Electrical & Electronic Engineering, vol. 15, no. 1, pp. 47-52, 2019.

J. Ping, C. Liang, G. Hang, Y. Min and X. Jian, “Novel indoor positioning algorithm based on Lidar/inertial measurement unit integrated system,” International Journal of Advanced Robotic Systems, vol. 18, no. 2, pp. 1-11, 2021.

M. Rivai, D. Hutabarat and Z. M. Jauhar Nafis, “2D mapping using omni-directional mobile robot equipped with LiDAR,” Telkomnika, vol. 18, no. 3, pp. 1467-1474, 2020.

L. Juncheng, R. Maopeng, W. Han and X. Lihua, “A Behavior-Based Mobile Robot Navigation Method with Deep Reinforcement Learning,” Unmanned Systems, vol .9, no. 3, pp. 201-209, 2021.

C. Wei, S. Jian, L. Weishuo and Z. Dapeng, “A real-time multi-constraints obstacle avoidance method using LiDAR,” Journal of Intelligent & Fuzzy Systems, vol. 39, no. 1, pp. 119-131, 2020.

S.A. Li, H.M. Feng, K.H. Chen and W.H. Huang, “Highly Autonomous Visualization Map-Generation Mobile Robot System Design Through the Robot Operating System Platform,” Journal of Imaging Science & Technology, vol. 62, no. 3, pp. 1-9, 2020.

X. Yuan, L. Tongqian, S. Bin, Z. Yong, K. Siamak and S. Mingxu, “Indoor Vision/INS Integrated Mobile Robot Navigation Using Multimodel-Based Multifrequency Kalman Filter,” Mathematical Problems in Engineering, pp. 1-8, 2021.

C. Peñaranda, J. Palanca, V. Julian and V. Botti, “A flexible and dynamic mobile robot localization approach,” Logic Journal of the IGPL, vol. 28, no. 2, pp. 197-210, 2020.

C. Pang, X. Zhong, H. Hu, J. Tian, X. Peng and J. Zeng, “Adaptive Obstacle Detection for Mobile Robots in Urban Environments Using Downward-Looking 2D LiDAR,” Sensors, vol. 18, no. 6, 2018.

C. Boris, “Use of Artificial Neural Networks for Fusion of Infrared and Vision Sensors in a Mobile Robot Navigation System,” Annals of DAAAM & Proceedings, vol. 7, no, 1, pp. 80-87, 2020

X. Li, S. Du, G. Li and H. Li, “Integrate Point-Cloud Segmentation with 3D LiDAR Scan-Matching for Mobile Robot Localization and Mapping,” Sensors, vol. 20, no. 1, pp. 237-261, 2019.

K. Misu, and J Miura, “Specific person tracking using 3D LIDAR and ESPAR antenna for mobile service robots,” Advanced Robotics, vol. 29, no. 22, pp. 1483-1495, 2015.

B. Ali, Y. Ayaz, M. Jamil, S.O. Gilani and N Muhammad, “Improved method for stereo vision-based human detection for a mobile robot following a target person,” South African Journal of Industrial Engineering, vol. 26, no. 1, pp. 102-119, 2015.

N. Singhata, “AutonomousMobile Robot Using Vision System and ESP8266 NodeMCU Board,” Current Applied Science and Technology, vol. 21, no. 3, pp. 467-480, 2021.