Lọc theo danh mục
  • Năm xuất bản
    Xem thêm
  • Lĩnh vực
liên kết website
Lượt truy cập
 Lượt truy cập :  22,608,836
  • Công bố khoa học và công nghệ Việt Nam

Khoa học kỹ thuật và công nghệ

BB

Tống Thị Lý, Lường Thanh Tuấn, Trần Minh Quang, Hoàng Kim Nga, Đỗ Trọng Hiếu, Dương Minh Đức(1)

Xác định hướng của người cho hệ thống Robot di động hỗ trợ người khiếm thị di chuyển trong nhà

Human Direction Determination for Visully Impaired Support Indoor Mobile Robot

Chuyên san Đo lường, Điều khiển và Tự động hóa

2024

2

12-19

Việc di chuyển độc lập là một phần không thể thiếu trong cuộc sốnghàng ngày của nhiều người khiếm thị. Để giúp người khiếm thị điềuhướng, cải thiện chất lượng cuộc sống, đã có những thiết kế khôngchỉ ở dạng mang theo như gậy điện tử và vali dẫn đường, chó robot.Tuy nhiên, với môi trường trong nhà, việc luôn phải mang theo mộtvật bên cạnh sẽ thực sự không phù hợp, vì thế đã có nhiều nghiêncứu về các rô bốt di động điều hướng và hỗ trợ họ trong môi trườngtrong nhà. Một trong những yêu cầu của hệ thống robot không tiếpxúc này là cần xác định hướng của người khiếm thị để ra được cáchỗ trợ chính xác. Bài báo tập trung vào việc phát triển các thuật toánxác định hướng đối tượng cần hỗ trợ di chuyển trong môi trườngtrong nhà. Các thông tin của đối tượng được thu thập bằng camera3D, sau đó các kỹ thuật bám đối tượng, xây dựng khung xương kếthợp với bộ lọc Gauss lọc ảnh độ sâu được sử dụng để tính toán ragóc hướng của đối tượng. Thuật toán đề xuất đã được thử nghiệmvới tập mẫu đại diện cho người khiếm thị trong phòng thí nghiệm.Các kết quả thu được cho thấy thuật toán đem lại độ chính xác caovới đối tượng tĩnh và chấp nhận được với đối tượng động. Đây là cơsở để cho phép ứng dụng thuật này cho hệ thống robot di động trợgiúp người khiếm thị.

Independent mobility is an essential part of the daily life of many visually impaired individuals. To assist them in navigation and improvetheir quality of life, various designs have been developed, including portable devices such as electronic canes, navigation suitcases, andguided robotic dogs. However, when it comes to indoor environments, constantly carrying an object alongside is not practical. Therefore,there have been numerous studies on mobile robot systems for navigation and assistance in indoor environments. One of the requirementsfor such a non-contact robot system is to determine the direction of the visually impaired individual to provide accurate assistance. Thisarticle focuses on developing algorithms for determining the direction of the object that needs assistance in indoor environments. The object'sinformation is collected using a 3D camera, and then techniques such as object tracking, skeleton framework construction, and Gaussianfiltering of depth images are used to calculate the object's direction angle. The proposed algorithm was tested with a representative sample ofvisually impaired individuals in a laboratory setting. The results showed high accuracy for static objects and acceptable performance fordynamic objects. This forms the basis for applying this algorithm to mobile robot systems that assist visually impaired individuals.

  • [1] Ito, K.; Xiong, K. (2000), Gaussian filters for nonlinear filtering problems,IEEE Trans. Automat. Control
  • [2] Young, I. T.; van Vliet, L. J. (1995), Recursive implementation of the Gaussian filter,Signal Processing
  • [3] Washabaugh, E. P.; Shanmugam, T. A.; Ranganathan, R.; Krishnan, C. (2022), Comparing open-source pose estimation methods for gait kinematics,Gait & Posture
  • [4] Chung, J.-L.; Ong, L.-Y.; Leow, M.-C. (2022), Comparative Analysis of Skeleton-Based Human Pose Estimation,Future Internet
  • [5] Sidhu, R. K. (2006), Tutorial on Minimum Output Sum of Squared Error Filter,Master's thesis, Colorado State University
  • [6] Goyal, G.; Di Pietro, F.; Carissimi, N.; Glover, A.; Bartolozzi, C. (2023), MoveEnet: Human Pose Estimation with Event Camera,Proc. IEEE/CVF Conf. CVPR
  • [7] Culjak, I.; Abram, D.; Pribanic, T.; Dzapo, H.; Cifrek, M. (2012), A Brief Introduction to OpenCV,Proc. 35th Intl. Convention MIPRO
  • [8] Talwar, D.; Jung, S. (2019), Particle Filter Localization using Lidar in ROS,Proc. ICCAS
  • [9] Basheer, M. M.; Varol, A. (2019), Overview of Robot Operating System Forensics,Proc. UBMYK Conf.
  • [10] Nguyen, Q.-H.; et al. (2015), A Visual SLAM System for Localization Support,ECCV 2014 Workshops – Lecture Notes in Computer Science
  • [11] Bamdad, M.; Scaramuzza, D.; Darvishy, A. (2023), SLAM for Visually Impaired Navigation: A Literature Review,arXiv
  • [12] An, Z.; Hao, L.; Liu, Y.; Dai, L. (2016), Development of mobile robot SLAM based on ROS,Int. J. Mech. Eng. Robotics Research
  • [13] Kayukawa, S.; Ishihara, T.; Takagi, H.; Morishima, S.; Asakawa, C. (2020), BlindPilot: A Robotic Local Navigation System,Extended Abstracts of CHI Conf. Human Factors
  • [14] Kayukawa, S.; Ishihara, T.; Takagi, H.; Morishima, S.; Asakawa, C. (2020), Guiding Blind Pedestrians via Understanding Nearby Walking Behavior,Proc. ACM Interact. Mob. Wearable Ubiq. Technol.
  • [15] Xiao, A.; Tong, W.; Yang, L.; Zeng, J.; Li, Z.; Sreenath, K. (2021), Robotic Guide Dog: Hybrid Physical Interaction,Proc. IEEE ICRA
  • [16] dos Santos, A. D. P.; Medola, F. O.; Cinelli, M. J.; Ramirez, A. R. G.; Sandnes, F. E. (2021), Are Electronic White Canes Better Than Traditional Canes?,Universal Access in the Information Society
  • [17] Dernayka, A.; Amorim, M.-A.; Leroux, R.; Bogaert, L.; Farcy, R. (2021), Tom Pouce III: Electronic White Cane for Blind People,Sensors
  • [18] Zhao, Y.; Kupferstein, E.; Tal, D.; Azenkot, S. (2018), How Low Vision People Navigate Stairs and Surface Level Changes,Proc. ACM SIGACCESS ASSETS '18
  • [19] Lin, B.-S.; Lee, C.-C.; Chiang, P.-Y. (2017), Smartphone-Based Guiding System for Visually Impaired People,Sensors
  • [20] Real, S.; Araujo, A. (2019), Navigation Systems for the Blind and Visually Impaired,Sensors
  • [21] Kuriakose, B.; Shrestha, R.; Sandnes, F. E. (2022), Tools and Technologies for Blind and Visually Impaired Navigation Support,IETE Technical Review
  • [22] (2024), Vision impairment and blindness,who.int
  • [23] Ito, K.; Xiong, K. (2000), Gaussian filters for nonlinear filtering problems,IEEE Transactions on Automatic Control
  • [24] Young, I. T.; van Vliet, L. J. (1995), Recursive implementation of the Gaussian filter,Signal Processing
  • [25] Washabaugh, E. P.; Shanmugam, T. A.; Ranganathan, R.; Krishnan, C. (2022), Comparing the accuracy of open-source pose estimation methods,Gait & Posture
  • [26] Chung, J.-L.; Ong, L.-Y.; Leow, M.-C. (2022), Comparative Analysis of Skeleton-Based Human Pose Estimation,Future Internet
  • [27] Sidhu, R. K. (2006), Tutorial on Minimum Output Sum of Squared Error Filter,Master thesis, Colorado State University
  • [28] Goyal, G.; Di Pietro, F.; Carissimi, N.; et al. (2023), MoveEnet: Online High-Frequency Human Pose Estimation,Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition
  • [29] Culjak, I.; Abram, D.; Pribanic, T.; et al. (2012), A brief introduction to OpenCV,35th International Convention MIPRO
  • [30] Talwar, D.; Jung, S. (2019), Particle Filter-based Localization of a Mobile Robot,19th International Conference on Control, Automation and Systems (ICCAS)
  • [31] Basheer, M. M.; Varol, A. (2019), An Overview of Robot Operating System Forensics,1st International Informatics and Software Engineering Conference (UBMYK)
  • [32] Nguyen, Q.-H.; et al. (2015), A Visual SLAM System on Mobile Robot,Computer Vision - ECCV 2014 Workshops
  • [33] Bamdad, M.; Scaramuzza, D.; Darvishy, A. (2023), SLAM for Visually Impaired Navigation,arXiv
  • [34] An, Z.; Hao, L.; Liu, Y.; Dai, L. (2016), Development of mobile robot SLAM based on ROS,International Journal of Mechanical Engineering and Robotics Research
  • [35] Kayukawa, S.; Ishihara, T.; Takagi, H.; et al. (2020), BlindPilot: A Robotic Local Navigation System,Extended Abstracts of the 2020 CHI Conference on Human Factors in Computing Systems
  • [36] Kayukawa, S.; Ishihara, T.; Takagi, H.; et al. (2020), Guiding Blind Pedestrians in Public Spaces,Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies
  • [37] Xiao, A.; Tong, W.; Yang, L.; et al. (2021), Robotic Guide Dog: Leading a Human with Leash-Guided Hybrid Physical Interaction,IEEE International Conference on Robotics and Automation
  • [38] dos Santos, A. D. P.; Medola, F. O.; Cinelli, M. J.; et al. (2021), Are electronic white canes better than traditional canes?,Universal Access in the Information Society
  • [39] Dernayka, A.; Amorim, M.-A.; Leroux, R.; et al. (2021), Tom Pouce III, an Electronic White Cane for Blind People,Sensors
  • [40] Zhao, Y.; Kupferstein, E.; Tal, D.; Azenkot, S. (2018), How Low Vision People Navigate Stairs and Other Surface Level Changes,Proceedings of the 20th International ACM SIGACCESS Conference on Computers and Accessibility
  • [41] Lin, B.-S.; Lee, C.-C.; Chiang, P.-Y. (2017), Simple Smartphone-Based Guiding System for Visually Impaired People,Sensors
  • [42] Real, S.; Araujo, A. (2019), Navigation Systems for the Blind and Visually Impaired,Sensors
  • [43] Kuriakose, B.; Shrestha, R.; Sandnes, F. E. (2022), Tools and Technologies for Blind and Visually Impaired Navigation Support,IETE Technical Review
  • [44] (2024), Vision impairment and blindness,WHO Website