Tài liệu đào tạo

TÀI LIỆU HƯỚNG DẪN, ĐÀO TẠO DANH CHO CÁC ĐỘI THI THAM DỰ CUỘC ĐUA SỐ 2016 - 2017

     

    STT  Tài liệu chi tiết  Tải tài liệu

    1

     Thể lệ thi đấu & Sa hình vòng 1

      Tải xuống

    2 Tài liệu luyện tập Xử lý ảnh - Xác định đường đi  Tải xuống
    3 Mã nguồn mở (sẽ được cập nhật thường xuyên)  Xem chi tiết
    4 Tài liệu hướng dẫn Thiết lập xe  Tải xuống

     

     

    HƯỚNG DẪN CƠ BẢN

    XÁC ĐỊNH ĐƯỜNG ĐI CHO XE TỰ HÀNH

    GIỚI THIỆU

    Phát hiện đường đi là một quá trình phát hiện các làn đường trên đường giao thông. Đối với con người, việc phát hiện làn đường là khá dễ dàng; thậm chí ngay cả khi đối mặt với các điều kiện khác nhau như điều kiện về đường xá, sự tồn tại của các đối tượng xung quanh, sự thay đổi của các điều kiện ánh sáng, v.v. Tuy nhiên, đối với hệ thống xe tự hành, bất kỳ sự thay đổi nào về môi trường nói trên cũng gây ra những khó khăn nhất định trong việc phát hiện làn đường tự động. Do đó, đã có rất nhiều các công trình nghiên cứu nhằm giải quyết bài toán xác định làn đường cho xe tự hành [6].

    Tài liệu này tập trung mô tả quá trình xử lý ảnh ở mức thấp (low-level image processing (LLIP)) mà được sử dụng nhằm xác định đường đi dựa trên ảnh biên của ảnh dữ liệu đầu vào.

     

    XÁC ĐỊNH ĐƯỜNG ĐI DỰA TRÊN ẢNH BIÊN (EDGE IMAGE)

    LLIP là quá trình xử lý ảnh/video đầu vào nhằm tạo ra các thông tin hữu ích cho việc xác định làn đường. Với các phương pháp xác định làn đường dựa trên thông tin về biên của ảnh, LLIP thường gồm 3 giai đoạn:

    Giai đoạn 1: Áp dụng trực tiếp một phép biến đổi lên ảnh đầu vào nhằm cải thiện độ chính xác của thuật toán phát hiện đường đi. Hai phương pháp thường được sử dụng để tạo ra bird’s-eye image từ ảnh đầu vào là:  Warp perspective mapping [1] hoặc Inverse perspective mapping [2].

    Giai đoạn 2: Tuỳ thuộc vào tính chất khác nhau của ảnh, các phương pháp phát hiện biên khác nhau được sử dụng. Một số phương pháp xác định biên của ảnh bao gồm Sobel, Canny, Kovesi-Owens [3, 4] v.v.

    Thực tế ảnh biên thu được bằng các thuật toán phát hiện biên thường tồn tại các pixel đơn lẻ hoặc nhóm nhỏ các pixels (hay còn được gọi là nhiễu) bên cạnh những pixels biên thực sự của đường đi. Và các nhiễu này sẽ ảnh hưởng rất lớn đến kết quả của các thuật toán xác định đường đi (trong giai đoạn 3), do đó chúng phải được loại bỏ bằng cách sử dụng các phép toán khử nhiễu [5].

    Giai đoạn 3: Xác định làn đường sử dụng một số kĩ thuật xử lý trên ảnh biên. Một số kỹ thuật có thể sử dụng bao gồm: 

    1. Biến đổi khoảng cách: nhằm gán nhãn mỗi pixel với khoảng cách đến pixel biên gần nhất. Các pixels biên được gán nhẵn bằng 0 và các pixel “nằm giữa làn”  được xem là có nhãn lớn nhất. Một số hàm biến đổi khoảng cách thường dùng là EDT (Euclide distance transform) [7] hoặc ODT (Orientation distance transform) [8],  RODT (Real orientation distance transform) [9]
    2. Sử dụng Hough transform [10] và thuật toán tìm vanishing point [11]

     

    TÀI LIỆU THAM KHẢO

    1. Z. Kim, Robust lane detection and tracking in challenging scenarios, IEEE Trans Intelligent 
Transportation System, 9:16-26, 2008
    2. M. A. Mallot, H. H. B Hulthoff, J. J. Little, and S. Bohrer, Inverse perspective mapping simplifies optical flow computation and obstacle detection, Biological Cybernetics, 64:177– 
185, 1991
    3.  A. Al-Sarraf, T. Vaudrey, R. Klette, and Y. W. Woo: An approach for evaluating robustness of edge operators on real-world driving scenes. In Proc. IEEE Int. Conf. Image and Vision Computing New Zealand (IVCNZ), IEEE Xplore, 2008.
    4. https://en.wikipedia.org/wiki/Edge_detection
    5. Antoni Buades, Bartomeu Coll, Jean-Michel Morel. A review of image de-noising algorithms, with a new one. SIAM Journal on Multi-scale Modeling and Simulation: A SIAM Interdisciplinary Journal, 2005, 4 (2), pp.490-530
    6. J.C. McCall, M.M. Trivedi, Video-based lane estimation and tracking for driver assistance: survey, system, and evaluation, IEEE Transactions on Intelligent Transportation Systems, 7(1), 2006, pp.20-37
    7.  R. Klette, and A. Rosenfeld: Digital Geometry, Morgan Kaufmann, San Francisco, 2004
    8.  T. Wu, X. Q. Ding, S. J. Wang, and K. Q. Wang: Video object tracking using improved chamfer matching and condensation particle filter. In Proc. SPIE-IS & T Electronic Imaging, 
volume 6813, pages 04.1–04.10, 2008.
    9.  Ruyi Jiang, Mutsuhiro Terauchi, Reinhard Klette, Shigang Wang, Tobi Vaudrey, Low Level Image Processing for Lane Detection and Tracking, chapter Arts and Technology, Vol 30, Lectures Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, pages 190-197
    10. https://en.wikipedia.org/wiki/Hough_transform
    11. https://en.wikipedia.org/wiki/Vanishing_point