Khả năng tránh mắc lỗi như con người và cứu mạng người ở xe tự hành là giấc mơ của chúng ta, nhưng một báo cáo mới của Cơ quan An ninh mạng Liên minh Châu Âu (ENISA) đã phát hiện ra rằng xe tự hành “rất dễ bị tấn công”, gây nguy hiểm cho hành khách, người đi bộ và những người trên các phương tiện khác. Các cuộc tấn công được nhắc đến trong báo cáo bao gồm tấn công cảm biến bằng chùm ánh sáng, hệ thống phát hiện đối tượng quá tải, hoạt động độc hại ở back-end và các cuộc tấn công học máy đối nghịch xuất hiện trong dữ liệu đào tạo hoặc thế giới vật lý. 

“Cuộc tấn công này có thể được sử dụng để làm cho AI “không nhìn thấy” người đi bộ, ví dụ như bằng cách điều khiển thành phần nhận diện hình ảnh để phân loại nhầm người đi bộ. Điều này có thể dẫn đến sự tàn phá trên đường phố, vì ô tô tự lái có thể đâm vào người đi bộ trên đường hoặc người sang đường”, báo cáo viết. “Việc các nhà phát triển và nhà thiết kế hệ thống an ninh mạng AI không có đủ kiến thức và chuyên môn về bảo mật là một rào cản lớn cản trở việc tích hợp bảo mật trong lĩnh vực ô tô.”

Theo báo cáo, phạm vi của các hệ thống AI và cảm biến cần thiết để cung cấp năng lượng cho xe tự hành làm tăng diện tích bề mặt tấn công. Để giải quyết các lỗ hổng, các tác giả cho biết các nhà hoạch định chính sách và doanh nghiệp sẽ cần phát triển văn hoá bảo mật trên toàn bộ chuỗi cung ứng ô tô, bao gồm cả các nhà cung cấp bên thứ ba. Báo cáo kêu gọi các nhà sản xuất ô tô thực hiện các bước để giảm thiểu rủi ro bảo mật bằng cách nghĩ đến việc tạo ra các hệ thống học máy như một phần của chuỗi cung ứng ngành ô tô. 

Báo cáo tập trung vào các cuộc tấn công an ninh mạng với học máy đối nghịch, mang nguy cơ tấn công độc hại mà con người không thể phát hiện được. Báo cáo cũng cho thấy rằng việc sử dụng học máy trên ô tô sẽ đòi hỏi đánh giá hệ thống liên tục để đảm bảo chúng không bị thay đổi theo cách độc hại.

Bài báo viết: “An ninh mạng AI không thể chỉ là một điều được thêm vào sau, một phương án mà các biện pháp kiểm soát an ninh được thực hiện như các tiện ích bổ sung và chiến lược phòng thủ có tính chất phản ứng. Điều này đặc biệt đúng với các hệ thống AI thường được thiết kế bởi các nhà khoa học máy tính và hơn nữa là được triển khai và tích hợp thêm bởi các kỹ sư. Các hệ thống AI nên được thiết kế, thực hiện và triển khai bởi các nhóm gồm chuyên gia lĩnh vực ô tô, chuyên gia ML và chuyên gia an ninh mạng hợp tác với nhau.

Các tình huống được trình bày trong báo cáo bao gồm khả năng xảy ra các cuộc tấn công vào các thuật toán lập kế hoạch chuyển động và ra quyết định, giả mạo, như là đánh lừa một chiếc xe tự hành để “nhận diện” những chiếc xe, người hoặc bức tường vốn không tồn tại. 

Trong vài năm qua, một số nghiên cứu đã chỉ ra rằng các nhiễu động vật lý có thể đánh lừa hệ thống xe tự hành mà không tốn nhiều công sức. Vào năm 2017, các nhà nghiên cứu đã sử dụng sơn xịt hoặc nhãn dán trên biển báo dừng để đánh lừa một xe tự hành xác định sai biển báo đó là biển báo giới hạn tốc độ. Vào năm 2019, các nhà nghiên cứu bảo mật của Tencent đã sử dụng nhãn dán để khiến Autopilot của Tesla đi chệch làn đường. Và các nhà nghiên cứu đã chứng minh vào năm ngoái rằng họ có thể dẫn dắt một hệ thống xe tự hành tăng tốc nhanh chóng từ 35 dặm/giờ lên 85 dặm/giờ bằng cách đặt một vài miếng băng dính trên đường một cách chiến lược. 

Báo cáo có đồng tác giả là Joint Research Center, một cố vấn khoa học và công nghệ của Uỷ ban châu Âu. Vài tuần trước, ENISA đã phát hành một báo cáo riêng nêu chi tiết về các thách thức an ninh mạng do trí tuệ nhân tạo tạo ra.

Trong các tin tức về xe tự hành khác, tuần trước, Waymo đã bắt đầu thử nghiệm taxi robot ở San Francisco. Nhưng một nhóm của MIT đã kết luận vào năm ngoái rằng các phương tiện tự hành có thể còn cách chúng ta ít nhất một thập kỷ nữa. 

Theo VentureBeat

Tin liên quan: