Các trợ lý giọng nói như Siri, Amazon Alexa, Google Assistant, và Cortana đã trở nên vô cùng phổ biến trong những năm gần đây. Mọi người trên toàn thế giới cũng đã bắt đầu thường xuyên sử dụng những trợ lý AI này để tìm kiếm thông tin trên mạng, gửi thư điện tử và tin nhắn, bật những bài hát yêu thích…

Các trợ lý giọng nói quả thật đã đơn giản hóa viêc sử dụng các thiết bị như smartphone, máy tính cá nhân, bảng tính… song đồng thời cũng đem lại rất nhiều mối nguy về bảo mật. Trên thực tế, các thiết bị này cũng có thể bị sử dụng để thu thập thông tin cho các hành vi như quảng cáo định vị, hay thậm chí là hỗ trợ tin tặc ăn cắp thông tin nhạy cảm và thao túng thiết bị của người dùng.

Gần đây, các nhà nghiên cứu tại Viện Công nghệ Georgia cũng đã chứng minh rằng, chỉ bằng thủ thuật tấn công đơn giản qua các trợ lý giọng nói là các tin tặc đã có thể tiếp cận được thông tin cá nhân của người dùng. Nghiên cứu của họ đã được đăng tải trên arXiv, trong đó chỉ ra một số lỗ hổng cùng nguy cơ bảo mật có thể phát sinh khi sử dụng các trợ lý hội thoại.

Trong những năm gần đây, đã xuất hiện nhiều mẩu tin như: loa Amazon Echo tình cờ ghi âm và chia sẻ hội thoại của người dùng tới số điện thoại khác trong danh bạ,” Zhengxian He, một thành viên nhóm nghiên cứu, chia sẻ với báo chí. “Chúng tôi do đó đã để tâm vào các nguy cơ bảo mật trong những môi trường ở gần các thiết bị máy tính và trợ lý ảo đã bị xâm nhập. Những nguy cơ này là vô cùng hiện hữu, và dữ liệu được lưu trữ trên máy tính có thể bị đánh cắp thông qua trợ lý ảo trên điện thoại.”

Để chỉ ra các lỗ hổng bảo mật của trợ lý giọng nói, Zhengxian cùng các đồng nghiệp đã thử thực hiện một vụ tấn công lấy dữ liệu người dùng qua điện thoại. Cụ thể, họ chuyển đổi dữ liệu trên điện thoại người dùng thành các bản ghi âm, rồi sau đó truyền các dữ liệu này thông qua gọi điện. Kết quả là họ đã thành công nhờ kỹ thuật chuyển đổi các dữ liệu này thành âm kép đa tần (dual-tone multi-frequency – DTMF) – tức các tín hiệu có thể được truyền qua đường dây điện thoại.

“Thử thách của kỹ thuật này là phải truyền dữ liệu sao cho thật kín đáo, khiến người xung quanh không phát hiện được,” anh chia sẻ. “Do đó, chúng tôi đã chuyển các tín hiệu sang tần số cao (cụ thể là 16kHz) – tương đương với sóng siêu âm, khiến cho đa số mọi người không thể nghe được.”

Như vậy, khi Amazon Echo thu lại giọng người dùng, tông giọng của họ sẽ được tách tự nhiên – nhờ cơ chế phi tuyến tính của thiết bị này (tự biến đổi giọng người dùng). Nghiên cứu cũng chứng minh rằng, các tông giọng này có thể được truyền sang một thiết bị ở xa thuộc kiểm soát của tin tặc, nơi chúng có thể tự do tái cơ cấu lại các dữ liệu thu được.

Cuộc tấn công này hoàn toàn không bị con người phát hiện, qua đó cho thấy khả năng ăn cắp dữ liệu thông qua thiết bị loa thông minh là hoàn toàn có thể,” nhà nghiên cứu khẳng định. “Nếu khối lượng dữ liệu thấp, tin tặc hoàn toài có thể truyền tải dữ liệu một cách chính xác thông qua những cuộc gọi ngắn (ít hơn 5 phút) ở điều kiện thật, cho dù thiết bị  chữa dữ liệu không nằm gần loa thông minh.”

Như vậy, thử nghiệm của nhóm nghiên cứu đã chứng mình được rằng, thông tin cá nhân của người dùng hoàn toàn có thể bị truyền đi bằng các thiết bị loa thông minh như Amazon Echo. Tốc độ truyền phụ thuộc vào nhiều yếu tố khác nhau như khoảng cách giữa loa và máy tính, tiếng ồn xung quanh, và tần số sóng truyền..

Nghiên cứu này đã chỉ ra được các lỗ hổng bảo mật trong những trợ lý giọng nói và loa thông minh mà hiệu vẫn chưa thể được giải quyết với các biện pháp hiện tại. Trong nghiên cứu cũng có chỉ ra một số phương thức giúp giảm bớt các nguy cơ nói trên, cũng như định hướng nghiên cứu sâu hơn về những biện pháp này trong tương lai.

Ở các nghiên cứu sau này, chúng tôi mong muốn đưa ra được các chiến lược giúp cải thiện tính an toàn và bảo mật của các trợ lý giọng nói. Ngoài ra, chúng tôi cũng muốn tìm hiểu về các biện pháp phòng tránh những kiểu tấn công này,” Zhengxian chia sẻ.

Theo TechXplore

Tin liên quan: