Vào tháng 6/2018, OpenAI, một công ty nghiên cứu AI phi lợi nhuận có trụ sở tại San Francisco do Elon Musk, Reid Hoffman và Peter Thiel cùng các nhân vật lớn khác của ngành hỗ trợ, đã thu hút sự chú ý của các phương tiện truyền thông khi công bố phiên bản mới nhất của trò chơi Dota 2 ứng dụng trí tuệ nhân tạo, mang tên OpenAI Five đã đánh bại các game thủ nghiệp dư. Vừa qua, OpenAI đã công bố một hệ thống robot đầu tiên có thể di chuyển vật thể khéo léo như con người.

Trong một bài báo sắp ra (“Các thao tác bằng tay khéo léo”), các nhà nghiên cứu OpenAI mô tả một hệ thống sử dụng mô hình tăng cường, nơi AI có thể học thông qua thử sai để ra lệnh cho các cánh tay robot nắm và thao tác các vật thể với độ chính xác ở mức cao. Ấn tượng hơn, nó được huấn luyện hoàn toàn thông qua kỹ thuật số, trong một mô phỏng máy tính và không được cung cấp bất kỳ sự chỉ dẫn nào từ con người cho quá trình học.

Trong khi việc thao tác khéo léo đồ vật là hoạt động thường ngày và cơ bản đối với con người thì nó vẫn là một thử thách lớn dành cho các robot tự động“, nhóm nghiên cho biết. “Các robot hiện đại thường được thiết kế cho các nhiệm vụ cụ thể trong điều kiện cài đặt hạn chế và phần lớn không thể sử dụng các hiệu ứng phức tạp… Trong công trình này, chúng tôi đã biểu diễn các phương pháp huấn luyện các thao tác ở tay và triển khai chúng trên một robot vật lý.”

Các nhà nghiên cứu đã sử dụng máy vật lý MuJoCo để mô phỏng một môi trường ngoài đời trong đó một robot thực có thể hoạt động, và Unityto kiến tạo hình ảnh để huấn luyện một mô hình thị giác máy tính và nhận ra các tư thế. Nhưng cách tiếp cận này có những hạn chế: đó là mô phỏng chỉ đơn thuần đưa ra “xấp xỉ tương đối” so với thực tế, điều này làm giảm khả năng tạo ra các hệ thống có thể thích ứng tốt với thế giới thực.

OpenAI computer vision
Ảnh: OpenAI

Giải pháp này ngẫu nhiên hóa các khía cạnh của môi trường như điều kiện vật lý (ma sát, trọng lực, các giới hạn về khớp nối, các chiều của vật thể…) và các điều kiện ngoại cảnh (điều kiện ánh sáng, tư thế tay và vật thể, vật liệu và kết cấu). Điều này làm giảm khả năng “overfitting” – một hiện tượng xảy ra khi mạng nơron học nhiễu trong dữ liệu được huấn luyện, gây ảnh hưởng không tốt tới hiệu suất sử dụng và tăng cơ hội tạo ra một thuật toán lựa chọn thành công các hành động dựa trên các vị trí thực ngón tay và hình dạng vật thể.

Tiếp theo, các nhà nghiên cứu tiến hành huấn luyện mô hình mạng nơron tái diễn (recurrent neural network) – với 384 máy, mỗi máy có 16 lõi CPU, cho phép tạo ra khoảng hai năm kinh nghiệm mô phỏng mỗi giờ. Sau khi tối ưu hóa nó trên 8 GPU PC, các nhà nghiên cứu chuyển sang bước tiếp theo: huấn luyện mạng nơ-ron xoắn (convolutional neural network) để dự đoán vị trí và hướng của vật thể trong “tay” của robot từ ba hình ảnh camera mô phỏng.

OpenAI model
Ảnh: OpenAI

Khi các mô hình đã được huấn luyện xong, nó sẽ được đưa vào kiểm tra xác thực. Các nhà nghiên cứu sử dụng Shadow Dexterous Hand, một bàn tay robot với năm ngón tay với tổng cộng 24 độ tự do, được gắn trên một khung nhôm để thao tác các vật thể. Trong khi đó hai bộ camera – camera chụp chuyển động cũng như camera RGB – được sử dụng như con mắt của hệ thống, cho phép theo dõi hướng quay và hướng của vật thể. (Mặc dù Shadow Dexterous Hand có cảm biến cảm ứng, nhóm đã chọn chỉ sử dụng khả năng cảm biến khớp nối của nó để kiểm soát chính xác đối với các vị trí của ngón tay.)

Trong hai lần thử nghiệm đầu tiên, các thuật toán được giao nhiệm vụ định hướng lại một khối hộp gắn nhãn với các chữ cái (alphabet). Nhóm đã chọn mục tiêu ngẫu nhiên và mỗi lần AI đạt được mục tiêu, họ chọn một mục mới cho đến khi (1) robot buông bỏ khối hộp, (2) dành nhiều hơn một phút để thao tác khối hoặc (3) đạt tới 50 vòng quay thành công . Trong thử nghiệm thứ hai, khối được đổi chỗ với lăng kính hình bát giác.

Các nhà nghiên cứu nhận định: “Hệ thống của chúng có thể (không chỉ) nhận ra những cử chỉ nắm của con người mà còn thích ứng để phù hợp hơn với những hạn chế và năng lực của chính nó”

Điều đó không nói lên rằng đó là một hệ thống hoàn hảo. Nó không được huấn luyện để xử lý nhiều vật thể, đặc biệt sẽ khá khó khăn để xoay một vật thể hình cầu. Và trong thử nghiệm thứ hai, có một khoảng cách lớn rõ ràng về hiệu suất giữa mô phỏng và robot thực.

Tuy nhiên các kết quả cho thấy tiềm năng của các thuật toán học sâu hiện tại, các nhà nghiên cứu kết luận: “Các thuật toán này có thể được áp dụng để giải quyết các vấn đề robot thực tế phức tạp, ngoài tầm với của các phương pháp tiếp cận không dựa trên học tập hiện tại.”

Nam Mac (Theo Venturebeats)

Tin liên quan:
  • 2
    Shares