Các nhà nghiên cứu tới từ Đại học McGill và Đại học Montreal hiện đang giải mã não bộ của con người, sử dụng công nghệ mạng nơ-ron.

Trong quá trình phát triển của các ứng dụng AI, mục tiêu tối thượng là có thể tạo ra một mạng nơ-ron nhân tạo có khả năng hoạt động như não bộ con người. Đây là một mục tiêu khó có thể đạt được, do não bộ là một cơ quan rất phức tạp và linh hoạt, và do vậy vô cùng khó để có thể mô phỏng lại bằng AI.

Tuy nhiên, hiện nay, một nhóm các nhà nghiên cứu từ Đại học McGill và Đại học Montreal đã đạt được những bước tiến mới với khả năng chụp cộng hưởng từ đa chức năng (fMRI) của não bộ trong khi cơ quan này vẫn đang thực hiện các tác vụ nhận thức. Mục tiêu của phát triển trên là để hiểu rõ hơn về cơ chế hoạt động của não bộ, từ đó tạo ra các mô hình máy tính có thể mô phỏng cơ chế này, qua đó huấn luyện các mạng nơ-ron nhân tạo để có thể hoạt động nhanh chóng và chính xác hơn. Về cơ bản, điều này đồng nghĩa với khả năng đọc vị não bộ.

Theo một nhà nghiên cứu của dự án, Tiến sĩ Pierre Bellec, thuộc Đại Học Montreal, điều này sẽ làm thay đổi nền công nghệp AI. Hiện nay, ông Bellec đang là Giám đốc Khoa học của dự án Courtois về Mô hình hóa nơ-ron (tức Neuronal Modelling, hoặc NeuroMod) – một dự án đi đầu trong việc hợp tác nghiên cứu.

“Não bộ có một cơ chế giúp nó có thể thay đổi giữa các bối cảnh vô cùng hiệu quả,” Bellec giải thích. “Nó có một tổ chức rất cụ thể, với các mạng và mạng phụ được chuyên môn hóa cao, với khả năng liên tục tái cấu trục. Trong khi đó, các kiến trúc AI hiện tại thường chỉ tập trung vào một số tác vụ, và vì vậy không thể tổng hợp xuyên suốt nhiều bối cảnh khác nhau.”

Thông qua việc mô phỏng cấu trúc não bộ, các nhà nghiên cứu hy vọng rằng, họ sẽ có thể tạo ra một mô hình AI đa năng hơn, thực hiện được nhiều tác vụ hơn, tương tự như não bộ.

AI vẫn luôn là một nguồn cảm hứng, song hiện nay chúng tôi không chỉ dừng ở những lý thuyết cơ bản, mà đang chụp và mô phỏng lại các hoạt động của não bộ một cách cực kỳ chi tiết,” Tiến sỹ Bellec giải thích. “Chúng tôi hy vọng rằng có thể sử dụng trực tiếp nguồn dữ liệu trên để biết được cách hoạt động của não bộ, thay vì chỉ dựa vào những nguyên lý chung chung và không rõ ràng.”

Để có thể thu thập dữ liệu cho tham vọng trên, đội ngũ nghiên cứu đã sử dụng một nhóm tình nguyện viên – bao gồm 6 người – để xem video, hình ảnh, và chơi game trong máy MRI. Để thực hiện điều trên, nhóm nghiên cứu đã phải tạo ra một máy chơi game mới không sử dụng kim loại, được in bằng nhựa 3D và kết nối cáp quang. Như vậy, máy MRI sẽ giúp ghi lại các hoạt động của não bộ trên từng tác vụ khác nhau, và các nhà khoa học đã thu được hàng Terabyte dữ liệu sau 5 năm nghiên cứu, với tổng cộng 500 giờ đồng hồ được chụp bởi máy MRI.

“Về cơ bản, chúng tôi đang tìm ra một phương thức mới để tích hợp hoạt động từ não bộ với việc huấn luyện các mạng nơ-ron nhân tạo,” Bellec chia sẻ. “Hy vọng rằng, nếu thành công, thì chúng tôi có thể xây dựng các mô hình máy tính dựa trên cơ chế hoạt động của bộ não. Ngoài ra, chúng tôi cũng có thể từ đó tạo ra các mạng nơ-ron nhân tạo hiệu quả hơn có với một số công nghệ hiện tại.”

Hạ tầng máy tính và những dấu mốc đầu tiên

Để thực hiện dự án này, các nhà nghiên cứu tại Đại học Montreal đã hợp tác với nhóm nghiên cứu của Đại học McGill – những người rất giàu kinh nghiệm trong máy tính hiệu quả cao và hình ảnh MRI chiếm nhiều bộ nhớ.

Đồng thời, họ cũng tìm kiếm sự giúp đỡ từ Dell EMC và Intel, song song với đó là các nguồn lực về siêu máy tính của Dell EMC HPC và Viện Sáng tạo AI tại Austin, Texas. Hiện tại, đội ngũ đang sử dụng Zenith của Intel, với hàng trăm máy chủ Dell EMC PowerEdge, bộ xử lý Intel Xeon Scalable, cùng kiến trúc Intel Omni-Path.

“Việc huấn luyện thường được thực hiện trên GPU,” Bellec chia sẻ. “Vì vậy, chúng tôi muốn sử dụng CPU cho dự án này, do kiến trúc CPU có bộ nhớ rộng hơn, phù hợp với các tệp lớn hơn. Phần cứng này là hoàn hảo cho use case mà chúng tôi muốn thực hiện, nên chúng tôi đã thử đặt ra vài dấu mốc.”

Sau khi thử nghiệm với một kiến trúc GPU, đội ngũ đã phát hiện rằng, mô hình trên nền tảng CPU cho hiệu quả tương đương, với độ chính xác trong xác nhận đạt mức 99% sau 10 phiên tác vụ, và đạt 91% sau 20 phiên – tương tự như các mô hình sử dụng GPU. Tuy nhiên, thời gian huấn luyện lại được giảm đi rất nhiều – 20 phút với 10 CPU và 3 tiếng với 2 GPU. Ngoài ra, trên thực tế, các tài nguyên CPU có thể được tiếp cận dễ dàng hơn và tốn ít chi phí hơn. Do vậy, CPU là một giải pháp khả thi cho việc ứng dụng các mạng nơ-ron sâu (DNN) trên dữ liệu chụp nơ-ron quy mô lớn.

Những dấu mốc trên đã chính thức khởi động dự án NeuroMod, trong đó đội ngũ nghiên cứu sử dụng các dữ liệu công khai từ Dự án Human Connectome. Dự án này gồm rất nhiều ảnh scan fMRI của các kết nối nơ-ron trên não bộ của khoảng 1.200 người.

Theo tiến sĩ Yu Zhang, một thành viên của NeuroMod: “Hiện tại, chúng tôi đang sử dụng dữ liệu từ dự án này, và đang cố gắng giải mã chúng. Các mạng nơ-ron sẽ lấy một phần của dữ liệu fMRI nói trên, và từ đó thử dự đoán tác vụ cụ thể đang được thực hiện tại thời điểm chụp.”

Ngoài ra, đội ngũ cũng đang đánh giá hiệu quả của 2 kiến trúc khác nhau trên cùng một bộ dữ liệu này, bao gồm: Một mạng nơ-ron tích chập thông thường, và một mạng nơ-ron phức tạp hơn mang tên ResNet – thường được sử dụng trong xử lý hình ảnh.

“Thứ mà chúng tôi đang thực hiện là giải mã não bộ, hay như mọi người hay nói, là đọc vị nó,” Bellec chia sẻ. “Bạn sẽ nhìn vào hình ảnh não bộ và thử đoán xem lúc đó tác vụ nào đang được thực hiện. Sau đó, chúng tôi sẽ sử dụng dữ liệu được chụp khi chơi game. Điều này là để thử tạo ra một mạng nơ-ron nhân tạo có khả năng chơi game theo đúng phong cách của người chơi được chụp.”

Dự liệu lớn, bộ nhớ lớn

NeuroMod là một dự án yêu cầu một hệ thống HPC với bộ nhớ lớn, nhằm xử lý hàng TB dữ liệu. Cụ thể, chỉ riêng bộ dữ liệu công khai từ Dự án Human Connectome đã bao gồm 9TB dữ liệu được nén, tương đương với 20TB dữ liệu sau khi giải nén.

“Và đây mới chỉ là hình ảnh chụp não bộ,” Bellec nói. “Chúng tôi còn đang thu thập dữ liệu từ các video, cũng như những dữ liệu của tình nguyện viên như nhịp tim, hô hấp, và chuyển động của đồng tự mắt – tất cả đều ở độ phân giải rất cao. Và những dữ liệu này có thể đạt tới hàng chục TB.”

Điều này lại càng làm việc sở hữu một HPC với bộ nhớ rộng trở nên cần thiết hơn bao giờ hết – và 2 yếu tố này đã được thỏa mãn thông qua các phần cứng của Dell EMC HPC và Viện Sáng tạo AI.

“Chúng tôi mới tiếp cận được phần cứng này vào hồi tháng 6, và nó vô cùng hiệu quả. Với nó, chúng tôi đã thử được những cột mốc mà chưa từng đạt được trước đó. Và đây mới chỉ là những bước khởi đầu. Chúng tôi hy vọng rằng, đội ngũ sẽ trở nên quen thuộc hơn với kiến trúc phần cứng sử dụng cho Deep Learning này – một kiến trúc mà sẽ còn được sử dụng lâu dài,” Bellec chia sẻ.

Đây chỉ là một phần trong hành trình tìm kiếm những yếu tố mới. Thông thường, các tổ chức sẽ cần các kiến trúc HPC mới, được xây dựng riêng để xử lý các dữ liệu nặng và tác vụ đặc biệt.

Theo Bellec: “Có rất nhiều người vô cùng phấn khích với việc có thể phát triển mạng nơ-ron dựa trên các cảm hứng từ sinh học, rõ ràng là, ta cần một loại phần cứng mới để có thể thực hiện điều đó. Và phần cứng này chính là Zenith của Dell EMC HPC và Viện Sáng tạo AI.”

FPT TechInsight
Theo HPC Wire

Tin liên quan: