Với những doanh nghiệp đầu tiên sử dụng AI, cũng như những nhà phát triển AI, kích cỡ mô hình cho công nghệ này đang trở nên ngày càng lớn, các thuật toán đang ngày một phức tạp, và độ đa dạng và dung lượng dữ liệu cũng ngày một tăng, từ đó dẫn tới nhu cầu về những công nghệ mới trong thiết bị cũng như các trung tâm xử lý dữ liệu.

Độ phức tạp, qui mô, cũng như khối lượng công việc được thực hiện bởi AI cũng ngày một tăng cao, từ đó lại xuất phát nhu cầu về những giải pháp tối ưu hóa. Như vậy, ngành công nghiệp này đang cần những cấu trúc cơ sở hạ tầng phát triển hơn. Những nhà khoa học dữ liệu và lãnh đạo doanh nghiệp cũng đang cần phải khám phá những bước tiến mới hơn.

Giải pháp đơn giản là: vứt bỏ đi những phản xạ lỗi thời coi AI như một khối công việc với một giải pháp phần cứng duy nhất. Thay vào đó, hãy nhìn nhận AI theo một cách mới: coi đó biểu tượng kết hợp của các phần cứng, phần mềm, và hệ sinh thái, cùng nhau xử lý các khối lượng công việc, thuật toán, giải quyết nhu cầu cải tiến của khách hàng, từ những trung tâm dữ liệu tới rìa bên ngoài.

Trong thời đại mới, các tổ chức sẽ đạt thành công với AI là những đơn vị với khả năng tạo ra các cơ sở hạ tầng tiết kiệm chi phí, nhiều tính năng, đa dạng quy mô, và linh hoạt, từ đó phát triển một nền tảng chắc chắn cho việc cải tiến. Khởi đầu logic sẽ bao gồm: hiểu được tầm quan trọng của phương pháp tiếp cận portfolio về kiến trúc của chip AI, từ CPU được tối ưu hóa bởi AI cho tới các máy gia tốc chức năng cơ bản như GPU và FPGA; sau đó xây dựng các ASIC theo mục tiêu sử dụng, bao gồm các bộ xử lý mạng nơ-ron sắp phát hành của Intel.

Để có thể hiểu rõ hơn tầm quan trọng của sự đa dạng kiến trúc trong chiến lược thành công AI, ta cần phải cân nhắc về các yếu tố công nghệ và kinh doanh có liên quan tới việc ứng dụng và thực hành AI, cũng như xem xét cách các tập đoàn sử dụng những giải pháp hiện đại cho các xu hướng toàn cầu.

Sự phát triển của dữ liệu

Các tổ chức đang chìm trong dữ liệu: chỉ trong 2 năm qua, lượng dữ liệu được tổng hợp đã chiếm tới 90% tổng từ trước tới nay, và dự kiến sẽ còn tăng gấp 10 lần trước năm 2025, đạt ngưỡng 163 zettabyte. Tuy nhiên, chỉ 2% ít ỏi trong khối lượng khổng lồ trên là đã được xử lý, để lại nhiều tiềm năng cho việc phát triển kinh doanh, cũng như cải thiện các vấn đề xã hội. Ngoài ra, theo Gartner, tới năm 2032, nguồn lực máy tính sử dụng cho AI sẽ tăng gấp 5 lần so với năm 2018, đưa AI thành một trong những yếu tố đi đầu trong các quyết định liên quan tới thay đổi cơ sở hạ tầng. Theo Lisa Spelman, phó chủ tịch Data Center Group kiêm Tổng giám đốc Intel Xeon Systems: “Mọi ứng dụng rồi sẽ đều sử dụng AI.”

Điều này lại càng được minh chứng rõ rệt thông qua một khảo sát toàn cầu của Deloitte & Touche trên 1.900 lãnh đạo doanh nghiệp trực thuộc lĩnh vực IT và lân cận. Cụ thể, 61% đang sử dụng học máy, 60% đang sử dụng hệ thống xử lý ngôn ngữ tự nhiên, 56% đang sử dụng thị giác máy tính, và 51% đang ứng dụng công nghệ học sâu.

Phía sau cấu tạo những con chip AI mới

Để có thể đưa ra những lựa chọn thông minh, mang tính chiến lược, cũng như có cấu trúc rõ rệt, ta cần hiểu được hiện đang có những lựa chọn nào cho các tác vụ AI của doanh nghiệp. Dưới đây sẽ nêu một số lựa chọn chủ chốt, cũng như cách những lựa chọn này có thể hỗ trợ phát triển AI.

CPU (Central Processing Unit – bộ xử lý trung tâm) là những thiết bị đa tính năng với tốc độ cao. Thông thường, CPU sẽ xử lý đa tác vụ nhanh hơn, song lại có ít bộ xử lý tác vụ song song, mà thay vào đó thực hiện các tác vụ theo tuần tự. Đây cũng là những cỗ máy linh hoạt, làm việc đa chức năng, và có thể được lập trình để thực hiện mọi tác vụ với tốc độ cao. Với AI, CPU là lý tưởng trong các thao tác hiểu và xử lý thông tin trước và sau ML/DL (học máy/học sâu), cũng như trong các ứng dụng sử dụng các dữ liệu đã được xử lý. CPU có thể nằm trong cơ sở hạ tầng máy tính ở các trạm máy lớn, hay đơn giản trong các đám mây công cộng có thể được sử dụng dễ dàng, triển khai được cả trên các máy chủ rìa, máy tính cá nhân, cũng như các thiết bị khác.

GPU (Graphic Processing Units – bộ xử lý đồ họa) có tốc độ chậm hơn so với CPU, xong lại có rất nhiều core so với một CPU thông thường. Vì vậy, GPU lý tưởng trong việc chạy cùng một thuật toán trên nhiều dữ liệu, hay cụ thể là trong render video, chạy game, và làm trung tâm xử lý chức năng trong AI, cụ thể là trong huấn luyện học sâu.

ASIC chuyên biệt lại có những kiến trúc được tối ưu hóa cho học sâu, giúp cải thiện hiệu quả hoạt động, trong khi giảm thiểu tối đa mức năng lượng cần tiêu thụ. Hiện nay, nhu cầu về các ASIC với chức năng đặc biệt trong ứng dụng AI đang ngày một tăng. Tuy vậy, ta cũng không thể bỏ qua sự cần thiệt của việc có đa dạng giải pháp cho việc tích hợp AI vào các hoạt động của doanh nghiệp. ASIC chuyên biệt bao gồm Hệ xử lý mạng nơ-ron Nervana sắp ra mắt của Intel, sử dụng cho mục đích huấn luyện (NNP-T) và trong phân tích ngữ nghĩa (NNP-I), dự kiến sẽ xuất hiện trước công chúng trong năm nay. Ngoài ra, ASIC còn bao gồm các VPU (vision processing units – bộ xử lý thị giác) như Movidius của Intel, sử dụng trong các camera có tích hợp AI.

FPGA (Field Programmable Gate Arrays) lại cung cấp khả năng phân tích và hiểu rõ ràng với độ trễ thấp, phù hợp với các tác vụ yêu cầu nhiều năng lượng máy tính hơn, sử dụng các dữ liệu yêu cầu độ chính xác thấp hơn, với độ linh hoạt cao cho các tác vụ, loại dữ liệu, đồng thời đạt được ưu thế về bộ nhớ. Theo McKinsey, đây cũng là một trong các kiến trúc phát triển nhanh nhất, đặc biệt trong phân tích rìa và huấn luyện.

Năng lực của CPU

Hiện tại, CPU là những kiến trúc đi đầu trong nhận diện và hiểu AI, và ứng dụng CPU của Facebook là minh chứng cho năng lực của bộ xử lý này. Trên thực tế, các tác vụ AI cũng là một thao tác phổ biến được thực hiện trên CPU.

Với các tổ chức đang tìm kiếm các nền tảng AI tiên tiến, để xây dựng một nền móng chắc chắn, việc cập nhật và cải tiến các bộ vi xử lý thường là một điều cần thiết. Hiện nay đã có những con chip mạnh như 2nd-Generation Intel Xeon Scalable, được tối ưu hóa cho sử dụng AI với bộ nhớ mạnh, nhiều nhân, hướng dẫn cho gia tốc AI, cũng như có phần mềm phù hợp đi kèm.

Với AI, các bộ xử lý của chip 2nd Generation Intel Xeon Scalable được tích hợp công nghệ Deep Learning Boost (DL Boost), giúp tăng tốc xong xử lý và phân tích dữ liệu, từ đó loại bỏ việc phải sử dụng thêm các máy gia tốc bổ trợ. Cụ thể, với con chip này, khả năng nhận diện hình ảnh của Microsoft đã tăng tới 3,4 lần, khả năng phân tích học máy của Target tăng 4,43 lần, và khả năng nhận diện văn bản của JD.com đã tăng lên 2,4 lần. Những khung AI phổ biến như like TensorFlow, PyTorch, Caffe, và MXNet cũng đang được tối ưu hóa cho việc sử dụng Intel DL Boost. Đồng thời, Cooper Lake – bộ xử lý Intel Xeon Scalable, được phát triển sau Xeon Scalable thế hệ 2 (Cascade Lake), cũng sẽ là bộ xử lý đầu tiên của Xeon được tích hợp AI hiệu suất cao, được gia tốc quá trình huấn luyện bởi bfloat16 cùng với Intel DL Boost.

Lợi ích thực tiễn

Những phát triển công nghệ lớn, cũng như sự đa dạng của use case đã dẫn tới việc nhiều doanh nghiệp và tổ chức đã lựa chọn CPU làm nền tảng xử lý AI. Dưới đây sẽ là các ví dụ cụ thể về cách CPU đáp ứng những nhu cầu thực tiễn về ứng dụng của công nghệ học sâu.

Với iFLYTEK, Viện Nghiên cứu về Điện toán đám mây, việc mở rộng khả năng của AI cũng đồng nghĩa là Intel Xeon Scalable Processors với DL Boost đã tạo ra một AI đám mây với hiệu suất tương đương, thậm chí là vượt qua giải pháp GPU thông thường – từ đó giúp tiết kiệm rất nhiều chi phí.

Một số tổ chức khác lại vui mừng vì không cần phải mua thêm các GPU hay máy gia tốc mới khi xử lý các AI phức tạp. Một ví dụ là Siemens Healthineers: tổ chức này đã nâng cấp các cơ sở hạ tầng CPU Intel có sẵn để chạy AI hạng nặng, bao gồm quá trình phân khúc và phân tích dữ liệu trên mô hình mới, nhằm hỗ trợ chẩn đoán các bệnh lý về tim mạch. Nói về vấn đề này, ông Dorin Comaniciu, phó chủ tịch Siemens Healthineers chia sẻ: “Hiện tại, với các bộ xử lý Intel Xeon Scalable, chúng tôi đã có thể phát triển các use case về hình ảnh trên thời gian thật, sử dụng trên phim chụp MRI hay X-Ray, mà không cần phải sử dụng các phần cứng gia tốc phức tạp khác, từ đó cắt giảm rất nhiều chi phí.”

Ngoài ra, khi nhắc tới cải tiến về AI, ta không thể bỏ qua ứng dụng của chúng trong các dịch vụ, phần mềm tương tác trực tiếp với khách hàng. Đây cũng là trường hợp của Taboola trong đáp ứng các khách hàng về xuất bản, marketing, và quảng cáo của mình, sử dụng một ứng dụng TensorFlow Serving đã tùy chỉnh, được tối ưu hóa và tăng tốc sử dụng Thư viện Intel Math Kernel cho các Mạng nơ-ron sâu (Intel MKL-DNN) trên các bộ xử lý Intel Xeon Scalable. Cụ thể, Taboola đã đánh giá vào so sánh lần lượt từng GPU và CPU trên việc phân tích 7 trung tâm dữ liệu khác nhau, và kết luận rằng 2 bộ xử lý cho kết quả tương đương. Tuy nhiên, việc sử dụng song song CPU và GPU sẽ cần thời gian để chuyển tiếp dữ liệu giữa 2 bộ này, và cũng tốn nhiều chi phí hơn so với việc chỉ sử dụng CPU.

Khả năng sử dụng bộ nhớ dung lượng lớn, song song với đó là năng lực máy tính hiệu suất cao đã giúp mở ra những cánh cửa lớn về học sâu cho các doanh nghiệp. Cụ thể, Novartis, một nhà sản xuất dược, đã sử dụng học sâu để gia tăng quá trình phân tích hình ảnh văn hóa tế bào trên kính hiển vi, từ đó tìm hiểu những phương phát trị liệu có sẵn, cũng như phát hiện thêm nhưng phương pháp mới. So với những công nghệ trước đó, hình ảnh thu được lớn gấp 26 lần, hỗ trợ xử lý 120 hình ảnh 3,9-megapixel trên giây. Hiệu suất đạt được nhìn chung đã tăng gấp 20 lần.

DataCubes

Những cấu trúc mới cũng cung cấp cho các doanh nghiệp một lựa chọn mới: tạo ra các AI phức tạp trên các cấu trúc CPU cơ bản, sau đó chuyển sang phần mềm chuyên dụng hơn khi cần thiết. Và start-up công nghệ DataCubes là một trong số các doanh nghiệp đã vận dụng hiệu quả lựa chọn này.

DataCube được thành lập vào 2015 tại Illinois, với mục tiêu hiện đại hóa bảo hiểm trên tài sản thương mại của các doanh nghiệp vừa và nhỏ. Theo chia sẻ của Phil Alampi, trưởng bộ phận quan hệ khách hàng, “Bảo lãnh là một công việc mệt nhọc. Văn phòng bảo lãnh của hiện tại cũng chẳng có gì khác biệt với những năm 1990. Tất cả đều được làm thủ công.” Và quả thật vậy: phạm phải lỗi là điều bình thường, và một quá trình bảo lãnh có thể kéo dài lâu hơn là chỉ vài tuần.

Chính vì vậy, DataCubes đã bắt đầu xây dựng một hệ thống AI có khả năng giảm tải quá trình thu thập, xử lý và nhập dữ liệu thủ công trong quá trình bảo lãnh.

Và tới 2018, DataCubes đã phần nào thành công: trên nền tảng cơ sở hạ tầng Intel Xeon CPU cùng với một loạt các thuật toán phức tạp, hệ thống AI của công ty đã tự động hóa quá trình thu thập thông tin, và ứng dụng nó lên quy trình bảo lãnh. Cụ thể, hệ thống d3 tự động hóa việc tiếp nhận dữ liệu đầu vào dưới các dạng PDF, scan, đơn, cũng như một số dạng dữ liệu không cấu trúc khác, dựa trên một mô hình học máy được huấn luyện trên vô số nguồn. Hơn 2 triệu điểm dữ liệu được sử dụng, lấy từ một nguồn dữ liệu lớn từ các tổ chức chính phủ, nguồn công khai, website công ty… Và kết quả sẽ được chuyển tới khách hàng qua các cổng trực tuyến, email, hoặc API.

Độ chính xác của hệ thống đã đạt mức 97%, giúp các nhân viên bảo hiểm có thể tập trung vào các tác vụ phức tạp hơn. Mọi tác vụ cơ bản như trả lời các câu hỏi, đánh giá rủi ro hiện đều có thể được làm bởi công nghệ học máy, từ đó giúp tăng hiệu suất công việc, độ chính xác của các điều khoản, tốc độ của quy trình bảo lãnh, cũng như mức lợi nhuận. Hiện nay, DataCubes đang cung cấp dịch vụ cho những doanh nghiệp quốc gia cũng như địa phương, trên châm ngôn cố định “Bảo lãnh thương mại với sức mạnh của khoa học dữ liệu”. Ngoài ra, DataCubes cũng dự kiến sẽ còn tiếp tục tăng quy mô dịch vụ, trong khi tiếp tục phát triển nền tảng được tạo ra bởi bộ xử lý Intel Xeon.

Phương thức tiếp cận cơ bản lại vô cùng hiệu quả với chúng tôi. Chúng tôi không có đội ngũ phát triển phần cứng, mà chỉ có một vài chuyên gia về công nghệ,” Alampi chia sẻ. “Nhưng chúng tôi lại đã thay đổi cả một ngành công nghiệp chỉ với một cơ sở hạ tầng có sẵn. Vì vậy, một start-up công nghệ nhỏ hoàn toàn có khả năng tạo ra những ảnh hưởng lớn. Và bạn không hề cần một đội ngũ công nghệ hùng hậu để tạo ra chúng.”

Không phải là cho tất cả

Mặc cho những phát triển mạnh mẽ của AI trong một thập kỷ qua, đây vẫn chỉ là bắt đầu. Cách tiếp cận và sử dụng AI ngày hôm nay sẽ không nhất thiết phù hợp trong tương lai.

Để có thể đạt được những bước tiến mới, tối đa lợi ích, các doanh nghiệp, và cả nền công nghiệp cần phải tiếp cận những thử thách mới. Thành công trong việc sử dụng AI, đặc biệt là trong hiện nay, sẽ yêu cầu các doanh nghiệp phải bỏ qua những luật lệ và suy nghĩ cũ, thay vào đó áp dụng một hướng đi mới linh hoạt hơn, hiện đại hơn, xây dựng một nền tảng ngày càng chắc chắn hơn.

Theo Venture Beat

Tin liên quan: