Các quy định sẽ ảnh hưởng sâu rộng tới các công ty công nghệ như Amazon, Google, Facebook và Microsoft – những công ty đã đổ nguồn lực vào việc phát triển công nghệ này.

Liên minh châu Âu đã công bố các quy định nghiêm ngặt vào thứ Tư để kiểm soát việc sử dụng trí tuệ nhân tạo. Đây là chính sách lần đầu tiên xuất hiện để vạch ra cho các công ty và chính phủ cách sử dụng AI – một loại công nghệ được coi là một trong những đột phá khoa học đáng chú ý nhất, nhưng cũng dẫn đến những tác động không mong muốn về đạo đức trong thời gian gần đây.

Dự thảo bộ luật đặt ra các giới hạn xung quanh việc sử dụng trí tuệ nhân tạo trong một loạt các hoạt động, từ ô tô tự lái đến các quyết định tuyển dụng nhân sự, cho vay ngân hàng, tuyển sinh và chấm điểm các kỳ thi. Bộ luật cũng bao gồm việc sử dụng trí tuệ nhân tạo trong hệ thống hành pháp và toà án – những lĩnh vực được coi là “rủi ro cao” bởi chúng có thể đe dọa đến sự an toàn hoặc các quyền cơ bản của mọi người.

Một số ứng dụng sẽ bị cấm hoàn toàn, bao gồm nhận diện khuôn mặt trực tiếp tại nơi công cộng, mặc dù có một số trường hợp ngoại lệ vì an ninh quốc gia và các mục đích khác.

Bản chính sách 108 trang này là nỗ lực để kiểm soát một công nghệ đang nổi lên trước khi chúng trở thành xu hướng phổ biến. Các quy định có ảnh hưởng sâu rộng tới các công ty công nghệ lớn – những công ty đã đổ nguồn lực vào việc phát triển trí tuệ nhân tạo – bao gồm Amazon, Google, Facebook và Microsoft, nhưng đồng thời cũng là vấn đề của những công ty khác có sử dụng phần mềm này để phát triển y học, thực hiện chính sách bảo hiểm và đánh giá mức độ tín dụng. Các chính phủ đã sử dụng những phiên bản khác nhau của công nghệ này trong tư pháp hình sự và phân bổ dịch vụ công như hỗ trợ thu nhập.

Các công ty vi phạm những quy định mới (có thể mất nhiều năm để thông qua quy trình hoạch định chính sách của Liên minh châu Âu) này khả năng sẽ đối mặt với khoản tiền phạt lên tới 6% doanh thu toàn cầu.

Margrethe Vestager, phó chủ tịch điều hành Uỷ ban châu Âu, người giám sát chính sách kỹ thuật số cho liên minh 27 quốc gia này, cho biết trong một tuyên bố: “Đối với trí tuệ nhân tạo, độ tin cậy là điều bắt buộc, không phải là thứ nếu-có-thì-tốt. Với những quy định mang tính bước ngoặt này, EU đang dẫn đầu trong việc phát triển các chuẩn mực toàn cầu để đảm bảo AI có thể tin cậy được.”

Các quy định của Liên minh châu Âu sẽ yêu cầu các công ty cung cấp trí tuệ nhân tạo trong những lĩnh vực có rủi ro cao phải cung cấp cho các nhà quản lý những bằng chứng về sự an toàn của nó, bao gồm các đánh giá rủi ro và tài liệu giải thích cách công nghệ đó đang đưa ra quyết định. Những công ty này cũng phải đảm bảo sự giám sát của con người đối với cách mà các hệ thống của họ được tạo ra và sử dụng.

Một số ứng dụng, như các chatbot cung cấp cuộc hội thoại giống con người trong dịch vụ khách hàng, các phần mềm tạo ra hình ảnh giả khó phát hiện được như “deepfake”, sẽ phải làm rõ với người dùng rằng những họ đang nhìn thấy là do máy tính tạo ra.

Trong nhiều năm, Liên minh châu Âu đã luôn là cơ quan giám sát tích cực nhất trên thế giới đối với ngành công nghệ, với các quốc gia khác thường xuyên sử dụng các chính sách của cơ quan này như là một chỉ dẫn. Liên minh này đã thông qua các quy định mạnh mẽ nhất trên thế giới về chính sách dữ liệu, và đang tranh luận xung quanh các bộ luật bổ sung về chống độc quyền và điều chỉnh nội dung.

Tuy nhiên châu Âu đã không còn đơn độc trong việc đẩy mạnh giám sát nghiêm ngặt hơn. Những công ty công nghệ lớn nhất giờ đang phải đối mặt với sự đánh giá rộng rãi hơn từ các chính phủ trên thế giới, mỗi chính phủ có các chính sách và sự thúc đẩy riêng để điều chỉnh quyền lực của ngành này.

Tại Hoa Kỳ, Tổng thống Biden đã lấp đầy chính quyền của mình với những lời chỉ trích của ngành. Anh đang tạo ra một cơ quan quản lý công nghệ để kiểm soát ngành này. Ấn Độ đang thắt chặt kiểm soát mạng xã hội. Trung Quốc đã nhắm tới những gã khổng lồ công nghệ nội địa như Alibaba và Tencent.

Hệ quả trong những năm tới có thể định hình lại cách mà internet trên toàn cầu hoạt động và cách các công nghệ mới được sử dụng, khi mà mọi người được tiếp cận với các nội dung, dịch vụ kỹ thuật số hay sự tự do trực tuyến khác nhau tùy thuộc vào nơi mà họ đang có mặt.

Trí tuệ nhân tạo – trong đó các máy móc được đào tạo để thực hiện các công việc và tự đưa ra quyết định bằng cách học một lượng dữ liệu khổng lồ – được các nhà công nghệ, lãnh đạo doanh nghiệp và cơ quan chính phủ đánh giá là một trong những công nghệ mang tính chuyển đổi nhất trên thế giới, hứa hẹn đem đến những thành quả lớn trong hiệu suất.

Nhưng khi các hệ thống này trở nên tinh vi hơn, sẽ khó khăn hơn để hiểu được tại sao chúng lại đưa ra một quyết định nào – một vấn đề nghiêm trọng khi máy tính trở nên mạnh mẽ hơn. Các nhà nghiên cứu đã đặt ra các câu hỏi đạo đức về việc sử dụng nó, gợi ý rằng nó có thể kéo dài các thành kiến trong xã hội, xâm phạm quyền riêng tư hoặc dẫn đến nhiều công việc được tự động hoá hơn.

Việc Uỷ ban châu Âu – cơ quan điều hành của liên minh – đưa ra dự thảo luật này đã gặp phải ý kiến trái chiều. Nhiều nhóm ngành bày tỏ sự nhẹ nhõm khi các quy định không nghiêm ngặt hơn, trong khi các nhóm xã hội dân sự cho rằng đáng lẽ họ phải đi xa hơn nữa.

Carly Kind, Giám đốc Viện Ada Lovelace tại London, nơi nghiên cứu việc sử dụng trí tuệ nhân tạo có đạo đức, cho biết: “Đã có rất nhiều cuộc thảo luận trong vài năm qua về ý nghĩa của việc kiểm soát AI, và kế hoạch dự phòng cho đến nay vẫn là không làm gì cả và đợi xem điều gì xảy ra. Đây là lần đầu tiên có một quốc gia hay khối khu vực nào đó thử làm việc này.”

Bà Kind cho biết có nhiều người lo ngại rằng chính sách này quá rộng và để lại quá nhiều quyền tự quyết cho các công ty và các nhà phát triển công nghệ tự kiểm soát.

Bà nói: “Nếu nó không đặt ra những giới hạn và chỉ dẫn nghiêm ngặt cùng với các ranh giới chắc chắn về những gì có thể chấp nhận được, nó sẽ dẫn đến rất nhiều cách hiểu khác nhau.”

Sự phát triển của trí tuệ nhân tạo công bằng và có đạo đức đã trở thành một trong những vấn đề gây tranh cãi nhất tại Thung lũng Silicon. Vào tháng mười hai, một đồng lãnh đạo của một nhóm nghiên cứu tại Google – những người nghiên cứu việc sử dụng các phần mềm này một cách có đạo đức – đã thông báo rằng cô bị sa thải vì chỉ trích sự thiếu đa dạng của công ty và các thiên kiến được xây dựng vào trong phần mềm trí tuệ nhân tạo hiện đại. Cuộc tranh luận đã nổ ra trong Google và các công ty về việc bán các phần mềm tiên tiến cho chính phủ với mục đích quân sự.

Tại Hoa Kỳ, những rủi ro của trí tuệ nhân tạo cũng đang được xem xét bởi các cơ quan chính phủ.

Trong tuần này, Uỷ ban Thương mại Liên Bang đã cảnh báo chống lại việc mua bán các hệ thống trí tuệ nhân tạo sử dụng những thuật toán mang thành kiến phân biệt chủng tộc, hoặc các hệ thống có thể “phủ nhận các lợi ích việc làm, nhà ở, tín dụng, bảo hiểm hay các lợi ích khác của mọi người.”

Ở những nơi khác, tại Massachusetts và các thành phố như Oakland, California; Portland, Ore; và San Francisco, chính phủ đã có các hành động để hạn chế việc cảnh sát sử dụng nhận diện khuôn mặt.

Theo The New York Times

Tin liên quan: