Cách mạng AI: Sự thổi phồng, lừa đảo hay thuyết “Big Brother” – Phần 2

124

AI liệu có nguy hiểm với con người?

Ở thời điểm hiện tại, với những thành tự đã đạt được, thì câu trả lời chắc chắn sẽ là không. Tuy nhiên, khi ta đạt tới trình độ tổng hợp sinh học (tổng hợp được trí não con người và trí tuệ nhân tạo), thì với mục đích sử dụng xấu, AI sẽ trở nên nguy hiểm. Cụ thể, nguy hiểm không tới từ các mô hình mạng nơ-ron, mà từ việc phát triển các mạng nơ-ron trên AND cùng lập trình liên tục. Nhưng thời điểm này là khi nào, thì ta lại không thể biết chắc. Sự phát triển liên tục, những khám phá mới, những cách mạng công nghệ và kỹ thuật liên tục – những thay đổi này đang làm con người trở nên lo sợ.

Nhưng đây chỉ là một vấn đề về quan điểm: thay đổi xảy ra khi ta chuyển từ ngựa sang xe, phát minh ra điện, tạo ra Internet; và trong khi nhiều người tìm thấy cơ hội, thì nhiều người lại e sợ trước những nguy cơ. Hiện nay, nhiều quan điểm lo sợ đã được bày tỏ bởi một vài nhân vật nổi tiếng trong giới khoa học (Hawking) cũng như kinh doanh (Elon Musk), cụ thể là:

  1. AI sẽ tiến bộ rất nhanh, và sớm sẽ phát triển quá mạnh với những kinh nghiệm và kiến thức mà chúng đã tích lũy. Trong đó, ảnh hưởng ngắn hạn mà AI đem lại sẽ phụ thuộc vào người sử dụng, còn ảnh hưởng dài hạn lại phụ thuộc vào liệu họ có khả năng kiểm soát AI hay không. Những thiết bị AI sẽ rất có thể phân tích tình huống và đưa ra quyết định một cách độc lập; những quyết định này hoàn toàn có thể gây bất lợi cho con người.
  2. Con người đã sớm không còn kiểm soát được sự phát triển. Và như vậy, bất cứ ai cũng đều có thể tạo ra các sản phẩm gây hại tới cá nhân hay cả quốc gia. Hiện nay, Liên Hợp Quốc đã và đang bắt tay vào xây dựng các điều luật để kiểm soát việc sử dụng AI trong mâu thuẫn quân sự.
  3. Các nhà khoa học cảm thấy AI là một mối nguy hại tới xã hội. Theo họ, việc sử dụng công nghệ AI rộng rãi sẽ làm con người mất khả năng tự đưa ra quyết định, và trở nên phụ thuộc vào quyết định của máy móc. Những thiết bị thông minh, như vậy, sẽ có thể kiểm soát ý kiến và quan điểm của chủ sở hữu chúng.
  4. Nguy cơ “Super Nova Mind”. Cụ thể, theo Nick Bostrom, AI sẽ tiến hóa tương tự như con người: dần dần phát triển nhận thức. Như vậy, AI sẽ sớm trở thành giống loài thống trị hành tinh, được thúc đẩy bởi những hành động hiện nay của con người. Nhưng câu hỏi là, liệu siêu trí thông minh này, vốn được xây dựng lấy con người là cơ sở, sẽ mang hình thái là thiết bị nhân tạo hoàn toàn, hay là sản phẩm tích hợp giữa nhân tạo và con người?
  5. “Khởi nghĩa của máy móc” – cũng là mối lo ngại phổ biến nhất về AI. Đây là một mối lo khá phi lý, và có thể được kiểm soát với những tác động về luật pháp và kiểm soát về phát triển AI.

Tuy nhiên, mối đe dọa lớn nhất không phải là từ những e ngại trên, mà xuất phát từ ứng dụng thực tiễn của thuyết “Big Brother” do chính phủ, cũng như một số dịch vụ AI đặc biệt khác. Vậy, “Big Brother” là gì?

AI và thuyết “Big Brother”

Nếu bạn đã từng đọc cuốn tiểu thuyết “1984” của nhà văn nổi tiếng người Anh, J.Orwell, hẳn là bạn đã quen thuộc với hình ảnh “Big Brother”. Trong đó, “Big Brother” là đại diện của chế độ toàn trị, chống phá dân chủ, và kiểm soát nhân dân. Và cụ thể, thuyết “Big Brother” xoay quanh mối lo rằng, các cơ quan tình báo chính phủ của các nước phát triển sẽ áp dụng một cơ chế kiểm soát công dân, trong đó bao gồm kiểm soát hoạt động trên Internet. Và tại Mỹ, thuyết này đã phần nào hình thành, khi những cơ quan tình báo của chính phủ Mỹ được cho là xử lý còn nhiều dữ liệu hơn cả những công ty công nghệ lớn nhất.

Vào hồi tháng 12, năm 2017, Phó Giám đốc Cơ quan Tình báo Trung Ương (CIA) về Phát triển Công nghệ, đã chia sẻ rằng cơ quan hiện đang thực hiện 137 dự án AI, trong đó đa số có liên quan tới các công ty công nghệ tại thung lũng Silicon. Đây là một con số vô cùng lớn, và với con số này, CIA đang thể hiện tham vọng sử dụng AI làm công cụ xử lý thông tin chính, và cũng sẽ tăng đầu tư cho công cụ này. Các cụ tình báo Hoa Kỳ hiện cũng đang xử lý những lượng dữ liệu đồ sộ – bao hàm toàn bộ Internet. Ngoài ra, CIA cũng đang phát triển các thuật toán dự đoán với yếu tố AI, giúp tìm ra các mối tương quan bất thường trong dữ liệu. Và những hệ thống này sẽ chỉ ra những hiện tượng vốn không thể phát hiện với các công cụ truyền thống, qua đó hỗ trợ trong việc ra các quyết định về chính trị và quân sự.

Nhưng tình huống lại không chỉ dừng lại ở các dịch vụ đặc biệt cho chính phủ. Việc theo dõi các mạng xã hội yêu cầu lượng tài nguyên rất lớn, song song với đó là các tác vụ nặng như phân tích hình ảnh vệ tinh, các thông cáo từ truyền thông, tin tức trên mạng xã hội và phòng chat. Vì vậy, các dịch vụ đặc biệt sẽ phải sử dụng tới AI, và kẻ hưởng lợi là những công ty công nghệ có khả năng thu thập dữ liệu, cụ thể là Alphabet Inc. (GOOGL), Facebook Inc. (FB), và công ty cung cấp nền tảng AI như IBM Watson (IBM).

Hiện tại, chính phủ Trung Quốc cũng đã đang thực hiện những chính sách không quá sai biệt so với “Big Brother” – và đây là những nguy hiểm của AI, nhưng lại xuất phát từ chính con người, mà cụ thể là từ nhu cầu kiểm soát xã hội của con người. Và như vậy, nguy hiểm nhất không phải là AI, mà là từ mối quan tâm của con người – mối quan tâm tới kiểm soát, tới dữ liệu, và tới các lợi ích kinh tế thu được từ AI.

Thổi phồng và lừa đảo

Song song với sự phát triển, với xu thế sử dụng AI là sự xuất hiện của vô số những start-up lừa đảo, chỉ hoạt động để kiếm tiền đầu tư, mà không phát triển ra một sản phẩm nghiên cứu có ích nào. Dưới lớp ngụy trang “phát triển AI”, các công ty này hoạt động không có một chút nào liên quan tới công nghệ này.

Một minh chứng rõ ràng cho sự lừa đảo này đến từ tiết lộ của một cựu nhân viên Engineer.ai – rằng công ty này nói với các nhà đầu tư là ứng dụng của họ được phát triển bởi AI, trong khi thực tế, họ thuê các lập trình viên giá rẻ. Và phi vụ này đã giúp Engineer.ai kiếm chác tới 29,5 triệu đô-la, lừa đảo thành công nhà đầu tư Deepcore Inc. (công ty con của tập đoàn SoftBank, Nhật Bản), quỹ đầu tư đến từ Zurick – Lakestar (nhà đầu tư đầu tiên vào Facebook và Airbnb), và Jungle Ventures, Singapore.

Một công ty sẽ tự trở nên hấp dẫn hơn với các nhà đầu tư nếu nó sử dụng AI và bởi việc kiểm soát và kiểm tra vấn đề này là rất khó khăn, các nhà đầu tư sẽ dễ dàng bị rơi vào bẫy lừa đảo. Và Engineer.ai cũng không phải trường hợp duy nhất, những vụ lừa này xảy ra trên khắp toàn cầu. Theo PitchBook, so với năm 2017, các công ty và quỹ đầu tư đã tăng gấp đôi vốn đầu tư cho các start-up AI trong năm 2018, và một công ty có thể thu hút đầu tư chỉ bằng việc thêm “AI” vào tên miền.

Theo MMC Ventures, đa số các công ty công nghệ tự nhận là AI, đều không thực sự sử dụng AI trong các sản phẩm. Cụ thể, có tới 40% các start-up, tức 2.830 công ty đang sử dụng chiến thuật lừa đảo này. Như vậy, chỉ cần sử dụng “trí tuệ nhân tạo” lên các sản phẩm, các nhà phát triển nghiệp dư có thể thu hút chú ý, kiếm thêm trung bình 15-50% vốn đầu tư so với việc không sử dụng. Đồng thời, các start-up cũng sẽ không tự công khai họ ứng dụng AI vào điều gì, tạo ra một “bong bóng AI”, mà có thể vỡ bất cứ lúc nào, gây ảnh hưởng nghiêm trọng tới các đối tượng trên thị trường. Ngoài ra, AI cũng đang làm tốt hơn trong việc giả mạo con người: ngôn ngữ của chúng đang dần trở nên tự nhiên hơn, hòa hợp hơn, và sớm thôi, việc phân biệt thật giả sẽ trở nên vô cùng khó khăn.

Vào mùa hè năm 2016, công ty bảo mật thông tin ZeroFox đã phát hiện ra một loại bot mới trên Twitter, có tên gọi SNAP_R. Bot này có khả năng dụ người dùng nhấp vào các đường link dẫn tới các trang web độc, qua đó hình thành một hệ thống lừa đảo từ việc phân tích hành vi người dùng trên mạng xã hội, từ đó biết được nhu cầu và sở thích của họ. Như vậy, khi người dùng lướt Twitter, họ sẽ thấy những link báo giả, phù hợp với sở thích, và nhấn vào đường link.

Dù SNAP_R không được tạo ra với mục đích xấu, nhưng cơ chế của nó lại rất đáng báo động. Và vì vậy, chúng ta phải luôn tỉnh táo và cẩn thận trước những tin tức giả được lan truyền bởi AI. Ngoài ra, sử dụng SNAP_R, có 2 nhà nghiên cứu đã thành công xây dựng một mạng nơ-ron có khả năng học từ một lượng dữ liệu lớn, như học cách nhận diện hình ảnh sau khi phân tích nhiều hình ảnh, hay nhận diện ngôn ngữ nói từ phân tích nhiều hội thoại.

Với khả năng này, việc phát tán các tin tức và tin nhắn lừa đảo thông qua phân tích mạng xã hội là vô cùng dễ dàng, và đang được tiếp diễn ngay trong thời điểm hiện tại. Hiện nay, AI đang được sử dụng trong vô cùng nhiều lĩnh vực: từ nhận diện giọng nói cho tới dịch thuật văn bản và năng lực này có thể được sử dụng để lửa đảo hàng triệu người dùng Internet. Thậm chí, việc không sử dụng chúng để lừa đảo mới là đang ngạc nhiên, nhất là trong thời điểm những hành vi này tràn lan khắp mọi nơi.

Và mối lo ngại lại càng dâng cao trước AI trong công nghệ Deepfake: tạo ra những hình ảnh, video giả trông vô cùng giống thật, với những mục tiêu sử dụng không mấy tốt đẹp. Như vậy, mối đe dọa của AI tới từ chính mối quan hệ giữa con người và công nghệ, cũng như từ mục đích sử dụng chúng.

Nhưng điều này cũng có nghĩa rằng: AI sẽ vô cùng có lợi khi ta có thể kiểm soát chúng – và đây nên là mục tiêu trước tiên trong việc nghiên cứu. Hiện nay, ta vẫn chưa đầu tư nghiên cứu về phòng tránh và ngăn chặn các tác hại của AI, và như vậy, việc đẩy mạnh nghiên cứu về trí thông minh máy tính và cuộc sống tương lai là vô cùng cần thiết. Nhưng liệu chúng ta có thể thành công? Đây vẫn là một câu hỏi mà hiện này chưa hề có đáp án.

Cách mạng AI: Đằng sau khái niệm trí tuệ nhân tạo – Phần 1

FPT TechInsight
Theo Becoming Human

Tin liên quan: