“Sự thật không phải hàng hóa. Chẳng ai muốn nó cả.” – Phần 3

34

Công cuộc tìm kiếm một thiết bị phát hiện nói dối thực sự hiệu quả lại càng trở nên ráo riết sau cuộc khủng bố vào ngày 11 tháng 9 năm 2001, mà trong đó, những tên cướp máy bay đã thành công tiến vào Mỹ sau khi vượt qua kiểm tra thủ tục. Điều này đã dấy lên một nhu cầu cấp thiết về các công cụ ở các cục bộ tình báo, cũng như các cơ quan kiểm tra tại sân bay và vùng biên giới, dẫn tới Chính phủ cũng đầu tư các khoản lớn vào nghiên cứu lĩnh vực này. Nhà tâm lý học Paul Ekman tại Telling Lies đã khẳng định: “Mọi  thứ đều thay đổi sau 9/11.”

Ekman cũng là một người hưởng lợi từ việc đầu tư này. Vào những năm 1970, trong khi nói chuyện với các bệnh nhân bị bệnh tâm lý, ông đã phát hiện một biểu cảm bất lực thoáng qua trên gương mặt của Mary, một bệnh nhân 42 tuổi có suy nghĩ tự tử, khi bà nói dối rằng mình đang cảm thấy tốt hơn. Vì vậy, trong những thập kỷ tiếp theo, Ekman đã tập trung vào việc ghi chép những biểu cảm vô cùng nhỏ này, với niềm tin rằng chúng có thể phản ánh sự thật.

Công trình của Ekman đã đem lại ảnh hưởng mạnh mẽ trong giới tâm lý học, và thậm chí còn sau đó trở thành cảm hứng cho chương trình TV “Lie to Me”, được công chiếu vào năm 2009, với một nhân vật mô phỏng Ekman được đóng bởi diễn viên Tim Roth. Nhưng thử nghiệm thực tế của phương thức này vào năm 2006 lại cho một kết quả không mấy khả quan: Sau khi Ekman dành 1 tháng hướng dẫn các cán bộ nhập cảnh phát hiện các biểu cảm nhỏ, vẫn có ít nhất 16 kẻ khủng bố thành công xâm nhập vào Mỹ chỉ trong năm đó.

Theo Tiến sỹ John Kircher, một nhà tâm lý học tại Đại học Utah, người đã phát triển một hệ thống đánh giá điện tử cho polygraph, lĩnh vực phát hiện nói dối luôn tiếp nhận các “làn sóng đầu tư”. Cụ thể, đầu tư tăng cao vào đầu những năm 1980, giữa những năm 1990, và đầu những năm 2000, tương đương với các cuộc tuyển cử và chiến tranh với nước ngoài. Chỉ trong năm 2008, Quân đội Mỹ dưới quyền tổng thống George W Bush, đã đầu tư tới 700.000 đô-la vào 94 thiết bị phát hiện nói dối cầm tay, chủ yếu để sử dụng tại Iraq và Afghanistan. Các thiết bị này, được gọi là Hệ thống Đánh giá độ tin cậy sơ bộ, bao gồm 3 bộ cảm ứng gắn vào tay, được kết nối với các máy nhắn tin phát tín hiệu xanh cho sự thật, đỏ khi nói dối, và vàng khi không xác định. Đáng buồn thay, hiệu quả của những thiết bị này trong phát hiện nói dối cũng chẳng hơn một máy photocopy là bao.

Một số người lại tin rằng, sự kiện 9/11 lại có thể được ngăn chặn nếu có một công cụ phát hiện nói dối hiệu quả. Theo Larry Farwell, nhà sáng chế phương thức vân não, đã bày tỏ: “Những đối tượng đó vốn đã nằm trong danh sách tình nghi. Và phương thức vân não sẽ cung cấp các bằng chứng cần thiết để buộc tội các đối tượng này, trước khi chúng có cơ hội thực hiện tội ác.” Và tư tưởng tương tự đã được sử dụng trong phát hiện các kẻ khủng bố tại Châu Âu khi chúng quay về từ khóa huấn luyện ở nước ngoài.

Kết quả là, các công nghệ phát hiện nói dối được đầu tư bởi Chính phủ chủ yếu được sử dụng tại biên giới và trong thủ tục nhập cảnh tại Mỹ và châu Âu. Vào năm 2014, khách du lịch tới Bucharest đã được thẩm vấn bởi một nhân viên nhập cảnh ảo với tên gọi Avatar, tự nhận là “tương lai của kiểm tra nhập cảnh.” Cụ thể, Avatar mang hình dạng một người mặc áo trắng, mắt xanh, có khả năng scan hộ chiếu và đọc vân tay, bao gồm một mic, một camera hồng ngoại, và một bộ cảm ứng Xbox Kinect để đo chuyển động cơ thể. Avatar cũng đồng thời là một thiết bị nói dối đã mô hình đầu tiên – Tích hợp nhiều dấu hiệu khác nhau nhằm phát hiện hành vi nói dối.

Theo David Mackstaller, một nhân viên tại Discern Science, chủ sở hữu công nghệ phía sau Avatar, điểm đặc biệt của công nghệ này là thuật toán phía sau nó với khả năng kết hợp tất cả các dạng dữ liệu. Theo anh, Avatar sẽ gửi quyết định cuối cùng tới một nhân viên nhập cảnh khác trong vòng 45 giây, và đối tượng bị kiểm tra sau đó sẽ được cho qua hoặc tách riêng để kiểm tra thêm. Đồng thời, Mackstaller cũng chia sẻ rằng công ty đang làm việc với một vài Chính phủ về việc cài đặt vĩnh viễn Avatar, sau khi tái thử nghiệm tại cửa khẩu Nogales ở Arizona và sân bay Reagan gần thủ đô Washington. Ngoài ra, Discern Science cũng đã công bố độ chính xác của kết quả kiểm tra sơ bộ cho công nghệ này, hiện ở mức giữa 83% và 85%.

Còn cuộc kiểm tra Bucharest ở trên lại là động thái của Frontex, đơn vị nhập cảnh EU, đồng thời cũng đang đầu tư cho một hệ thống mới mang tên iBorderCtrl. Được biết, hệ thống này sẽ sử dụng Silent Talker, một công nghệ phát triển bởi Đại học Đô thị Manchester từ đầu những năm 2000. Công nghệ này sử dụng một mô hình AI để phân tích hơn 40 loại cử chỉ nhỏ trên gương mặt và chuyển động đầu, chỉ với một camera và kết nối Internet. Theo lý thuyết, công cụ này sẽ có thể sử dụng được trên truyền hình trưc tiếp, hay thậm chí là các buổi tranh luận chính trị. Tuy nhiên, đồng sáng lập Frontex, ông James O’Shea, lại bày tỏ mong muốn không tham gia vào lĩnh vực này, mà thay vào đó tập trung vào lĩnh vực thi hành pháp luật và bảo hiểm.

Theo O’Shea và đồng nghiệp Zuhair Bandar, sau kiểm tra, Silent Talker hiện cho độ chính xác là 75%. Nhưng đồng thời, họ cũng bày tỏ sự cần thiết của yếu tố con người trong đưa ra các quyết định từ kết quả của Silent Talker.

Còn Mackstaller lại cho rằng, kết quả của Avatar sẽ được cải thiện xuyên suốt quá trình học tập của thuật toán phía sau công nghệ này. Ông cũng cho rằng, viễn cảnh và hậu quả thực tiễn, sẽ lại càng làm tăng độ chính xác của Avatar, mặc cho sự thực thường trái ngược với giả định của Mackstaller: Kết quả thử nghiệm thường khả quan hơn so với trên thực tế.

Ngoài ra, trước khi mở rộng quy mô của những công cụ này, ta cần đảm bảo hiệu quả hoạt động khi xảy ra những khác biệt về nền văn hóa, cũng như trên các nhóm đối tượng như đa nhân cách, với các phản ứng cơ thể khác biệt so với người thường. Trên thực tế, đa số nghiên cứu đều được thực hiện với đối tượng là người da trắng, và thường bị lệ thuộc vào văn hóa xã hội của địa điểm gốc, và sự lệ thuộc này lại càng nguy hiểm trong các điều kiện như kiểm tra nhập cảnh. Hơn nữa, cơ chế hoạt động của các mô hình AI còn quá mơ hồ để minh bạch hóa kết quả quyết định. Tới O’Shea còn phải thừa nhận: “Chúng tôi không hiểu cách thức hoạt động của nó. Hệ thống AI đã tự học cách để phân biệt nói dối.”

Còn Andy Balmer, một nhà xã hội học tại Đại học Manchester, lại lo ngại rằng, công nghệ này sẽ củng cố định kiến thông qua những khoa học khó hiểu, qua đó làm mất tiếng nói của những người thuộc nhóm yếu thế. “Những phương thức khoa học đáng tin hơn chưa bao giờ công nhận hiệu quả của việc phát hiện nói dối, vậy mà lĩnh vực này vẫn tồn tại,” ông thắc mắc. “Điều này đã nói lên phần nào về mục đích của chúng ta với công nghệ này.”

Theo nhà triết học Pháp Michel de Montaigne của thế kỷ 16, sự thật chỉ có một, nhưng lời nói dối lại muôn vạn trạng và không hề có giới hạn. Sự lừa dối, như vậy, không hề đơn giản, và không có một dấu hiệu cố định này có thể được sử dụng trên mọi đối tượng, trong mọi tình huống. Và theo nhà tâm lý học Sophie van der Zee tại Đại học Erasmus, Rotterdam: “Chưa có ai từng tìm ra một cơ sở phát hiện nói dối toàn diện hoàn toàn.”

Có lẽ đối với nhiều người, độ chính xác 80-90% của các công nghệ EyeDetect và Avatar là rất đáng nể, song ở một quy mô tại bộ phận nhập cảnh, tỷ lệ này lại dẫn tới hàng nghìn người vô tội bị liệt sai vào diện tình nghi, trong khi số lần phát hiện đúng lại vô cùng ít ỏi. Và tỷ lệ này cũng có nghĩa rằng, cứ có 10 kẻ khủng bố thì có 2 kẻ thành công vượt qua biên giới.

Nhưng điều này cũng không hề cản trở việc sử dụng những công cụ mới này. Kể cả Polygraph, thứ đã được khẳng định là không có hiệu quả từ hàng thập kỷ trước, vẫn được sử dụng cho hơn 2,5 triệu bài kiểm tra hàng năm, chỉ tại Mỹ. Còn tại Anh, Polygraph vẫn được sử dụng để phát hiện tội phạm tình dục kể từ năm 2014, và mới đây, Chính phủ lại quyết định sẽ mở rộng áp dụng chúng lên các các buộc bạo hành gia đình. Giải thích cho hiện tượng này, nhà sử học Ken Alder đã nói: “Bài kiểm tra này không thể bị loại bỏ bởi khoa học, bởi nó chưa bao giờ mang bản chất khoa học.”

Và những công nghệ mới, tuy khó có thể vượt qua hơn, nhưng cũng chẳng hề công bằng. Cụ thể, những công cụ phát hiện nói dối sử dụng AI đang lợi dụng xu hướng tin tưởng vào sự tuyệt đối của khoa học. Và khi con người càng tin tưởng những công cụ này, thì chúng lại càng trở nên nguy hiểm. Hãy nhìn vào các đối tượng của máy phát hiện nói dối xuyên suốt lịch sử: Phụ nữ vào những năm 1920, người chống quan điểm và người đồng tính vào những năm 1960, các nguyên đơn vào những năm 2000, và những người tị nạn và nhập cư của hiện tại – Luôn luôn là những người yếu thế trong xã hội. “Các nhà khoa học thường không nghĩ về công cụ họ sẽ được sử dụng lên ai, và được sử dụng bởi ai,” Giorgio Ganis chia sẻ. “Và mọi người cần phải hiểu được việc sử dụng các công cụ này sẽ mang hàm ý gì.”

Trong thời đại của tin tức và thông tin giả, mọi người thường bị quyến rũ bởi thứ gọi là sự chắc chắn của khoa học. Tuy nhiên, các công cụ phát hiện nói dối cũng thường xuất hiện khi xảy ra các căng thẳng chính trị, là có khả năng bị lạm dụng vì những mục đích này, bỏ qua việc chúng có thực sự có hiệu quả hay không. Và theo Alder, sự mơ hồ trong tính chính xác của những phương thức mới, sẽ rất có thể lại rơi vào lối mòn một thời của Polygraph.

Rồi sẽ một ngày các tiến bộ trong AI sẽ giúp xác định một xu hướng đáng tin hơn, sử dụng nhiều dấu hiệu hơn, hoặc những công nghệ quét có thể tìm ra các xu hướng não bộ rõ ràng hơn. Tuy nhiên, thứ phức tạp nhất lại nằm ở chúng ta. Theo nhà tâm học nổi tiếng tại Đại học Duke, ông Dan Ariely: “Con người lại thường tin tưởng mãnh liệt vào những lời nói dối do chính họ tạo ra. Và khi họ tin như vậy, thì sẽ không xuất hiện bất cứ dấu hiệu nào có thể phát hiện được.”

Trái với những viễn cảnh khoa học viễn tưởng hoàn hảo được viết trong cuốn tiểu thuyết The Truth machine của James Halperin vào năm 1995, nơi một cỗ máy phát hiện nói dối hoàn hảo giúp mọi quốc gia hợp tác với nhau, nhanh chóng tìm ra một liều thuốc chữa ung thư, thì thế giới thực lại phức tạp hơn rất nhiều: Các chính trị gia không mong muốn sử dụng các bài kiểm tra nói dối. Cụ thể, Terry Mullins, một nhà kiểm tra Polygraph tại UK, đã cho biết các cục cảnh sát và Chính phủ không hề tỏ ra quan tâm tới công nghệ EyeDetect. Ông nói: “Chính phủ hoàn toàn không mong muốn hợp tác. Tôi nghĩ, họ quá e sợ công nghệ này.”

Còn Daniel Langleben, nhà khoa học tạo ra No Lie MRI, lại tiết lộ rằng, một cơ quan Chính phủ mà ông tiếp cận không hề quan tâm tới tỷ lệ chính xác của công nghệ này. Theo họ, máy fMRI không dễ vận chuyển, và không thể được sử dụng trong phòng thẩm vấn của cảnh sát. Ngoài ra, các thanh tra cũng không thể kiểm soát kết quả kiểm tra bằng cách gây áp lực lên đối tượng tình nghi. Thay vào đó, những cơ quan này chỉ muốn biết rằng công nghệ này có thể giúp huấn luyện các cán bộ vượt qua Polygraph được hay không.

Và mọi thứ đều phản ánh đúng như quan điểm của Langleben: “Sự thật không phải hàng hóa. Chẳng ai muốn nó cả.”

FPT TechInsight
Theo The Guardian

Hành trình tạo ra máy phát hiện nói dối hoàn hảo và những nguy hiểm đi kèm – Phần 1

Công cụ phát hiện nói dối có thực sự hiệu quả – Phần 2

Tin liên quan: