Blog

Những sáng tạo độc đáo của SV FPT trong mùa bảo vệ đồ án tốt nghiệp

Lễ bảo vệ đồ án tốt nghiệp là “cửa ải” quan trọng cuối cùng của đời sinh viên. Lễ bảo vệ đồ án tốt nghiệp kỳ Summer 2019 đã quy tụ nhiều đề tài hấp dẫn, có tính ứng dụng cao.

Ở nhóm ngành Công nghệ thông tin, sinh viên đã nhanh chóng nắm bắt những công nghệ nổi bật, có tính ứng dụng cao của cách mạng công nghệ 4.0 như: IoT, AI, Blockchain để đưa vào sản phẩm đồ án của mình. Cùng điểm danh một số đồ án thú vị được trình bày bởi các bạn sinh viên tại buổi bảo vệ đồ án tốt nghiệp kỳ Summer 2019.

Công cụ giúp doanh nghiệp phát hiện lỗ hổng bảo mật

5 sinh viên chuyên ngành An toàn thông tin đã chinh phục Hội đồng Phản biện bằng sản phẩm “Giải pháp quản lý lỗ hổng bảo mật cho doanh nghiệp”.

Xuất phát từ tình hình các vụ tấn công mạng ở Việt Nam và trên thế giới ngày một gia tăng, gây nhiều thiệt hại cho người sử dụng, nhóm sinh viên gồm Nguyễn Anh Việt (nhóm trưởng), Trần Anh Đức, Lê Đình Mạnh, Nguyễn Khắc Hùng, Nguyễn Đức Anh dưới sự hướng dẫn của giảng viên Hà Bách Nam đã đề xuất ý tưởng xây dựng một hệ thống quản lý các lỗ hổng bảo mật.

Các thành viên thuyết trình giới thiệu sản phẩm.

Trên thực tế, thị trường đã có nhiều giải pháp cho vấn đề này như thuê giải pháp bảo mật từ bên thứ 3, xây dựng chính sách bảo mật riêng hay thuê dịch vụ giám sát lỗ hổng bảo mật định kỳ,… Tuy nhiên các giải pháp này đều gặp phải các vấn đề về chi phí, nhân lực vận hành,… gây nhiều khó khăn cho khách hàng, đặc biệt là đối tượng khách hàng doanh nghiệp.

Để khắc phục hạn chế đó, nhóm sinh viên ĐH FPT đã xây dựng một nền tảng (platform) có khả năng kiểm soát các lỗ hổng bảo mật 24/7, hoạt động bền bỉ và dễ sử dụng. Đồng thời, nó cũng có khả năng cập nhập thường xuyên và mở rộng số lượng node để tăng hiệu suất của toàn bộ hệ thống một cách dễ dàng.

Bên cạnh đó, nhóm cũng xây dựng một giao diện Webportal giúp cho người dùng dễ dàng theo dõi, quản lí các lỗ hổng được quét ra bởi các công cụ ở trong hệ thống.

Điểm mới của giải pháp là các công cụ sẽ được chia ra làm các stage và các đầu vào của công cụ này phụ thuộc vào đầu ra của công cụ khác. Luồng chạy thực tế hơn giúp cho công cụ có được đầu vào chính xác để chạy ra một đầu ra chính xác.

Do chỉ là một nhóm nghiên cứu sinh viên, các thành viên đã gặp không ít khó khăn trong quá trình thực hiện đồ án bởi những hạn chế về kiến thức và kỹ năng. Để khắc phục vấn đề này, các bạn đã chủ động phân công các mảng nghiên cứu cho từng thành viên. Sau đó, cả nhóm họp lại và trao đổi để tất cả cùng hiểu rõ vấn đề. Nhóm cũng chủ động bắt tay vào làm đồ án từ rất sớm để kịp thời hoàn thiện sản phẩm của mình.

Trước khi đến với buổi bảo vệ đồ án tốt nghiệp, nhóm đã đem sản phẩm quét thử trên hệ thống của FIS Internal và phát hiện 43 lỗ hổng bảo mật, FPT Public phát hiện 150 lỗ hổng và con số này ở CMC Public là 14.

Đánh giá về đồ án của nhóm, Hội đồng Phản biện đều cho rằng đây là một giải pháp sáng tạo, có ý nghĩa thực tiễn nhưng cũng cần hoàn thiện thêm để thực sự hoạt động hiệu quả khi đưa vào sử dụng.

Mèo máy Doremon phiên bản Việt

Dành ra nhiều ngày tháng, 4 thành viên gồm, Phan Minh Dương, Hoàng Văn Thắng, Trương Minh Giang và Lê Hoàng Nam đã chia nhau đi đến khắp các vùng miền Việt Nam để thu thập dữ liệu giọng nói Tiếng Việt cho chú mèo máy Đôremon – Sản phẩm điều khiển nhà thông mình bằng tập lệnh Tiếng Việt.

Đây là sản phẩm giúp người dùng điều khiển ngôi nhà của mình bằng giọng nói Tiếng Việt với 15 tập lệnh như: bật/tắt đèn, đóng/mở cửa, bật/tắt tivi, bật/tắt quạt… Sản phẩm này sẽ giúp thay thế các thiết bị điều khiển giọng nói bằng tiếng Anh hiện đã có mặt trên thị trường. Sản phẩm gồm 2 phần: Bộ điều khiển chính và Thiết bị điều khiển các thiết bị trong nhà. Bộ điều khiển chính sẽ nhận dạng giọng nói, phát lệnh điều khiển đến các thiết bị điều khiển. Sau khi các thiết bị nhận lệnh sẽ thực hiện lệnh được phát ra, ví dụ khi nói “Bật đèn”, bộ điều khiển chính sẽ nhận dạng từ “Bật đèn” và phát lệnh “Bật đèn” đến thiết bị.

Sản phẩm Đôremon của nhóm.

Nhằm giúp chú Đôremon nhận dạng được giọng nói nhóm đã sử dụng công nghệ Deep Learning để tạo ra model nhận diện giọng nói với độ chính xác lên đến 98%. Để có được kết quả chính xác này, nhóm đã đi kết thu thập dữ liệu từ hơn 300 người đến từ các vùng miền Bắc – Trung – Nam trên cả nước.

Chia sẻ về tính nổi bật của sản phẩm, Phan Minh Dương – thành viên của nhóm cho biết, với việc sử dụng Deep Learning nên model được tạo ra rất nhẹ, phù hợp với các máy tính nhúng hiện nay. Nhờ vậy mà giọng nói sẽ được nhận dạng ngay trên bộ điều chính, giúp cho tốc độ phản hồi ổn định. Đặc biệt, sản phẩm của nhóm có thể nhận dạng được giọng nói trong môi trường không có kết nối Internet khác với các sản phẩm trên thị trường hiện nay như Google Home,… Bên cạnh đó, sản phẩm không cần gửi dữ liệu giọng nói lên máy chủ (server) để nhận dạng giúp tăng tính riêng tư của người sử dụng, không sợ bị nghe lén và bảo đảm an toàn cho ngôi nhà.

Nhóm demo các tính năng của sản phẩm trước Hội đồng phản biện ngay tại buổi bảo vệ đồ án.

Cũng giống như các nhóm sinh viên khác, trong quá trình tạo ra sản phẩm nhóm đã gặp phải nhiều khó khăn. Có lẽ, khó khăn nhất phải kể đến là quá trình đi khắp dải chữ S Việt Nam để thu thập dữ liệu giọng nói Tiếng Việt. Các thành viên trong nhóm đều ở miền Bắc nên thu thập giọng không dễ dàng, nhưng với mục tiêu bất kì người dân Việt nào cũng có thể sử dụng sản phẩm dễ dàng nhóm đã cắt cử nhau đi đến các vùng dân miền Trung và Nam. Đây là thử thách lớn đối với mỗi thành viên khi phải tự mình di chuyển, gặp mặt từng người để xin thu giọng nói. Sau nhiều ngày ròng rã, nhóm đã thu thập được giọng nói của hơn 300 người ở các độ tuổi, giới tính khác nhau trên 3 miền Tổ quốc.

Để tăng tính thương mại hóa cho sản phẩm, thời gian tới nhóm sẽ bổ sung và hoàn thiện một số tính năng như: tăng độ chính xác khi nhận dạng, tăng số tập lệnh để điều khiển được nhiều thiết bị hơn. Nhóm hy vọng, chú mèo máy Đôremon sẽ trở thành một trợ lý ảo thân thiện của người dùng trong thời đại công nghệ 4.0.

“Chắc hẳn ai cũng biết đến chú mèo máy đến từ tương lai Đôremon của Nhật Bản với vô vàn tài năng. Dựa trên hình tượng này, nhóm muốn tạo ra mèo máy Đôremon phiên bản Việt đến với người dùng Việt Nam. Đây sẽ là một chú mèo máy thân thiện, giúp đỡ mọi người điều khiển các thiết bị trong ngôi nhà của mình bằng giọng nói. Ngoài ra, sản phẩm tạo hình Đôremon sẽ tạo cảm giác thân thiện và gần gũi với người dùng hơn.”, Minh Dương cho biết thêm.

Được biết, chú mèo máy Đôremon điều khiển nhà thông mình bằng tập lệnh Tiếng Việt đã giúp nhóm Dương giành giải Nhất cuộc thi IoT Showcase Contest do FPT Edu tổ chức diễn ra tại TP. Cần Thơ vừa qua. Ngoài ra, nghiên cứu của nhóm còn được đăng trên tạp chí quốc tế Scopus và nhận khen thưởng của Nhà trường.

Ứng dụng cảnh báo điểm xóc

Nhóm sinh viên Vũ Văn Cường, Lê Hồng Dũng, Lâm Hải Vũ, Nguyễn Duy Trí (FPT Education) đã phát triển giải pháp cảnh báo điểm xóc cho lái xe nhằm giảm thiểu tai nạn giao thông. Ứng dụng mang tên Smart Traffic hoạt động trơn tru trên nền tảng Android, có khả năng thương mại hóa cao.

Theo thống kê, cứ 17 phút, nước Anh lại tốn 432 bảng Anh để khắc phục hậu quả do mặt đường xấu gây ra. Năm 2011, người ta ghi nhận tới 20 triệu ổ gà trên khắp các tuyến đường châu Âu. Còn ở Việt Nam, tình trạng đường không bằng phẳng, gây khó khăn cho việc di chuyển đã được phản ánh nhiều trên các phương tiện truyền thông đại chúng.

Xuất phát từ thực tế đó, 4 sinh viên FPT Education đã đề xuất giải pháp xác định các ổ gà, ổ voi trên đường và đưa ra cảnh báo kịp thời cho lái xe để tránh tai nạn hoặc thiệt hại cho xe. Giải pháp gồm 2 ứng dụng Android. Một ứng dụng thu thập vị trí các điểm xóc trên đường thông qua cảm biến gia tốc và tổng hợp thành mạng lưới/ bản đồ. Ứng dụng còn lại đưa ra cảnh báo bằng giọng nói hoặc tin nhắn cho lái xe khi gần đến điểm xóc.

Thành viên của nhóm thuyết trình về cách sử dụng ứng dụng.

Nhóm chia sẻ trên thực tế đã có nhiều giải pháp cảnh báo điểm xóc trên đường, tuy nhiên hạn chế của sản phẩm này là tốn nhiều chi phí và thiết bị vận hành, khó phát triển tại các quốc gia đang phát triển, hạ tầng giao thông còn hạn chế.

Khắc phục những vấn đề đó, ứng dụng Smart Traffic có giao diện bắt mắt, dễ sử dụng và đặc biệt thân thiện với người dùng. Người dùng vừa nhận được cảnh báo để chủ động hơn khi di chuyển trên đường, vừa có thể tham gia đóng góp thông tin vào mạng lưới chỉ thông qua các thao tác đơn giản trên điện thoại thông minh. Bên cạnh đó, ứng dụng cũng được tích hợp tính năng chỉ đường hay đưa ra lời khuyên về các tuyến đường ít điểm xóc hơn.

Khi thử nghiệm trên Đại lộ Thăng Long (huyện Thạch Thất, Hà Nội), ứng dụng đã phát hiện 40 điểm xóc với độ chính xác gần như tuyệt đối. Cách mỗi điểm xóc từ 200 – 300 mét, ứng dụng đều tự động phát ra cảnh báo để lái xe giảm tốc độ hoặc đánh lái để giảm va chạm.

Giao diện hoạt động của ứng dụng trong thực tế.

Chứng kiến sản phẩm chạy demo ổn định, thuật toán sử dụng thông minh và giao diện ứng dụng thân thiện với người dùng, thầy Hoàng Xuân Sơn, giảng viên FPT Education, cho rằng sản phẩm có tiềm năng thương mại hóa: “Tôi thấy ứng dụng của các bạn rất hay, có ý nghĩa thực tế. Tôi cũng từng đặt ra câu hỏi là tại sao một chức năng hữu dụng như thế lại chưa xuất hiện ở trên các ứng dụng lớn như Google Maps. Bởi vậy nếu có thể cải tiến các tính năng hơn, đóng gói sản phẩm một cách hoàn thiện thì rõ ràng triển vọng cho sản phẩm là rất lớn”.

Theo các sinh viên FPT Education, một hướng thương mại hóa khác của sản phẩm là bán cho các hãng ô tô để họ tích hợp chức năng nay vào hệ thống cảm biến trên xe. “Nhóm sẽ tiếp thu các ý kiến của Hội đồng Phản biện để tiếp tục cải thiện các tính năng, đồng thời tạo thêm phiên bản của ứng dụng trên iOS để nhiều người có thể sử dụng và đóng góp thông tin vào hệ thống hơn.” – Duy Trí cho biết.

Theo FPT Education

51 công ty công nghệ đồng thuận: Đã tới lúc Quốc Hội phải bắt tay vào bảo mật dữ liệu

Amazon, AT&T, và Qualcomm là 3 trong số những công ty công nghệ này.

Phil Roeder. Ảnh: Getty.

Mới đây, 51 CEO từ các công ty công nghệ (bao gồm Amazon, AT&T, IBM, Motorla, Qualcommon…) đã chính thức bày tỏ mong muốn thúc đẩy các chính sách về bảo mật dữ liệu, thông qua thư gửi Quốc Hội, yêu cầu thông qua một hệ luật toàn diện về bảo mật dữ liệu cho người dùng.

Theo các CEO, những luật hiện có quá rộng, dễ gây nhầm lẫn cho người dùng, đồng thời làm giảm lợi thế cạnh tranh của quốc gia. Và vì vậy, việc có luật và chính sách chính thức sẽ giúp gia tăng niềm tin của người dùng, đồng thời tạo thành một môi trường an toàn và cụ thể, giúp các công ty biết được những giới hạn về bảo mật trong các sản phẩm.

Ngoài ra, các công ty này cũng công bố một khung yêu cầu về chính sách, cụ thể là: làm chặt công tác bảo mật dữ liệu, quy trách nhiệm cụ thể, trong khi vẫn đảm bảo phương thức trung lập, thúc đẩy đổi mới, và thống nhất.

Danh sách này cũng có bỏ qua một số vấn đề, nhưng điều này không đồng nghĩa với sự thiếu quan tâm về những vấn đề này. Trong khi đó, CEO của Apple, Tim Cook, lại yêu cầu riêng rằng bộ luật mới sẽ tuân theo quy chuẩn GDPR (General Data Protection Regulation – Quy định bảo vệ dữ liệu chung).

Tuy nhiên, vấn đề lại nằm ở chỗ, liệu hành đồng này có thực sự nhằm đảm bảo lợi ích cho người tiêu dùng. Cụ thể, yêu cầu này chủ yếu nhằm bảo vệ các hành vi của doanh nghiệp, nhằm phòng tránh việc bị phạt sau nhiều năm vi phạm tính bảo mật của người dùng. Việc có một bộ luật cụ thể sẽ giúp các doanh nghiệp này tránh những khoản phạt nặng và phải thay đổi những quy chế sẵn có.

Theo ZDNet

“Sự thật không phải hàng hóa. Chẳng ai muốn nó cả.” – Phần 3

Công cuộc tìm kiếm một thiết bị phát hiện nói dối thực sự hiệu quả lại càng trở nên ráo riết sau cuộc khủng bố vào ngày 11 tháng 9 năm 2001, mà trong đó, những tên cướp máy bay đã thành công tiến vào Mỹ sau khi vượt qua kiểm tra thủ tục. Điều này đã dấy lên một nhu cầu cấp thiết về các công cụ ở các cục bộ tình báo, cũng như các cơ quan kiểm tra tại sân bay và vùng biên giới, dẫn tới Chính phủ cũng đầu tư các khoản lớn vào nghiên cứu lĩnh vực này. Nhà tâm lý học Paul Ekman tại Telling Lies đã khẳng định: “Mọi  thứ đều thay đổi sau 9/11.”

Ekman cũng là một người hưởng lợi từ việc đầu tư này. Vào những năm 1970, trong khi nói chuyện với các bệnh nhân bị bệnh tâm lý, ông đã phát hiện một biểu cảm bất lực thoáng qua trên gương mặt của Mary, một bệnh nhân 42 tuổi có suy nghĩ tự tử, khi bà nói dối rằng mình đang cảm thấy tốt hơn. Vì vậy, trong những thập kỷ tiếp theo, Ekman đã tập trung vào việc ghi chép những biểu cảm vô cùng nhỏ này, với niềm tin rằng chúng có thể phản ánh sự thật.

Công trình của Ekman đã đem lại ảnh hưởng mạnh mẽ trong giới tâm lý học, và thậm chí còn sau đó trở thành cảm hứng cho chương trình TV “Lie to Me”, được công chiếu vào năm 2009, với một nhân vật mô phỏng Ekman được đóng bởi diễn viên Tim Roth. Nhưng thử nghiệm thực tế của phương thức này vào năm 2006 lại cho một kết quả không mấy khả quan: Sau khi Ekman dành 1 tháng hướng dẫn các cán bộ nhập cảnh phát hiện các biểu cảm nhỏ, vẫn có ít nhất 16 kẻ khủng bố thành công xâm nhập vào Mỹ chỉ trong năm đó.

Theo Tiến sỹ John Kircher, một nhà tâm lý học tại Đại học Utah, người đã phát triển một hệ thống đánh giá điện tử cho polygraph, lĩnh vực phát hiện nói dối luôn tiếp nhận các “làn sóng đầu tư”. Cụ thể, đầu tư tăng cao vào đầu những năm 1980, giữa những năm 1990, và đầu những năm 2000, tương đương với các cuộc tuyển cử và chiến tranh với nước ngoài. Chỉ trong năm 2008, Quân đội Mỹ dưới quyền tổng thống George W Bush, đã đầu tư tới 700.000 đô-la vào 94 thiết bị phát hiện nói dối cầm tay, chủ yếu để sử dụng tại Iraq và Afghanistan. Các thiết bị này, được gọi là Hệ thống Đánh giá độ tin cậy sơ bộ, bao gồm 3 bộ cảm ứng gắn vào tay, được kết nối với các máy nhắn tin phát tín hiệu xanh cho sự thật, đỏ khi nói dối, và vàng khi không xác định. Đáng buồn thay, hiệu quả của những thiết bị này trong phát hiện nói dối cũng chẳng hơn một máy photocopy là bao.

Một số người lại tin rằng, sự kiện 9/11 lại có thể được ngăn chặn nếu có một công cụ phát hiện nói dối hiệu quả. Theo Larry Farwell, nhà sáng chế phương thức vân não, đã bày tỏ: “Những đối tượng đó vốn đã nằm trong danh sách tình nghi. Và phương thức vân não sẽ cung cấp các bằng chứng cần thiết để buộc tội các đối tượng này, trước khi chúng có cơ hội thực hiện tội ác.” Và tư tưởng tương tự đã được sử dụng trong phát hiện các kẻ khủng bố tại Châu Âu khi chúng quay về từ khóa huấn luyện ở nước ngoài.

Kết quả là, các công nghệ phát hiện nói dối được đầu tư bởi Chính phủ chủ yếu được sử dụng tại biên giới và trong thủ tục nhập cảnh tại Mỹ và châu Âu. Vào năm 2014, khách du lịch tới Bucharest đã được thẩm vấn bởi một nhân viên nhập cảnh ảo với tên gọi Avatar, tự nhận là “tương lai của kiểm tra nhập cảnh.” Cụ thể, Avatar mang hình dạng một người mặc áo trắng, mắt xanh, có khả năng scan hộ chiếu và đọc vân tay, bao gồm một mic, một camera hồng ngoại, và một bộ cảm ứng Xbox Kinect để đo chuyển động cơ thể. Avatar cũng đồng thời là một thiết bị nói dối đã mô hình đầu tiên – Tích hợp nhiều dấu hiệu khác nhau nhằm phát hiện hành vi nói dối.

Theo David Mackstaller, một nhân viên tại Discern Science, chủ sở hữu công nghệ phía sau Avatar, điểm đặc biệt của công nghệ này là thuật toán phía sau nó với khả năng kết hợp tất cả các dạng dữ liệu. Theo anh, Avatar sẽ gửi quyết định cuối cùng tới một nhân viên nhập cảnh khác trong vòng 45 giây, và đối tượng bị kiểm tra sau đó sẽ được cho qua hoặc tách riêng để kiểm tra thêm. Đồng thời, Mackstaller cũng chia sẻ rằng công ty đang làm việc với một vài Chính phủ về việc cài đặt vĩnh viễn Avatar, sau khi tái thử nghiệm tại cửa khẩu Nogales ở Arizona và sân bay Reagan gần thủ đô Washington. Ngoài ra, Discern Science cũng đã công bố độ chính xác của kết quả kiểm tra sơ bộ cho công nghệ này, hiện ở mức giữa 83% và 85%.

Còn cuộc kiểm tra Bucharest ở trên lại là động thái của Frontex, đơn vị nhập cảnh EU, đồng thời cũng đang đầu tư cho một hệ thống mới mang tên iBorderCtrl. Được biết, hệ thống này sẽ sử dụng Silent Talker, một công nghệ phát triển bởi Đại học Đô thị Manchester từ đầu những năm 2000. Công nghệ này sử dụng một mô hình AI để phân tích hơn 40 loại cử chỉ nhỏ trên gương mặt và chuyển động đầu, chỉ với một camera và kết nối Internet. Theo lý thuyết, công cụ này sẽ có thể sử dụng được trên truyền hình trưc tiếp, hay thậm chí là các buổi tranh luận chính trị. Tuy nhiên, đồng sáng lập Frontex, ông James O’Shea, lại bày tỏ mong muốn không tham gia vào lĩnh vực này, mà thay vào đó tập trung vào lĩnh vực thi hành pháp luật và bảo hiểm.

Theo O’Shea và đồng nghiệp Zuhair Bandar, sau kiểm tra, Silent Talker hiện cho độ chính xác là 75%. Nhưng đồng thời, họ cũng bày tỏ sự cần thiết của yếu tố con người trong đưa ra các quyết định từ kết quả của Silent Talker.

Còn Mackstaller lại cho rằng, kết quả của Avatar sẽ được cải thiện xuyên suốt quá trình học tập của thuật toán phía sau công nghệ này. Ông cũng cho rằng, viễn cảnh và hậu quả thực tiễn, sẽ lại càng làm tăng độ chính xác của Avatar, mặc cho sự thực thường trái ngược với giả định của Mackstaller: Kết quả thử nghiệm thường khả quan hơn so với trên thực tế.

Ngoài ra, trước khi mở rộng quy mô của những công cụ này, ta cần đảm bảo hiệu quả hoạt động khi xảy ra những khác biệt về nền văn hóa, cũng như trên các nhóm đối tượng như đa nhân cách, với các phản ứng cơ thể khác biệt so với người thường. Trên thực tế, đa số nghiên cứu đều được thực hiện với đối tượng là người da trắng, và thường bị lệ thuộc vào văn hóa xã hội của địa điểm gốc, và sự lệ thuộc này lại càng nguy hiểm trong các điều kiện như kiểm tra nhập cảnh. Hơn nữa, cơ chế hoạt động của các mô hình AI còn quá mơ hồ để minh bạch hóa kết quả quyết định. Tới O’Shea còn phải thừa nhận: “Chúng tôi không hiểu cách thức hoạt động của nó. Hệ thống AI đã tự học cách để phân biệt nói dối.”

Còn Andy Balmer, một nhà xã hội học tại Đại học Manchester, lại lo ngại rằng, công nghệ này sẽ củng cố định kiến thông qua những khoa học khó hiểu, qua đó làm mất tiếng nói của những người thuộc nhóm yếu thế. “Những phương thức khoa học đáng tin hơn chưa bao giờ công nhận hiệu quả của việc phát hiện nói dối, vậy mà lĩnh vực này vẫn tồn tại,” ông thắc mắc. “Điều này đã nói lên phần nào về mục đích của chúng ta với công nghệ này.”

Theo nhà triết học Pháp Michel de Montaigne của thế kỷ 16, sự thật chỉ có một, nhưng lời nói dối lại muôn vạn trạng và không hề có giới hạn. Sự lừa dối, như vậy, không hề đơn giản, và không có một dấu hiệu cố định này có thể được sử dụng trên mọi đối tượng, trong mọi tình huống. Và theo nhà tâm lý học Sophie van der Zee tại Đại học Erasmus, Rotterdam: “Chưa có ai từng tìm ra một cơ sở phát hiện nói dối toàn diện hoàn toàn.”

Có lẽ đối với nhiều người, độ chính xác 80-90% của các công nghệ EyeDetect và Avatar là rất đáng nể, song ở một quy mô tại bộ phận nhập cảnh, tỷ lệ này lại dẫn tới hàng nghìn người vô tội bị liệt sai vào diện tình nghi, trong khi số lần phát hiện đúng lại vô cùng ít ỏi. Và tỷ lệ này cũng có nghĩa rằng, cứ có 10 kẻ khủng bố thì có 2 kẻ thành công vượt qua biên giới.

Nhưng điều này cũng không hề cản trở việc sử dụng những công cụ mới này. Kể cả Polygraph, thứ đã được khẳng định là không có hiệu quả từ hàng thập kỷ trước, vẫn được sử dụng cho hơn 2,5 triệu bài kiểm tra hàng năm, chỉ tại Mỹ. Còn tại Anh, Polygraph vẫn được sử dụng để phát hiện tội phạm tình dục kể từ năm 2014, và mới đây, Chính phủ lại quyết định sẽ mở rộng áp dụng chúng lên các các buộc bạo hành gia đình. Giải thích cho hiện tượng này, nhà sử học Ken Alder đã nói: “Bài kiểm tra này không thể bị loại bỏ bởi khoa học, bởi nó chưa bao giờ mang bản chất khoa học.”

Và những công nghệ mới, tuy khó có thể vượt qua hơn, nhưng cũng chẳng hề công bằng. Cụ thể, những công cụ phát hiện nói dối sử dụng AI đang lợi dụng xu hướng tin tưởng vào sự tuyệt đối của khoa học. Và khi con người càng tin tưởng những công cụ này, thì chúng lại càng trở nên nguy hiểm. Hãy nhìn vào các đối tượng của máy phát hiện nói dối xuyên suốt lịch sử: Phụ nữ vào những năm 1920, người chống quan điểm và người đồng tính vào những năm 1960, các nguyên đơn vào những năm 2000, và những người tị nạn và nhập cư của hiện tại – Luôn luôn là những người yếu thế trong xã hội. “Các nhà khoa học thường không nghĩ về công cụ họ sẽ được sử dụng lên ai, và được sử dụng bởi ai,” Giorgio Ganis chia sẻ. “Và mọi người cần phải hiểu được việc sử dụng các công cụ này sẽ mang hàm ý gì.”

Trong thời đại của tin tức và thông tin giả, mọi người thường bị quyến rũ bởi thứ gọi là sự chắc chắn của khoa học. Tuy nhiên, các công cụ phát hiện nói dối cũng thường xuất hiện khi xảy ra các căng thẳng chính trị, là có khả năng bị lạm dụng vì những mục đích này, bỏ qua việc chúng có thực sự có hiệu quả hay không. Và theo Alder, sự mơ hồ trong tính chính xác của những phương thức mới, sẽ rất có thể lại rơi vào lối mòn một thời của Polygraph.

Rồi sẽ một ngày các tiến bộ trong AI sẽ giúp xác định một xu hướng đáng tin hơn, sử dụng nhiều dấu hiệu hơn, hoặc những công nghệ quét có thể tìm ra các xu hướng não bộ rõ ràng hơn. Tuy nhiên, thứ phức tạp nhất lại nằm ở chúng ta. Theo nhà tâm học nổi tiếng tại Đại học Duke, ông Dan Ariely: “Con người lại thường tin tưởng mãnh liệt vào những lời nói dối do chính họ tạo ra. Và khi họ tin như vậy, thì sẽ không xuất hiện bất cứ dấu hiệu nào có thể phát hiện được.”

Trái với những viễn cảnh khoa học viễn tưởng hoàn hảo được viết trong cuốn tiểu thuyết The Truth machine của James Halperin vào năm 1995, nơi một cỗ máy phát hiện nói dối hoàn hảo giúp mọi quốc gia hợp tác với nhau, nhanh chóng tìm ra một liều thuốc chữa ung thư, thì thế giới thực lại phức tạp hơn rất nhiều: Các chính trị gia không mong muốn sử dụng các bài kiểm tra nói dối. Cụ thể, Terry Mullins, một nhà kiểm tra Polygraph tại UK, đã cho biết các cục cảnh sát và Chính phủ không hề tỏ ra quan tâm tới công nghệ EyeDetect. Ông nói: “Chính phủ hoàn toàn không mong muốn hợp tác. Tôi nghĩ, họ quá e sợ công nghệ này.”

Còn Daniel Langleben, nhà khoa học tạo ra No Lie MRI, lại tiết lộ rằng, một cơ quan Chính phủ mà ông tiếp cận không hề quan tâm tới tỷ lệ chính xác của công nghệ này. Theo họ, máy fMRI không dễ vận chuyển, và không thể được sử dụng trong phòng thẩm vấn của cảnh sát. Ngoài ra, các thanh tra cũng không thể kiểm soát kết quả kiểm tra bằng cách gây áp lực lên đối tượng tình nghi. Thay vào đó, những cơ quan này chỉ muốn biết rằng công nghệ này có thể giúp huấn luyện các cán bộ vượt qua Polygraph được hay không.

Và mọi thứ đều phản ánh đúng như quan điểm của Langleben: “Sự thật không phải hàng hóa. Chẳng ai muốn nó cả.”

FPT TechInsight
Theo The Guardian

Hành trình tạo ra máy phát hiện nói dối hoàn hảo và những nguy hiểm đi kèm – Phần 1

Công cụ phát hiện nói dối có thực sự hiệu quả – Phần 2

Vì sao tương lai của Machine Learning là siêu nhỏ?

Liệu chúng ta có thể trực tiếp nói chuyện với những chiếc máy giặt, các thiết bị đeo tay… Pete Warden tin chắc rằng các ứng dụng Machine Learning như nhận dạng giọng nói, xử lý ngôn ngữ tự nhiên, computer vision… không chỉ chạy trên cloud hay các máy tính đầu cuối mạnh, mà có thể chạy trên các bộ vi điều khiển với bộ nhớ nhỏ và hạn chế về năng lượng. Điều này có thể mở ra những khả năng ứng dụng rất lớn.

Các máy tính siêu nhỏ đã có mặt ở khắp mọi nơi

Thị trường khá phân tán cho nên khó đánh giá chính xác, nhưng ước lượng có khoảng hơn 40 tỷ bộ vi điều khiển (microcontrollers) sẽ được bán ra trong năm [3], và với độ bền của các bộ vi điều khiển thì sẽ có hàng trăm tỷ bộ vi điều khiển đang được lưu hành. Các bộ vi điều khiển (MCUs) chứa các bộ vi xử lý (CPU) nhỏ với bộ nhớ RAM chỉ khoảng vài kbytes, và được nhúng vào các thiết bị dân dụng, y tế, công nghiệp…

Chúng cũng được thiết kế để dùng rất ít năng lượng, và giá thành rẻ để có thể dùng trong mọi loại thiết bị. Giá trung bình của chúng có thể giảm xuống dưới 50 cents trong năm 2018. Chúng ít được chú ý vì thường chỉ được dùng để thay thế các chức năng vốn được thực hiện bởi các hệ thống cơ điện truyền thống, như trong ô tô, máy giặt, hay các điều khiển từ xa…

Logic điều khiển các thiết bị này không khác mấy so với khi dùng các mạch tương tự (analog) và rơ-le, ngoại trừ một số thay đổi như các nút có thể lập trình trên điều khiển từ xa, hay cần gạt nước có thể thay đổi tốc độ tùy theo lượng mưa. Lợi ích lớn nhất với nhà sản xuất là các vi điều khiển có thể được tái lập trình với phần mềm thay vì phải sản xuất các phần điện tử đặc thù cho mỗi chức năng. Điều này làm cho quá trình sản xuất dễ dàng hơn và rẻ hơn.

Năng lượng là yếu tố hạn chế

Mọi thiết bị cần điện nguồn để chạy đều có các yếu tố hạn chế. Chúng phải được lắp đặt ở các nơi đã có dây. Treo lên một góc cao đòi hỏi phải đi dây hoặc sử dụng một alternative như power-over-ethernet [4]. Các mạch điện tử cần thiết để chuyển hiệu điện thế nguồn sang hiệu điện thế sử dụng của thiết bị khá đắt và tiêu tốn nhiều năng lượng. Ngay cả các thiết bị cầm tay cũng đòi hỏi phải được cắm thường xuyên.

Một điều kiện tối ưu cho bất cứ thiết bị thông minh nào là có thể được sử dụng mọi nơi, và không đòi hỏi phải cắm điện hay thay pin. Rào cản lớn nhất để thực hiện được điều này là yêu cầu về năng lượng của các components điện tử. Sau đây là ví dụ mức tiêu thụ điện của một số thành phần:

  • Màn hình (display) cần khoảng 400 milliwatts;
  • Radio cần 800 milliwatts;
  • Bluetooth cần khoảng 100 milliwatts;
  • Gia tốc kế (accelerometer) chỉ khoảng 21 milliwatts;
  • Gyroscope sẽ cần 130 milliwatts;
  • GPS cần 176 milliwatts.

Một bộ vi điện tử tự nó sẽ chỉ cần khoảng vài milliwatts hay ít hơn, tuy nhiên các thiết bị ngoại vi sẽ cần nhiều hơn nhiều. Một cục pin viên (coin battery) trữ khoảng 2.500 Joules, như vậy chỉ đủ chạy cho một thiết bị công suất 1 milliwatts trong khoảng một tháng. Tất nhiên các thiết bị hiện đại đều có các cơ chế tiết kiệm năng lượng như chế độ ngủ (sleeping mode), nhưng chúng ta có thể thấy năng lượng là yếu tố hạn chế ở đây.

CPUs và cảm biến dùng rất ít năng lượng, nhưng Radios và màn hình thì rất nhiều

Từ những thông tin này có thể thấy là vi xử lý và cảm biến cần ít năng lượng, có thể đưa xuống mức microwatts (ví dụ như con chip hình ảnh Glance của Qualcomm, ngay cả các bộ cảm biến CCD[4] hay microphones chỉ cần đơn vị hàng trăm microwatts), nhưng màn hình và đặc biệt là radios cần rất nhiều năng lượng, ngay cả low-power wifi và Bluetooth cũng cần hàng chục milliwatts. Việc di chuyển dữ liệu một cách vật lý có vẻ đòi hỏi nhiều năng lượng.

Có vẻ như quy luật là một nhu cầu năng lượng của một operation tỷ lệ với khoảng cách truyền dữ liệu. Vi xử lý CPU và cảm biến chỉ truyền một vài millimet cho nên cần ít, trong khi radios chuyển xa nhiều mét và hơn nữa nên cần nhiều hơn. Theo tác giả, quy luật này sẽ không đổi, ngay cả khi kỹ thuật tiến bộ hơn. Thậm chí mức chênh lệch năng lượng này sẽ ngày càng lớn hơn, vì có nhiều khả năng giảm tiêu thụ năng lượng khi tính toán hơn là khi truyền dữ liệu.

Chúng ta thu thập nhiều dữ liệu hơn khả năng xử lý rất nhiều

Một vài năm trước tác giả có nói chuyện với nhiều kỹ sư làm việc với các vệ tinh siêu nhỏ (miro-satellites) dùng để thu thập hình ảnh. Vấn đề của các vệ tinh này là chúng được trang bị các camera giống như trong điện thoại, có khả năng quay HD video, tuy nhiên lại chỉ có bộ nhớ rất nhỏ để lưu trữ, cũng như đường truyền rất giới hạn xuống các trạm mặt đất. Đây là vấn đề chung của rất nhiều các cảm biến. Ngay cả camera trong nhà cũng bị giới hạn bởi wifi và đường truyền băng thông rộng. Ví dụ cứ dịp No-el thì cước phí viễn thông của anh tăng lên rất nhiều, đơn giản bởi vì đèn No-el nhấp nháy làm giảm độ nén của video stream vì mỗi frame ảnh đều khác nhau.

Còn nhiều ví dụ khác tương tự, như các gia tốc kế trong các thiết bị wearables hay điện thoại chỉ được dùng để phát hiện các sự kiện có thể đánh thức thiết bị hay để đếm bước chân, chứ không được dùng cho các ứng dụng cao cấp hơn.

Những điều này có ý nghĩa gì với Machine Learning

Nếu bạn chấp nhận các luận điểm trên đây thì có nghĩa là có một thị trường rất lớn đang chờ để được khai phá với công nghệ thích hợp. Chúng ta cần tìm ra các ứng dụng có thể chạy trên các vi điều khiển rẻ tiền, dùng ít năng lượng, dựa vào tính toán chứ không phải truyền số liệu, và có thể khai thác hết các dữ liệu mà các cảm biến thu tập được. Đây chính là chỗ mà Machine Learning, đặc biệt là Deep Learning, có thể phát huy.

Deep Learning chủ yếu dùng tính toán (compute-bound) và có thể chạy tốt trên các vi điều khiển

Các ứng dụng Deep Learning đều dựa rất nhiều vào tính toán (compute-bound). Điều này quan trọng bởi vì với phần lớn các ứng dụng đều phụ thuộc vào việc có thể truy cập một lượng dữ liệu lớn trong bộ nhớ nhanh đến mức nào, và thường truy cập theo các pattern rất khó đoán. Ngược lại phần lớn thời gian chạy một mạng neuron là dùng để nhân các ma trận lớn với nhau, với các con số được dùng lặp lại trong nhiều tổ hợp khác nhau. Điều này có nghĩa là CPUs dành phần lớn thời gian để làm phép nhân số học 2 con số được lưu giữ trong cache, và dành rất ít thời gian để truy cập dữ liệu từ bộ nhớ.

Điều này quan trọng bởi vì truy cập dữ liệu trong bộ nhớ có thể tiêu tốn năng lượng gấp hàng ngàn lần so với làm phép nhân số học. Đây có vẻ lại là một ví dụ nữa của quy luật năng lượng/khoảng cách đã nói ở trên, vì về mặt vật lý, DRAM ở xa hơn các register của CPU rất nhiều. Nhu cầu bộ nhớ tương đối ít (chỉ khoảng hàng chục đến hàng trăm kbytes) đồng nghĩa với việc low-power SRAM hoặc flash có thể được sử dụng làm bộ nhớ.

Điều này làm các ứng dụng Deep Learning rất phù hợp cho các vi điều khiển, đặc biệt khi tính toán 8-bit được dùng thay vì float, vì MCU thường đã có bộ lệnh theo kiểu DSP[5]. Ý tưởng này thực ra cũng không phải là quá mới lạ. Cả Apple lẫn Google đều chạy các ứng dụng nhận dạng giọng nói theo chế độ always-on trên các con chip kiểu thế này, nhưng rất ít người làm Machine Learning hay phần mềm nhúng hiểu sự tương thích giữa Deep Learning và MCUs.

Deep Learning có thể dùng rất ít năng lượng

Picojoules per operation là một chỉ số đo bao nhiêu năng lượng một operation của CPU tiêu thụ, và nó rất có ích bởi nếu bạn biết một mạng neuron chạy bao nhiêu operations một lần, bạn sẽ ước tính được lượng năng lượng cần thiết. Ví dụ mạng MobileNetV2 dùng để phân loại ảnh cần 22 mio ops (mỗi lần nhân-cộng tính là 2 ops) với cấu hình nhỏ nhất.

Nếu một hệ thống cụ thể cần 5 picojoules để chạy một op, vậy sẽ cần 5 picojoules * 22 mio = 110 microjoules. Nếu chúng ta phân tích 1 frame trong một giây, năng suất sẽ là 110 microwatts, và có thể chạy được một năm với một cục pin viên. Các con số này nằm trong khoảng hiện thực với các DSP hiện có, và trong tương lai hiệu suất hy vọng còn tăng lên nữa khi mà cả các model mạng neuron lẫn phần cứng sẽ tiến bộ hơn.

Deep Learning có thể xử lý các dữ liệu lớn thu thập bởi các cảm biến

Trong vài năm qua việc sử dụng mạng neuron đã cho phép chúng ta phân tích và tìm ra ý nghĩa của các tín hiệu như ảnh, âm thanh, hay gia tốc kế. Khi chúng ta chạy các mạng này trên các bộ vi điều khiển, và các cảm ứng cần ít năng lượng, chúng ta có thể xử lý nhiều hơn rất nhiều các dữ liệu mà chúng ta đang chưa xử lý được.

Ví dụ khi bạn muốn thấy bất cứ thiết bị nào cũng có một ứng dụng nhận dạng giọng nói đơn giản. Với một số vốn từ cơ bản, và có thể cùng với một cảm biến hình ảnh để phát hiện sự chú ý (gaze detection), chúng ta có thể điều khiển bất cứ thiết bị nào mà không cần phải nhấn nút hay sử dụng app trên điện thoại. Một thiết bị nhận dạng giọng nói với giá rẻ hơn 50 cents và có thể chạy cả năm với chỉ một cục pin viên – Điều này được tin là hoàn toàn khả thi với các công nghệ hiện có.

Ví dụ khác, bạn muốn có một cảm ứng hình ảnh siêu nhỏ chạy bằng pin mà bạn có thể lập trình để phát hiện một số đối tượng cụ thể như các loại sâu hay cỏ dại, và gửi báo động khi phát hiện. Các thiết bị này có thể rải khắp cánh đồng và cho phép các can thiệp như nhổ cỏ hay phun thuốc trừ sâu có thể được thực hiện một cách thân thiện với môi trường hơn.

Một ví dụ trong công nghiệp mà tác giả rất ám ảnh là hình ảnh của một người thợ cả tạm gọi là “Hans”. Anh ta là một kỹ sư lâu năm, cứ mỗi sáng sẽ đi dọc các hành lang trong xưởng, dừng lại ở mỗi máy, đặt tay lên, lắng nghe, kiểm tra xem liệu có bộ phận nào cần phải được xem xét, sửa chữa. Tất cả chỉ dựa vào kinh nghiệm và bản năng được tôi luyện. Nhà máy nào cũng có những người như thế, nhưng đang ít dần đi vì họ về hưu. Nếu bạn có thể gắn một gia tốc kế và microphone chạy bằng pin vào mỗi máy (kiểu “Cyber-Hans”) để chúng có thể phát hiện ra các biểu hiện bất thường, và bạn có thể kịp thời khắc phục trước khi vấn đề trở nên nghiêm trọng.

Có thể nghĩ ra hàng trăm các ví dụ, nhưng nói thật điều làm tác giả cảm thấy hứng thú nhất là tác giả thực sự không biết các thiết bị mới này có thể được sử dụng để làm gì, chỉ là các điều kiện về công nghệ đã chí muồi cho nên chúng cần phải được làm ra và rất nhiều ứng dụng mà chúng ta chưa thể hình dung được sẽ xuất hiện.

Hoàn cảnh này tương tự như với một đứa trẻ lớn lên trong những năm 80 khi mà những máy tính cá nhân đầu tiên bắt đầu phổ biến. Chúng ta không thể biết chúng có thể làm gì, rất nhiều người chỉ dùng để chơi game hay lưu trữ những quyến sổ địa chỉ lớn, nhưng chắc chắn sẽ có rất nhiều thế giới mới sẽ được mở ra.

Lời kết

Truyền đạt tình cảm thường đòi hỏi phải qua gặp gỡ, rất khó để nói qua tài liệu. Tuy nhiên tác giả hy vọng đã phần nào truyền tải được ở đây sự hứng khởi và niềm tin với xu hướng công nghệ mới này. Dù chưa biết cụ thể chi tiết, nhưng tác giả tin chắc rằng Machine Learning chạy trên các bộ vi điều khiển đang trở thành hiện thực, và chúng sẽ mở ra rất nhiều chân trời mới cho các ứng dụng hấp dẫn trong tương lai.

Chú thích:

  • [1] Một nhà khởi nghiệp, đầu tư, nhà báo về công nghệ ở Anh
  • [2] Hội thảo lớn nhất về AI/technology ở Anh [1] 2018
  • [3] 2018
  • [4] Một phương pháp cho phép truyền điện cùng với dây cáp LAN
  • [5] DSP (Digital Signal Processor): là một loại vi xử lý đặc biệt, thường dùng rất nhiều phép toán chạy nhanh và lặp lại trên các series của data samples (Wiki).

Theo AmaTech

Công cụ phát hiện nói dối có thực sự hiệu quả – Phần 2

Sự phức tạp của công nghệ sử dụng không đồng nghĩa với hiệu quả của công cụ phát hiện nói dối. Tuy nhiên một thế hệ mới sử dụng AI để kết hợp các dấu hiệu thành một phép đo duy nhất đang bắt đầu xuất hiện. Trong đó, công nghệ Machine Learning, với khả năng tìm ra các xu thế bất thường trong dữ liệu, đã đẩy nhanh quá trình nghiên cứu về phát hiện nói dối.

Sau sự kiện khủng bố 9/11, Chính phủ Mỹ vốn vẫn luôn tích cực tài trợ cho khoa học phát hiện nói dối đã bắt đầu tư vào nhiều phương thức phát hiện nói dối tập trung vào não bộ khác, thông qua Darpa – Cơ quan chỉ đạo các dự án Nghiên cứu Quốc phòng tiên tiến. Tới năm 2006, đã có tới 2 công ty là Cephos và No Lie MRI, cung cấp dịch vụ phát hiện nói dối sử dụng phương pháp chụp ảnh cộng hưởng từ chức năng (fMRI). Cụ thể, công cụ này sử dụng các nam châm mạnh để theo dõi đường đi của máu tới các phần của não bộ cần thiết cho giao tiếp xã hội, gợi nhớ, và kiểm soát các hành vi bốc đồng.

Nhưng sự phức tạp của công nghệ sử dụng không đồng nghĩa với hiệu quả của công cụ phát hiện nói dối. Về vấn đề này, Tiến sỹ Giorgio Ganis, nhà nghiên cứu về phát hiện nói dối sử dụng EEG và fMRI tại Đại học Plymouth đã nói: “Ta có thể dễ dàng vượt qua những bài kiểm tra này, sử dụng những phương thức vô cùng khó phát hiện”. Và đánh giá của một nhóm nghiên cứu thuộc Quỹ MacArthur về các bài phát hiện nói dối sử dụng fMRI đã chứng minh cho nhận đinh này. Cụ thể, một thành viên của nhóm kiêm nhà tâm lý học tại Stanford, ông Anthony Wagner, đã phủ nhận tính đáng tin của phát hiện qua fMRI trên tòa án rằng: “Sau khi phân tích dữ liệu, chúng tôi có thể kết luận rằng, không thể khẳng định rằng fMRI có hiệu quả hay không.”

Nhưng đây không phải là kết thúc của các công cụ phát hiện nói dối – Một thế hệ mới sử dụng AI để kết hợp các dấu hiệu thành một phép đo duy nhất đang bắt đầu xuất hiện. Trong đó, công nghệ Machine Learning, với khả năng tìm ra các xu thế bất thường trong dữ liệu, đã đẩy nhanh quá trình nghiên cứu về phát hiện nói dối. Cụ thể, một nhóm nhà khoa học từ Đại học Maryland mới đây đã khẳng định rằng, họ đã phát triển thành công một phần mềm phát hiện nói dối qua video quay phiên tòa, đạt độ chính xác lên tới 88%.

Các thuật toán sử dụng trong những công cụ này sẽ còn tiếp tục phát triển qua thời gian, thậm chí được cho là sẽ sớm tìm ra những yếu tố mới mà những người lập trình ra chúng cũng chưa hề phát hiện. Hiện nay, những công cụ này đang được thử nghiệm trong phỏng vấn tuyển dụng, thủ tục qua biên, cũng như thẩm vấn cảnh sát, nhưng sự phổ biến này lại dấy lên lo ngại từ các tổ chức dân quyền, cũng như những nhà khoa học về những ảnh hưởng xã hội mà nó có thể đem lại.

Minh chứng cho sự lo ngại này là lịch sử sử dụng của công cụ phát hiện nói dối phổ biến nhất từ trước tới nay – Máy Polygraph. Với niên đại lên tới cả một thập kỷ, chiếc máy này vẫn duy trì y nguyên độ phổ biến của nó với công chúng, cũng như trên thị trường phát hiện nói dối, thực hiện tới hàng triệu bài kiểm tra mỗi năm. Tuy nhiên, kể từ khi xuất hiện, công cụ này đã luôn bị hoài nghi về tính chính xác, cũng như mục đích sử dụng của chúng.

Thậm chí chính cha đẻ của Polygraph, ông John Larson còn quay sang căm ghét nó. Vào năm 1921, khi còn 29 tuổi, Larson mới bắt đầu với công việc cảnh sát tại thị trấn Berkeley California. Khi không phải đi tuần tra, ông đã sử dụng các kiến thức về sinh lý học cũng như tâm lý học tội phạm của mình, thử nghiệm và phát triển các ứng dụng khoa học tại một phòng thí nghiệm thuộc Đại học California, với mục tiêu hỗ trợ công tác phát hiện và hạn chế phạm tội.

John Larson (bên phải), người phát minh ra công cụ phát hiện nói dối Polygraph | Ảnh: Pictorial Parade/Getty Images.

Tới mùa xuân 1921, Larson đã tạo ra một công cụ có khả năng đo huyết áp và nhịp thở liên tục, sau đó ghi lại kết quả trên một trụ giấy. Sau đó, ông thiết kế một bài kiểm tra dạng phỏng vấn, so sánh phản ứng sinh lý của đối tượng kiểm tra với các câu trả lời có hay không khi được hỏi các câu hỏi liên quan tới hành vi phạm tội, và các phản hồi khi được hỏi những câu hỏi đơn giản về tên, tuổi của đối tượng. Và để chứng minh khái niệm này, Larson đã thử nghiệm thiết bị và bài kiểm tra tại một vụ trộm ở một ký túc xá nữ.

Thiết bị của Larson sau đó đã tiếp tục được cải thiện dưới sự hỗ trợ của một doanh nhân mang tên Leonarde Keeler – Người mà sau đó đã mang ứng dụng Polygraph ra ngoài lĩnh vực thi hành pháp luật. Cụ thể, sau cuộc khủng hoảng phố Wall 1929, Keeler đã giới thiệu một phiên bản Polygraph được giấu trong hộp gỗ, giúp các công ty kiểm tra các nhân viên bị tình nghi ăn trộm.

Chính phủ Mỹ cũng nhanh chóng gia nhập hàng ngũ sử dụng Polygraphy không lâu sau đó. Trong phong trào chống Cộng sản của những năm 1950, chính phỷ này đã sử dụng Polygraph lên hàng nghìn cán bộ, nhằm phát hiện và loại bỏ những người có tư tưởng Cộng sản. Vào năm 1951, quân đội Mỹ đã thành lập trường Polygraphy đầu tiên, hiện vẫn đang tích cực huấn luyện các cán bộ kiểm tra thuộc cơ quan tình báo của Căn cứ Jackson tại Nam Carolina.

Các công ty cũng nhanh chóng tiếp cận công nghệ này. Trong thập kỷ vừa qua, có tới ¼ số doanh nghiệp mỹ sử dụng Polygraph để kiểm tra lịch sử sử dụng thuốc và lịch sử phạm tội của nhân viên – McDonald cũng hề ngoại lệ. Cho tới những năm 1980, đã có tới hơn 10.000 nhà kiểm tra Polygraph được huấn luyện chuyên nghiệp, phục vụ cho việc thực hiện hơn 2 triệu bài kiểm tra hàng năm.

Phổ biến là như vậy, song Polygraph lại không hề có hiệu quả. Vào năm 2003, Học viện Khoa học Quốc gia Mỹ đã cho xuất bản một nghiên cứu chứng minh rằng, độ chính xác của Polygraph, thông qua 57 thử nghiệm, là “không hề đạt yêu cầu”. Ngoài ra, đã có vô số tội phạm thành công vượt qua bài kiểm tra này một cách thành thạo. Cụ thể, Aldrich Ames, một điệp viên hai mang cho KGB, đã vượt qua tới 2 bài kiểm tra Polygraph khi làm cho CIA vào cuối thập niên 1980 và đầu thập niên 1990. Thậm chí, chỉ cần một chút luyện tập, máy Polygraph sẽ nhanh chóng mất tác dụng: Floyd “Buzz” Fay, sau khi bị buộc tội giết người sai do Polygraph, đã nhanh chóng trở thành chuyên gia về công cụ này, và trong 2 năm rưỡi ngồi tù đã thành công huấn luyện các bạn tù vượt qua nó. Cụ thể, chỉ sau 15 phút hướng dẫn, 23 trên tổng số 27 tù nhân đã vượt qua được bài kiểm tra này. Vậy họ đã làm thế nào? Một phương thức tránh Polygraph phổ biến là làm quá phản ứng trước các câu hỏi, bằng cách nghĩ về những trải nghiệm đáng sợ, dẫm vào đinh được giấu trong giày, hay chỉ đơn giản là căng mông.

Nhưng đáng nói hơn cả, là Polygraph chưa bao giờ là một công cụ phát hiện nói dối có hiệu quả. Các nhà kiểm tra sẽ không giờ biết được nguồn gốc chính xác của những thay đổi về huyết áp: Là nỗi sợ bị bắt gặp nói dối, hay nỗi lo bị buộc tội sai? Hơn nữa, trên cùng một kết quả kiểm tra, các nhà kiểm tra khác nhau lại có thể cho ra các đánh giá trái ngược nhau, và kết quả cũng khác biệt dựa trên địa điểm, chủng tộc, và giới tính.

Sau khi Larson qua đời vào năm 1965, Ủy ban Hoạt động Chính phủ Mỹ đã đưa ra một phán quyết cuối cùng về công cụ Polygraph, cụ thể là: “Mọi người đã bị lừa rằng một thiết bị trong tay một nhân viên điều tra có thể phân biệt được thật giả.” Cũng tại thời điểm này, các nhóm hoạt động dân quyền đã lên án mạnh mẽ về Polygraph, cho rằng công cụ này đang vi phạm dân quyền chống lại sự tự buộc tội. Và trên thực tế, tại các phiên tòa của Mỹ, đa số các kết quả Polygraph đều không được coi là bằng chứng buộc tội hợp lệ. Tới năm 1988, Quốc hội Mỹ đã chính thức cấm sử dụng Polygraph trong tuyển dụng, trước những quan ngại rằng Polygraph có thể bị lạm dụng và sử dụng sai mục đích. Và những công cụ phát hiện nói dối khác của thế kỷ 20 cũng gặp số phận tương tự: Dự án “wiggle chair” của Bộ Quốc phòng – Một công cụ bí mật đo chuyển động và nhiệt độ cơ thể trong quá trình thẩm vấn, kết hợp với một hệ đo nhịp thở đặc biệt sử dụng một tia laser qua một lỗ trên tường đã bị ngừng nghiên cứu.

Nhưng tất cả điều này không hề làm Polygraph bớt phổ biến, bởi lẽ công chúng vẫn tin rằng thiết bị này có hiệu quả. “Những người phát triển ra Polygraphy hẳn đã biết rằng, sức mạnh thật sự của công cụ nằm ở cách nó làm mọi người tin vào hiệu quả của nó,” Tiến sỹ Andy Balmer, một nhà xã hội học tại Đại học Manchester, tác giả của cuốn sách Lie Detection and the Law đã chia sẻ.

Một số người lại nhận tội chỉ vì lo rằng mình sẽ bị máy phát hiện. Vào năm 1975, một tội phạm trong cuộc thẩm vấn tại Cincinnati thậm chí đã xé 1,8 m giấy trụ và ăn chúng hòng xóa bỏ kết quả của máy Polygraph (và cảnh sát thậm chí còn không cần phải sử dụng một máy Polygraph thật: các cảnh sát tại Detroit đã ép tội phạm thừa nhận với một máy photo liên tục xuất ra những tờ giấy in sẵn các câu như “Anh ta đang nói dối!”) Và đây cũng chính là lý do tại sao các cơ quan hành pháp Mỹ lại ưa thích máy Polygraphy: Chúng làm tội phạm thừa nhận nhanh hơn, và họ có thể tiết kiệm rất nhiều chi phí tòa án và thẩm vấn.

Tuy nhiên, một số người lại thừa hận các hành vi phạm tội mà họ không hề làm sau khi bị máy cáo buộc sai. Điều này đã khiến Polygraph không khác gì một thiết bị tra tấn tâm lý, ép những người vô tội phải nhận tội, khiến họ phải nhận án phạt, xử phạt, rồi ngồi tù.

Và người hiểu rõ nhất về những nguy hiểm này của Polygraph là không ai khác ngoài Larson. Ngay trước khi qua đời vào năm 1965, ông đã viết: “Ngoài kỳ vọng của tôi, đã xuất hiện những yếu tố không thể kiểm soát, biến những cuộc thẩm vấn khoa học thành những hình thức biến thái khó có thể tin nổi.”

FPT TechInsight
Theo The Guardian

Hành trình tạo ra máy phát hiện nói dối hoàn hảo và những nguy hiểm đi kèm – Phần 1

“Sự thật không phải hàng hóa. Chẳng ai muốn nó cả.” – Phần 3

Cách mạng AI: Sự thổi phồng, lừa đảo hay thuyết “Big Brother” – Phần 2

AI liệu có nguy hiểm với con người?

Ở thời điểm hiện tại, với những thành tự đã đạt được, thì câu trả lời chắc chắn sẽ là không. Tuy nhiên, khi ta đạt tới trình độ tổng hợp sinh học (tổng hợp được trí não con người và trí tuệ nhân tạo), thì với mục đích sử dụng xấu, AI sẽ trở nên nguy hiểm. Cụ thể, nguy hiểm không tới từ các mô hình mạng nơ-ron, mà từ việc phát triển các mạng nơ-ron trên AND cùng lập trình liên tục. Nhưng thời điểm này là khi nào, thì ta lại không thể biết chắc. Sự phát triển liên tục, những khám phá mới, những cách mạng công nghệ và kỹ thuật liên tục – những thay đổi này đang làm con người trở nên lo sợ.

Nhưng đây chỉ là một vấn đề về quan điểm: thay đổi xảy ra khi ta chuyển từ ngựa sang xe, phát minh ra điện, tạo ra Internet; và trong khi nhiều người tìm thấy cơ hội, thì nhiều người lại e sợ trước những nguy cơ. Hiện nay, nhiều quan điểm lo sợ đã được bày tỏ bởi một vài nhân vật nổi tiếng trong giới khoa học (Hawking) cũng như kinh doanh (Elon Musk), cụ thể là:

  1. AI sẽ tiến bộ rất nhanh, và sớm sẽ phát triển quá mạnh với những kinh nghiệm và kiến thức mà chúng đã tích lũy. Trong đó, ảnh hưởng ngắn hạn mà AI đem lại sẽ phụ thuộc vào người sử dụng, còn ảnh hưởng dài hạn lại phụ thuộc vào liệu họ có khả năng kiểm soát AI hay không. Những thiết bị AI sẽ rất có thể phân tích tình huống và đưa ra quyết định một cách độc lập; những quyết định này hoàn toàn có thể gây bất lợi cho con người.
  2. Con người đã sớm không còn kiểm soát được sự phát triển. Và như vậy, bất cứ ai cũng đều có thể tạo ra các sản phẩm gây hại tới cá nhân hay cả quốc gia. Hiện nay, Liên Hợp Quốc đã và đang bắt tay vào xây dựng các điều luật để kiểm soát việc sử dụng AI trong mâu thuẫn quân sự.
  3. Các nhà khoa học cảm thấy AI là một mối nguy hại tới xã hội. Theo họ, việc sử dụng công nghệ AI rộng rãi sẽ làm con người mất khả năng tự đưa ra quyết định, và trở nên phụ thuộc vào quyết định của máy móc. Những thiết bị thông minh, như vậy, sẽ có thể kiểm soát ý kiến và quan điểm của chủ sở hữu chúng.
  4. Nguy cơ “Super Nova Mind”. Cụ thể, theo Nick Bostrom, AI sẽ tiến hóa tương tự như con người: dần dần phát triển nhận thức. Như vậy, AI sẽ sớm trở thành giống loài thống trị hành tinh, được thúc đẩy bởi những hành động hiện nay của con người. Nhưng câu hỏi là, liệu siêu trí thông minh này, vốn được xây dựng lấy con người là cơ sở, sẽ mang hình thái là thiết bị nhân tạo hoàn toàn, hay là sản phẩm tích hợp giữa nhân tạo và con người?
  5. “Khởi nghĩa của máy móc” – cũng là mối lo ngại phổ biến nhất về AI. Đây là một mối lo khá phi lý, và có thể được kiểm soát với những tác động về luật pháp và kiểm soát về phát triển AI.

Tuy nhiên, mối đe dọa lớn nhất không phải là từ những e ngại trên, mà xuất phát từ ứng dụng thực tiễn của thuyết “Big Brother” do chính phủ, cũng như một số dịch vụ AI đặc biệt khác. Vậy, “Big Brother” là gì?

AI và thuyết “Big Brother”

Nếu bạn đã từng đọc cuốn tiểu thuyết “1984” của nhà văn nổi tiếng người Anh, J.Orwell, hẳn là bạn đã quen thuộc với hình ảnh “Big Brother”. Trong đó, “Big Brother” là đại diện của chế độ toàn trị, chống phá dân chủ, và kiểm soát nhân dân. Và cụ thể, thuyết “Big Brother” xoay quanh mối lo rằng, các cơ quan tình báo chính phủ của các nước phát triển sẽ áp dụng một cơ chế kiểm soát công dân, trong đó bao gồm kiểm soát hoạt động trên Internet. Và tại Mỹ, thuyết này đã phần nào hình thành, khi những cơ quan tình báo của chính phủ Mỹ được cho là xử lý còn nhiều dữ liệu hơn cả những công ty công nghệ lớn nhất.

Vào hồi tháng 12, năm 2017, Phó Giám đốc Cơ quan Tình báo Trung Ương (CIA) về Phát triển Công nghệ, đã chia sẻ rằng cơ quan hiện đang thực hiện 137 dự án AI, trong đó đa số có liên quan tới các công ty công nghệ tại thung lũng Silicon. Đây là một con số vô cùng lớn, và với con số này, CIA đang thể hiện tham vọng sử dụng AI làm công cụ xử lý thông tin chính, và cũng sẽ tăng đầu tư cho công cụ này. Các cụ tình báo Hoa Kỳ hiện cũng đang xử lý những lượng dữ liệu đồ sộ – bao hàm toàn bộ Internet. Ngoài ra, CIA cũng đang phát triển các thuật toán dự đoán với yếu tố AI, giúp tìm ra các mối tương quan bất thường trong dữ liệu. Và những hệ thống này sẽ chỉ ra những hiện tượng vốn không thể phát hiện với các công cụ truyền thống, qua đó hỗ trợ trong việc ra các quyết định về chính trị và quân sự.

Nhưng tình huống lại không chỉ dừng lại ở các dịch vụ đặc biệt cho chính phủ. Việc theo dõi các mạng xã hội yêu cầu lượng tài nguyên rất lớn, song song với đó là các tác vụ nặng như phân tích hình ảnh vệ tinh, các thông cáo từ truyền thông, tin tức trên mạng xã hội và phòng chat. Vì vậy, các dịch vụ đặc biệt sẽ phải sử dụng tới AI, và kẻ hưởng lợi là những công ty công nghệ có khả năng thu thập dữ liệu, cụ thể là Alphabet Inc. (GOOGL), Facebook Inc. (FB), và công ty cung cấp nền tảng AI như IBM Watson (IBM).

Hiện tại, chính phủ Trung Quốc cũng đã đang thực hiện những chính sách không quá sai biệt so với “Big Brother” – và đây là những nguy hiểm của AI, nhưng lại xuất phát từ chính con người, mà cụ thể là từ nhu cầu kiểm soát xã hội của con người. Và như vậy, nguy hiểm nhất không phải là AI, mà là từ mối quan tâm của con người – mối quan tâm tới kiểm soát, tới dữ liệu, và tới các lợi ích kinh tế thu được từ AI.

Thổi phồng và lừa đảo

Song song với sự phát triển, với xu thế sử dụng AI là sự xuất hiện của vô số những start-up lừa đảo, chỉ hoạt động để kiếm tiền đầu tư, mà không phát triển ra một sản phẩm nghiên cứu có ích nào. Dưới lớp ngụy trang “phát triển AI”, các công ty này hoạt động không có một chút nào liên quan tới công nghệ này.

Một minh chứng rõ ràng cho sự lừa đảo này đến từ tiết lộ của một cựu nhân viên Engineer.ai – rằng công ty này nói với các nhà đầu tư là ứng dụng của họ được phát triển bởi AI, trong khi thực tế, họ thuê các lập trình viên giá rẻ. Và phi vụ này đã giúp Engineer.ai kiếm chác tới 29,5 triệu đô-la, lừa đảo thành công nhà đầu tư Deepcore Inc. (công ty con của tập đoàn SoftBank, Nhật Bản), quỹ đầu tư đến từ Zurick – Lakestar (nhà đầu tư đầu tiên vào Facebook và Airbnb), và Jungle Ventures, Singapore.

Một công ty sẽ tự trở nên hấp dẫn hơn với các nhà đầu tư nếu nó sử dụng AI và bởi việc kiểm soát và kiểm tra vấn đề này là rất khó khăn, các nhà đầu tư sẽ dễ dàng bị rơi vào bẫy lừa đảo. Và Engineer.ai cũng không phải trường hợp duy nhất, những vụ lừa này xảy ra trên khắp toàn cầu. Theo PitchBook, so với năm 2017, các công ty và quỹ đầu tư đã tăng gấp đôi vốn đầu tư cho các start-up AI trong năm 2018, và một công ty có thể thu hút đầu tư chỉ bằng việc thêm “AI” vào tên miền.

Theo MMC Ventures, đa số các công ty công nghệ tự nhận là AI, đều không thực sự sử dụng AI trong các sản phẩm. Cụ thể, có tới 40% các start-up, tức 2.830 công ty đang sử dụng chiến thuật lừa đảo này. Như vậy, chỉ cần sử dụng “trí tuệ nhân tạo” lên các sản phẩm, các nhà phát triển nghiệp dư có thể thu hút chú ý, kiếm thêm trung bình 15-50% vốn đầu tư so với việc không sử dụng. Đồng thời, các start-up cũng sẽ không tự công khai họ ứng dụng AI vào điều gì, tạo ra một “bong bóng AI”, mà có thể vỡ bất cứ lúc nào, gây ảnh hưởng nghiêm trọng tới các đối tượng trên thị trường. Ngoài ra, AI cũng đang làm tốt hơn trong việc giả mạo con người: ngôn ngữ của chúng đang dần trở nên tự nhiên hơn, hòa hợp hơn, và sớm thôi, việc phân biệt thật giả sẽ trở nên vô cùng khó khăn.

Vào mùa hè năm 2016, công ty bảo mật thông tin ZeroFox đã phát hiện ra một loại bot mới trên Twitter, có tên gọi SNAP_R. Bot này có khả năng dụ người dùng nhấp vào các đường link dẫn tới các trang web độc, qua đó hình thành một hệ thống lừa đảo từ việc phân tích hành vi người dùng trên mạng xã hội, từ đó biết được nhu cầu và sở thích của họ. Như vậy, khi người dùng lướt Twitter, họ sẽ thấy những link báo giả, phù hợp với sở thích, và nhấn vào đường link.

Dù SNAP_R không được tạo ra với mục đích xấu, nhưng cơ chế của nó lại rất đáng báo động. Và vì vậy, chúng ta phải luôn tỉnh táo và cẩn thận trước những tin tức giả được lan truyền bởi AI. Ngoài ra, sử dụng SNAP_R, có 2 nhà nghiên cứu đã thành công xây dựng một mạng nơ-ron có khả năng học từ một lượng dữ liệu lớn, như học cách nhận diện hình ảnh sau khi phân tích nhiều hình ảnh, hay nhận diện ngôn ngữ nói từ phân tích nhiều hội thoại.

Với khả năng này, việc phát tán các tin tức và tin nhắn lừa đảo thông qua phân tích mạng xã hội là vô cùng dễ dàng, và đang được tiếp diễn ngay trong thời điểm hiện tại. Hiện nay, AI đang được sử dụng trong vô cùng nhiều lĩnh vực: từ nhận diện giọng nói cho tới dịch thuật văn bản và năng lực này có thể được sử dụng để lửa đảo hàng triệu người dùng Internet. Thậm chí, việc không sử dụng chúng để lừa đảo mới là đang ngạc nhiên, nhất là trong thời điểm những hành vi này tràn lan khắp mọi nơi.

Và mối lo ngại lại càng dâng cao trước AI trong công nghệ Deepfake: tạo ra những hình ảnh, video giả trông vô cùng giống thật, với những mục tiêu sử dụng không mấy tốt đẹp. Như vậy, mối đe dọa của AI tới từ chính mối quan hệ giữa con người và công nghệ, cũng như từ mục đích sử dụng chúng.

Nhưng điều này cũng có nghĩa rằng: AI sẽ vô cùng có lợi khi ta có thể kiểm soát chúng – và đây nên là mục tiêu trước tiên trong việc nghiên cứu. Hiện nay, ta vẫn chưa đầu tư nghiên cứu về phòng tránh và ngăn chặn các tác hại của AI, và như vậy, việc đẩy mạnh nghiên cứu về trí thông minh máy tính và cuộc sống tương lai là vô cùng cần thiết. Nhưng liệu chúng ta có thể thành công? Đây vẫn là một câu hỏi mà hiện này chưa hề có đáp án.

Cách mạng AI: Đằng sau khái niệm trí tuệ nhân tạo – Phần 1

FPT TechInsight
Theo Becoming Human

Tại sao Trung Quốc lại cấp tốc muốn phát hành đồng tiền điện tử riêng?

Ngân hàng Trung Ương Trung Quốc (PBOC) hiện đang đặt mục tiêu trở thành ngân hàng Trung Ương đầu tiên cho ra mắt phiên bản điện tử của đồng nhân dân tệ.

Trung Quốc muốn phát hành đồng tiền điện tử riêng.

Ngân hàng Trung Ương Trung Quốc (PBOC) hiện đang đặt mục tiêu trở thành ngân hàng Trung Ương đầu tiên cho ra mắt phiên bản điện tử của đồng nhân dân tệ, nhằm bắt kịp xu hướng của thời đại, cũng như kiểm soát được thị trường số hóa tốt hơn.

Tuy nhiên, trái với các dạng tiền ảo như Bitcoin, đồng nhân dân tệ điện tử sẽ không có yếu tố ẩn danh, và sẽ có giá trị ổn định tương đương với đồng tiền nhân dân tệ thông thường. Hiện nay, các ngân hàng thương mại và một số công ty công nghệ lớn như Ant Financial và Tencent đã bắt đầu cung cấp dịch vụ thanh toán sử dụng đồng tiền này, song ảnh hưởng của hành động này vẫn còn khá mơ hồ. Cần phải biết, mong muốn của Trung Quốc khi cho ra đời loại tiền này là tham vọng muốn kiểm soát sự thay đổi của công nghệ. Và quả nhiên, một cán bộ tại PBOC đã thừa nhận, tiền tệ không chỉ thuộc về vấn đề kinh tế, mà còn liên quan tới tính độc lập và chủ quyền.

1. Kế hoạch của Trung Quốc là gì?

Hiện nay, lộ trình cụ thể cho đồng tiền mới này vẫn chưa được công bố. Tuy nhiên, theo các đăng ký sở hữu trí tuệ của PBOC và một số thông cáo chính thức, quá trình sử dụng đồng nhân dân tệ ảo được dự kiến sẽ diễn ra như sau: Người tiêu dùng và doanh nghiệp sẽ tải về điện thoại một ví điện tử, qua đó tải về tiền ảo từ tài khoản ngân hàng tạo một ngân hàng thương mại. Đây là cơ chế hoạt động tương tự như các cây ATM, và sau đó, với khoản tiền này, người dùng có thể thanh toán và chuyển nhận tiền từ những người cùng dùng ví điện tử.

2. Hầu hết giao dịch đã được số hóa từ trước?

Đúng vậy, xã hội Trung Quốc ngày càng sử dụng ít tiền mặt đi. Thậm chí, kể cả khi mua đồ ăn vỉa hè ở một nơi rất xa thành phố, người dân vẫn hoàn toàn có thể thanh toán với các ứng dụng thanh toán điện tử. Theo hãng nghiên cứu Analysys, chỉ trong quý đầu 2019, những ứng dụng tương tự đã xử lý tới 59 nghìn tỷ tệ chỉ trong nước, tăng tới 15% so với năm 2018. Và có tới hơn một nửa số giao dịch này được thực hiện qua ứng dụng Alipay của Ant Financial, theo sau bởi WeChat Pay của Tencent, với 1/3 số giao dịch. Trong khi đó, theo công bố của PBOC, tới năm 2018, tổng các giao dịch không sử dụng tiền mặt của Trung Quốc đã đạt ngưỡng 3,8 triệu tỷ tệ. Và Trung Quốc cũng phải là quốc gia duy nhất theo xu hướng không tiền mặt này. Cụ thể, theo khảo sát của một ngân hàng Trung Ương Thụy Điển vào năm 2018, chỉ có 13% số người thực hiện giao dịch gần nhất bằng tiền mặt, thấp hơn hẳn so với con số 39% của năm 2010.

3. Mục đích của PBOC là gì?

Song hành với việc phát hành đồng nhân dân tệ điện tử là rất nhiều cân nhắc về cả mặt luật pháp và chính trị. Trong đó, việc có khả năng kiểm soát dòng tiền điện tử sẽ giúp Chính phủ phòng tránh nạn rửa tiền và các hành vi phi pháp hiệu quả hơn. Đây cũng là dự án được bắt đầu bởi Cựu Thống đốc ngân hàng PBOC, ông Zhou Xiaochuan, người đã chính thức về hưu hồi tháng 3 năm 2018, với mong muốn bảo vệ Trung Quốc khỏi tương lai phải tuân theo chuẩn mực được thiết kế bởi kẻ khác. Cụ thể, việc đề ra các chuẩn mực đã bắt đầu với Bitcoin, theo sau là tham vọng gia nhập thị trường tiền ảo của Facebook với đồng Libra, qua đó củng cố vị thế thượng phong của đồng đô-la Mỹ, khiến việc kiểm soát luồng vốn của Trung Quốc trở nên khó khăn hơn. Vào tháng 7, ông Wang Xin, trên cương vị Giám đốc Nghiên cứu của PBOC cũng đã nhận xét, thế thượng phong của đồng đô-la Mỹ sẽ dẫn tới “những hậu quả về kinh tế, tài chính, và cả nền chính trị toàn cầu.”

4. Đây có phải là một dạng tiền ảo?

Trên thực tế, tiền ảo thường chỉ những dạng tiền như Bitcoin, sử dụng mô hình phi tập trung Blockchain để xác minh và ghi nhận giao dịch. Như vậy, Bitcoin và những dạng tiền ảo khác (như Ethereum), sẽ hỗ trợ các giao dịch ẩn danh không qua bên thứ ba – Tức là không cần tới ngân hàng Trung Ương. Tuy nhiên, sự linh hoạt này cũng làm tiền ảo không phù hợp để làm hình thức thanh toán. Còn Libra, tuy được coi là một dạng tiền ảo, nhưng lại là tiền ảo ổn định, được đảm bảo bởi các thế chấp và tiền tệ thật như đồng đô-la Mỹ, Euro, bảng Anh, và yên, dẫn tới sự ổn định trong giá của loại tiền này. Ngoài ra, ở thời điểm hiện tại, Libra được quản lý bởi các công ty tư nhân gồm Facebook, Visa, và Uber. Trong khi đó, PBOC là đơn vị kiểm soát đồng nhân dân tệ điện tử, làm cho đồng tiền mất đi xu hướng phi tập trung, đồng thời ngân hàng cũng không xác định sẽ sử dụng Blockchain, và vì vậy, đồng tiền này sẽ không thể được coi là tiền ảo.

5. Tại sao không sử dụng các dạng tiền có sẵn?

Vào năm 2017, Trung Quốc đã chính thức cấm toàn bộ các giao dịch tiền ảo, nhằm hạn chế rủi ro trong hệ thống tài chính và loại bỏ các “giao dịch đen”. Vì vậy, việc giao dịch tiền ảo, tuy vẫn diễn ra, nhưng tốc độ và quy mô giao dịch đã giảm đi rất nhiều. Ngoài ra, sử dụng tiền điện tử cũng làm việc chuyển tiền ra ngoài lãnh thổ Trung Quốc trở nên dễ dàng hơn, làm ảnh hưởng tới nguồn vốn, qua đó làm giảm giá trị đồng nhân dân tệ. Trước những nguy cơ này, các nhà lãnh đạo Trung Quốc đã nhanh chóng xem xét các biện pháp cần thiết để đối phó với Libra, cho dù đồng tiền này hãy còn chưa ra đời. (Facebook hiện bị cấm tại Trung Quốc, nhưng người dân vẫn có thể truy cập mạng xã hội này với VPN).

6. Tại sao không sử dụng Blockchain?

Trước đây, PBOC cũng đã cân nhắc sử dụng công nghệ này, tuy nhiên đã nhanh chóng thu hồi ý định trước các quan ngại của các nhà nghiên cứu về năng lực hoạt động của công nghệ này khi thực hiện đồng thời nhiều giao dịch. Cụ thể, chỉ một hội chợ mua sắm hàng năm của Trung Quốc đã yêu cầu xử lý tới 92.771 giao dịch mỗi giây, lớn hơn nhiều so với khả năng xử lý Blockchain của đồng Bitcoin.

7. Vậy còn vấn đề bảo mật?

PBOC muốn đạt được một điểm cân bằng giữa việc duy trì yếu tố ẩn danh, và nhu cầu phát hiện các tội phạm tài chính. Theo ngân hàng này, các ngân hàng thương mại sẽ không biết toàn bộ thông tin người dùng. Tuy nhiên, thông tin cá nhân sẽ vẫn được lưu trữ trong các ví điện tử, và Chính phủ vẫn có thể truy cập được những thông tin này. Theo Phó Thống đốc ngân hàng PBOC, ông Fan Yifei, các ngân hàng có thể sẽ cần phải nộp toàn bộ dữ liệu giao dịch hàng ngày, và các cá nhân cũng cần phải sơ lược các giao dịch đó.

8. Khi nào thì đồng tiền này xuất hiện?

Trong một phát biểu vào tháng 8, cán bộ ngân hàng Trung Ương, ông Mu Changchun đã nói rằng “đồng tiền này sẽ sớm ra đời.” Cụ thể, PBOC đã bắt đầu nghiên cứu về tiền điện tử từ năm 2014, và liên tục tuyển dụng nhân sự cho việc nghiên cứu này. Ngoài ra, trong bản kế hoạch về phát triển Thâm Quyến – Một thành phố công nghệ chỉ sau Hồng Kông thành một đô thị đẳng cấp thế giới, cũng đã nhắc tới việc nghiên cứu và đổi mới về tiền điện tử.   

9. Liệu đồng tiền này có được sử dụng rộng rãi?

Câu trả lời là không thể nói trước được. Ví điện tử của PBOC hiện tại cũng không quá khác biệt với các đối thủ lớn như Alipay và WeChat Pay – Các ví điện tử đã gắn chặt với đời sống của người dân, thông qua truyền hình, mạng xã hội, thương mại điện tử, thanh toán hóa đơn, đầu tư, và vô vàn các tác vụ khác. Da Hongfei, người sáng lập nền tảng Blockchain mở Neo, cũng bày tỏ rằng, ông không thấy đồng tiền điện tử của PBOC có gì nổi bật để thu hút người dùng so với Alipay.

10. Ảnh hưởng lên các ngân hàng

Ảnh hưởng chủ yếu lên các ngân hàng sẽ nằm trong việc ghi nhận sổ sách. Cụ thể, tiền điện tử sẽ phải được lưu trữ riêng, nhằm biểu thị dòng tiền đang trong lưu thông (tức nguồn tiền M0), chứ không phải nguồn tiền M1 mà ngân hàng có thể tùy ý cho vay tới các doanh nghiệp và hộ gia đình. Các đơn vị cho vay, như vật sẽ phải đặt cọc 100% tại ngân hàng Trung Ương để có thể sử dụng tiền điện tử, sau đó mới chuyển cho các đơn vị bán lẻ. Ngoài ra, việc tách riêng 2 khoản tiền cũng sẽ giúp PBOC ghi nhận hiệu quả hơn, đồng thời cải thiện hệ thống IT và trả lời yêu cầu của khách hàng tốt hơn.

11. Ảnh hưởng lên nền kinh tế

Các ảnh hưởng sẽ không xuất hiện ngay tức thì. Với mục tiêu thay thế tiền mặt, đồng tiền điện tử của PBOC sẽ không ảnh hưởng quá lớn tới nguồn tiền chung, và vì vậy không ảnh hưởng lên các chính sách tiền tệ. Theo một bài viết vào năm 2018 của Viện nghiên cứu trực thuộc PBOC, nếu đồng tiền điện tử này trở nên phổ biến, và người dùng tích trữ nhiều tiền hơn, thì tiền gửi tại ngân hàng sẽ giảm, nhưng vì vậy lại trở nên dễ kiểm soát hơn. Còn ở một tương lai xa hơn, các ngân hàng Trung Ương sẽ sử dụng đồng tiền này để điều khiển nền kinh tế. Theo đăng ký sở hữu, đây là một đồng tiền yêu cầu các khoản vay phải có đầy đủ thông tin người vay và lãi suất trước khi chính thức chuyển tiền. Điều này sẽ giúp PBOC kiểm soát việc vay và đầu tư trực tiếp hiệu quả hơn, cũng như chủ động hơn. Ngoài ra, nếu Trung Quốc có ý định sử dụng các chính sách tiền tệ phi truyền thống, thì áp lãi suất âm sẽ phổ rộng hơn, lên cả những người sử dụng tiền điện tử.

12. Vậy còn các ngân hàng Trung Ương khác?

Hiện nay, Uruguay đã chính thức thử nghiệm đồng e-Peso, và nhận được nhiều lời khen từ Quỹ Tiền tệ Quốc tế. Còn ở Venezuaela, Chính phủ đang thử nghiệm đồng Petro, trong khi Riksbank của Thụy Điển lại thử đồng e-krona. Vào hồi tháng trước, Thống đốc ngân hàng Anh, ông Mark Carney cũng đang kêu gọi xây dựng một đồng tiền như Libra, với mục tiêu chấm dứt sự thống trị của đồng đô-la. Ngoài ra, một nghiên cứu ẩn danh từ Bank for International Settlements vào đầu năm 2019, cũng đã cho thấy, hầu hết các ngân hàng Trung Ương đều đang thử nghiệm và nghiên cứu những dạng tiền điện tử khác nhau, trên cả lý thuyết lẫn khái niệm.

FPT TechInsight
Theo Bloomberg

3 phút với học máy cho người mới bắt đầu!

Bài viết này chỉ dành cho những độc giả không có một khái niệm nào về học máy (Machine Learning) hay những người cảm thấy lạc lõng khi mọi người đều về chủ đề này.

Bạn không cần phải có một nền tảng vững chắc về công nghệ, sau khi đọc bài viết này, bạn sẽ có đủ thông tin để tham gia vào các cuộc nói chuyện ngẫu nhiên về học máy sau này.

1. Vậy học máy là gì?

Hãy bắt đầu với định nghĩa rộng, học máy là…

Chiếc máy bắt chước và thực hiện các hành vi như con người.

Chính xác là như thế nào?

Ví dụ, có một câu đố:

  • 3 – 9
  • 4 – 16
  • 8 – 64
  • 9 – ?

Bằng cách nào bạn có được đáp số là 81 vậy ???

Đó chính xác là loại hành vi mà chúng ta đang cố gắng dạy cho máy móc. Chúng ta đang cố gắng dạy cho máy móc cách “học từ kinh nghiệm”.

Các thuật toán học máy sử dụng các phương pháp tính toán để tìm hiểu thông tin trực tiếp từ dữ liệu mà không cần dựa vào phương trình định trước như một mô hình.

Các thuật toán có thể dần dần cải thiện hiệu suất của chúng khi số lượng mẫu có sẵn cho việc học ngày càng nhiều.

Các thuật toán học máy có thể tự tìm thấy các mẫu tự nhiên trong dữ liệu, tự suy ra những insight và dự đoán cả những điều chưa biết để đưa ra quyết định tốt hơn.

2. Vậy có những kỹ thuật máy học nào?

Có hai loại Kỹ thuật học máy:

  1. Học có giám sát.
  2. Học không giám sát.

Học có giám sát

Tìm các mẫu (và phát triển các mô hình dự đoán) bằng cách sử dụng cả dữ liệu đầu vào và dữ liệu đầu ra. Tất cả các kỹ thuật học tập được giám sát đều thuộc hình thức Phân loại hoặc Hồi quy.

Phân loại

Phân loại được sử dụng để dự đoán các phản ứng rời rạc.

Ví dụ: Liệu Ấn Độ sẽ THẮNG hay THUA trận đấu Cricket? Liệu một email này là SPAM hay là XÁC THỰC?

THẮNG, THUA, SPAM, XÁC THỰC là các lớp được xác định trước. Và đầu ra phải nằm trong số những lựa chọn này, tùy thuộc vào đầu vào.

Hồi quy

Hồi quy được sử dụng để dự đoán các phản ứng liên tục.

Ví dụ: Xu hướng giá thị trường chứng khoán, dự báo thời tiết,…

Học tập không giám sát

Tìm các mẫu chỉ dựa trên dữ liệu đầu vào. Kỹ thuật này rất hữu ích khi bạn không chắc chắn những gì cần tìm. Thường được sử dụng để phân tích thăm dò dữ liệu thô.

Hầu hết các kỹ thuật học tập không giám sát đều ở dạng của Cụm phân tích.

Trong Phân tích cụm, bạn nhóm các mục dữ liệu tương tự nhau ở một số giá trị đặc trưng.

Cuối cùng, những gì bạn sẽ có là nhiều nhóm khác nhau (Giả sử có A-Z các nhóm như vậy). Một mục dữ liệu (d1) trong một nhóm (A) sẽ hơi giống với các mục dữ liệu khác (d2 – dx) trong cùng một nhóm (A), nhưng d1 sẽ có những khác biệt đáng kể so với các mục dữ liệu thuộc các nhóm khác nhau (B-Z) .

Quay lại ví dụ. Câu đố ở trên là một ví dụ về kỹ thuật học tập có giám sát – kỹ thuật hồi quy.

Một số ứng dụng phổ biến của học máy mà bạn có thể biết đến:

  1. Trợ lý cá nhân Siri hoặc Google cũng ứng dụng học máy.
  2. Dự báo thời tiết ứng dụng học máy.
  3. Dự đoán chính xác kết quả một giải đấu thể thao cũng ứng dụng học máy.
  4. Chẩn đoán y tế chủ yếu ứng dụng học máy.
  5. Và một điều nữa bạn cũng sẽ thấy quen thuộc, có bao giờ bạn tự hỏi làm thế nào mà các trang web truyền thông hiển thị cho bạn các đề xuất và quảng cáo phù hợp với sở thích của bạn không? Họ cũng sử dụng học máy đó.

Hy vọng bạn thích bài viết này. Chia sẻ quan điểm của bạn ở phần bình luận bên dưới nhé!

Theo Becoming Human

Google đã bắt đầu thu thập dữ liệu gương mặt của người dùng

Công nghệ Face Match mới của Google chưa thật sự phổ cập rộng rãi, nhưng nó lại theo dõi bạn vào mọi thời điểm. Sau đây là những gì Google đang làm với dữ liệu gương mặt của bạn, cũng như cách bạn có thể phòng tránh nó.

Google gây chấn động với Nest Hub Max |CNET.

Mới đây, Google đã giới thiệu một giao diện thông minh mới, với một tính năng mới đầy tranh cãi khi theo dõi người dùng trên mọi lúc. Đó là Face Match, sớm sẽ xuất hiện trên Google Nest Hub Max, với khả năng sử dụng camera trước để bảo mật và tham gia vào các cuộc gọi video. Ngoài ra, sau khi nhận diện gương mặt thành công, tính năng này cũng sẽ cung cấp cho người dùng các ảnh, tin nhắn, lịch trình và dữ liệu tương ứng.

Hình thức nhận diên gương mặt này nghe thì tưởng chừng như rất đơn giản. Tuy nhiên, cách thức thu thập, lưu trữ, và sử dụng dữ liệu của các công ty như Google lại rất đang lo ngại, đặc biệt là về vấn đề bảo mật. Và khi tính năng này được giới thiệu, nhiều người dùng đã yêu cầu được biết ai sở hữu dữ liệu cá nhân của họ sau khi các dữ liệu này được tải lên đám mây.

Bài viết này sẽ đi sâu vào cách Google cũng như các công ty công nghệ khác ghi nhận, lưu trữ, và sử dụng dữ liệu gương mặt thu thập qua các thiết bị như Nest Hub Max, đồng thời đưa ra một số cách để người dùng hạn chế quyền truy cập của những thiết bị này.

Face Match là gì?

Face Match là một tính năng trên thiết bị Nest Hub Max mới của Google, sử dụng một camera trước và một phần mềm nhận diện gương mặt trên mọi lúc để phân biệt các đối tượng sử dụng trong gia đình. Cơ chế hoạt động của tính năng này cũng tương tự như Android Face Unlock và Apple FaceID, tức sử dụng các ảnh từ Google Photos, Apple Photos và Facebook để nhận diện.

Tại sao các công ty công nghệ lại muốn thu thập dữ liệu gương mặt?

Google Nest Hub Max hỗ trợ tạo tài khoản đa người dùng, và Google Face Match sẽ scan mặt người dùng để tạo một mô hình mặt, qua đó cung cấp các thông tin liên quan tới người đó, mà không yêu cầu người dùng phải tự đăng nhập. Tính năng này sẽ làm việc sử dụng đa tài khoản thuận tiện hơn rất nhiều – không phải đăng nhập hay quét vân tay.

Có phải lúc nào người dùng cũng bị theo dõi không?

Khi đang bật tính năng Face Match của Google Nest Hub Max, thì chắc chắn người dùng sẽ bị theo dõi. Cụ thể, thiết bị này sẽ liên tục theo dõi và phân tích dữ liệu từ camera để nhận diện gương mặt.

Tại thời điểm hiện tại, đây cũng là thiết bị duy nhất luôn bật tính năng này. Còn ở các thiết bị khác, như FaceID trong iPhone, người dùng sẽ phải tạo tác động qua chạm màn hình hoặc nhấn nút.

Tuy nhiên, Nest Hub Max lại không phải thiết bị duy nhất luôn theo dõi bạn. Cụ thể, các thiết bị hỗ trợ Google Home (bao gồm loa thông minh), Amazon Alexa, và Siri, cùng với một số iPhone và Apple Watch đều luôn theo dõi môi trường xung quanh, lắng nghe để kích hoạt khi phát hiện câu lệnh.

Dữ liệu gương mặt của người dùng sẽ được lưu trữ trên cloud?

Tuy Google đã khẳng định rằng các hồ sơ theo gương mặt được lưu trữ và xử lý trên chính thiết bị Nest Hub Max, hãng vẫn thừa nhận việc đăng tải các dữ liệu này nên cloud nhằm cải thiết “trải nghiệm sản phẩm.” Theo Google, mọi dữ liệu gương mặt được đưa lên cloud sẽ được xóa ngay sau quá trình xử lý.

Việc lưu trữ và chia sẻ dữ liệu gương mặt sẽ có khác biệt qua các công ty khác nhau. Tuy nhiên, một khi người dùng đã cho phép ghi lại dữ liệu gương mặt, thì sẽ khó tránh khỏi việc chúng xuất hiện trên cloud.

Làm sao để biết khi nào dữ liệu hình ảnh được đăng tải?

Với Google Nest Hub Max, sẽ xuất hiện một đèn nháy xanh cạnh camera khi dữ liệu được chuyển lên cloud.

Tuy nhiên, đèn nháy này chỉ báo hiệu việc đăng tải trực tiếp, và không hiệu quả khi Google tải lên các dữ liệu có sẵn, bao gồm các hồ sơ gương mặt được lưu trữ sẵn. Ngoài ra, rất nhiều thiết bị khác cũng có các dấu hiệu riêng để người dùng biết được khi nào camera đang được sử dụng.

Google và Apple có sử dụng dữ liệu gương mặt để cá nhân hóa quảng cáo không?

Google khẳng định rằng các dữ liệu thu thập bởi Face Match và Nest Cam sẽ hoàn toàn không được sử dụng cho quảng cáo. Ngoài ra, báo cáo doanh thu của Apple cũng chỉ rõ rằng, hãng không kiếm tiền từ việc bán quảng cáo.

Người dùng có thể tắt Face Match đi không?

Có 3 cách để ngăn chặn việc lưu trữ và liên tục quét dữ liệu của Google Nest Hub Max:

  • Không cho phép tính năng Face Match ngay từ đầu.
  • Nếu tính năng đã được kích hoạt, người dùng có thể xóa bỏ hồ sơ và tắt Face Match trong phần cài đặt của thiết bị.
  • Tắt luôn camera của thiết bị, qua đó tắt Face Match sử dụng một nút bấm ở phía sau thiết bị. Lưu ý: cách này sẽ không ngăn chặn lưu trữ dữ liệu trên các hồ sơ Face Match có sẵn.

Tại sao không có màn chắn vật lý trên Google Nest Hub Max?

Với nhiều người, sự xuất hiện của một màn chắn vật lý, giúp chặn việc ghi hình của camera sẽ làm họ cảm thấy an toàn hơn. Tuy nhiên, với Google Nest Hub Max, việc sử dụng một màn chắn tương tự cũng đồng nghĩa với việc tắt mic, qua đó làm ảnh hưởng tới tính năng của thiết bị.

Một số phần mềm nhận diện gương mặt hoạt động trên việc tạo bản đồ gương mặt sâu riêng cho mỗi người |CNET.

Google có thể thu thập dữ liệu gương mặt theo các cách khác không?

Hoàn toàn có thể. Trên thực tế, Google Photos đã có khả năng nhận diện kể từ vài năm trước: Ứng dụng này sẽ scan thư viện ảnh của bạn, qua đó nhận diện và đánh dấu những người xuất hiện trên ảnh. Ngoài ra, việc sử dụng gương mặt để mở khóa thiết bị Android cũng đồng nghĩa với việc cho phép Google tạo bản đồ số về gương mặt người dùng. Và như vậy, trong tương lai gần, việc mở khóa bằng gương mặt để thực hiện thanh toán qua điện thoại sẽ sớm không còn an toàn nữa.

Những ai đang thu thập và sử dụng dữ liệu gương mặt?

Một đại diện tiêu biểu là Facebook: Với khả năng thông báo cho người dùng khi một người dùng khác đăng tải ảnh có gương mặt bạn. Ngoài ra, Apple cũng đã bắt sử dụng dữ liệu gương mặt để vận hành tính năng FaceID trên iPhone kể từ năm 2018, đồng thời cũng thừa nhận có chia sẻ các dữ liệu này với các nhà phát triển thuộc bên thứ 3.

Ngoài ra, các cửa hàng thực phẩm, hiệu thuốc, và bán lẻ cũng đang sử dụng công nghệ này để thu thập các thông tin về nhân khẩu học của người dùng (như tên, tuổi). Các hệ thống bảo mật tại đô thị, tòa nhà, sân bay, và nhiều đơn vị cảnh sát cũng thường xuyên sử dụng công nghệ này.

Có thể ngăn chặn cả các ứng dụng trên không?

Điều này là rất khó khăn. Cụ thể, với Google Photos, người dùng có thể tắt tính năng nhận diện gương mặt trên thiết bị của mình, nhưng lại không thể kiểm soát khi gương mặt của họ xuất hiện trên ảnh của người dùng khác.

Facebook mới đây cũng đã giới thiệu một cài đặt mới, cho phép người dùng lựa chọn cấp quyền cho phép bạn bè tag họ vào ảnh trên mạng xã hội này, thay vì để đây là một tính năng mặc định. Tuy điều này không ngăn cản việc Facebook scan và xử lý hình ảnh của người dùng, nhưng nó lại hạn chế được việc chia sẻ các dữ liệu này với người dùng khác.

Còn trong môt số ứng dụng, điển hình là Apple FaceID, người dùng sẽ có thể  đơn giản là tắt tính năng đi, hoàn toàn không cho phép công ty và nhà phát triển sử dụng dữ liệu gương mặt.

Song, khi việc thu thập và xử lý dữ liệu được sử dụng tại những nơi công cộng như trên đường phố, nhà hàng, khách sạn, và các cửa hàng, người dùng lại khó có thể hạn chế chúng. Cách thức phòng tránh duy nhất trong những trường hợp này là che mặt đi khi ra khỏi nhà.

FPT TechInsight
Theo CNet

Nâng cao năng suất lao động khối Back Office với công cụ Mail Merge

Xuất phát từ thực tế nhằm tiết kiệm nguồn lực, tăng năng suất, đảm bảo tiến độ công việc cho các cán bộ nhân viên Ban nhân sự khi xử lý thư từ, anh Vũ Văn Tùng (công tác tại phòng Phát triển Công nghệ FPT Software) đã nảy ra ý tưởng về Mail Merge với các tính năng vượt trội, tích hợp nhiều chức năng mà chỉ những công cụ gửi mail trả phí trên thị trường mới có.

Nhiều cải tiến so với MS Word

Hàng ngày chuyên viên của Ban Nhân sự FPT Software phải xử lý hàng trăm thư từ gửi các đơn vị, thường xuyên sử dụng Mail Merge. Tuy nhiên với cách gửi Mail Merge qua Word thông thường, người dùng sẽ gặp rắc rối trong vấn đề đính kèm file (tùy biến); Gửi CC và BCC; Tùy biến subject. Đây là vấn đề mà hàng trăm cán bộ nhân viên của FPT Software gặp phải và loay hoay tìm hướng giải quyết.

Để giải quyết bài toán tạm thời, nhiều cán bộ nhân viên đã sử dụng công cụ Mapilab bán sẵn. Tuy nhiên, FPT Software phải bỏ ra 24 USD cho mỗi máy tính cài công cụ này. Trước thực trạng này, anh Vũ Văn Tùng (hiện đang công tác tại phòng Phát triển Công nghệ) đã nảy ra ý tưởng về FPT Software Mail Merge.

Chỉ sau 3 tuần, trải qua nhiều phiên bản và các khâu kiểm duyệt bảo mật gắt gao, đến giữa tháng 7, anh Vũ Văn Tùng và cộng sự đã cho ra đời FPT Software Mail Merge bản cuối cùng với các tính năng vượt trội.

Ngoài những tính năng cấp thiết mà Ban nhân sự yêu cầu như đính kèm file (tùy biến); Gửi CC và BCC; Tùy biến subject,… sản phẩm được tích hợp các tính năng của công cụ gửi mail trả phí trên thị trường, trong đó có cá nhân hóa người dùng, lưu kho template, kiểm tra mail gửi, cài đặt hòm thư gửi,… ngoài ra phát triển thêm ứng dụng phù hợp với thực tế công việc tại FPT Software.

Phần mềm sử dụng API từ Outlook, điều này giúp hệ thống không quá tải khi gửi số lượng lớn, dẫn đến email gửi đi bị chặn khỏi hòm thư người nhận. Theo phản hồi người dùng, trong 30 giây, FPT Software Mail Merge có khả năng gửi đến 5.000 email.

Tốc độ này lớn hơn so với nhiều công cụ gửi thư điện tử trên thị trường. Công cụ này không giới hạn số thư gửi mỗi lần. Hiện Mail Merge có thể tải xuống và cài đặt miễn phí trong toàn tập đoàn FPT.

Giao diện của FSOFT Mail Merge.

Giao diện của FPT Software Mail Merge gần giống với giao diện trên Outlook, gồm: Phần 1 có Outlook account; Mail title (có thể customize theo từng người nhận khác nhau); Exel template (file raw data để nhập thông tin liên quan đến từng người nhận); Phần 2 là “Body” thư với các chức năng cơ bản như định dạng font chữ, đoạn văn, chèn thông tin liên quan. Ngay sau khi cài đặt, người dùng có thể thực hiện các tác vụ hiện trên giao diện. Từ khi đưa vào sử dụng cách đây 2 tháng, anh Tùng ghi nhận có gần 500 lượt tải sử dụng.

Chia sẻ về những ưu điểm của công cụ này, anh Vũ Văn Tùng cho hay: “FPT Software Mail Merge có một số ưu điểm như tiết kiệm công sức trong việc gửi thông tin cho nhiều người dung theo định dạng nhất định. Đây là công cụ tự nội bộ FPT Software phát triển, không thu phí license và mở cho toàn bộ FPT, bất kỳ ai có nhu cầu đều có thể dử dụng. Công cụ thân thiện, dễ cài đặt, dễ sử dụng và hỗ trợ đẩy đủ chức năng cần thiết liên quan đến merge”.

Tác giả Vũ Văn Tùng chia sẻ về tool trong iKhiến số 4.

Nâng cao năng suất lao động khối Back Office

Từ sau khi đưa tool Mail Merge vào sử dụng, FPT Software đã nâng cao năng suất lao động mỗi ngày. So với việc sử dụng Mail Merge trên Word, giao diện FPT Software Mail Merge thân thiện hơn, cho phép lưu lại template để tái sử dụng. Bình thường nếu gửi thư cho từng đối tượng và đính kèm thì sẽ có các hạn chế như mất thời gian, mỗi mail trung bình mất 3 phút (sao chép, dán, sửa nội dung, đính kèm); Dễ quên sửa lỗi các chỗ; Thiếu đính kèm file, đính kèm nhầm. Còn với công cụ này, người dùng tránh được nhiều sai sót vì công cụ chạy mail theo trường dữ liệu, nếu không có đường dẫn file đính kèm sẽ cảnh báo đến người dùng.

Đánh giá về FPT Software Mail Merge, nhiều cán bộ nhân viên sử dụng khẳng định công cụ xứng đáng nhận được 9/10 điểm. Tuy nhiên nếu có thể cải thiện thêm phần tùy chỉnh nội dung thư và căn chỉnh bảng biểu linh hoạt hơn thì sẽ hoàn chỉnh hơn.

Trong thời gian tới, đội dự án sẽ tiếp tục sáng tạo những sản phẩm mới, hỗ trợ tối đa công việc nội bộ, góp phần tăng năng suất và đưa FPT Software vào hệ sinh thái số.

FPT Software

Tin đọc nhiều