Trí tuệ nhân tạo ứng dụng trong phòng, chống tội phạm như thế nào?
Trong buổi bình minh của trí tuệ nhân tạo (AI), một loạt công cụ máy học mới hứa hẹn sẽ giúp bảo vệ người dân hiệu quả hơn, song cũng đi kèm những thách thức khó có thể giải quyết trong một sớm một chiều.
Khi bản thân dữ liệu cũ chính là vấn đề
Dữ liệu trong quá khứ về tội phạm có thể được sử dụng làm tài liệu cho các thuật toán máy học đưa ra các dự báo về tội phạm trong tương lai, từ đó cảnh sát có thể phân bổ nguồn lực phù hợp theo các dự đoán này. Tuy nhiên bản thân dữ liệu này cũng chính là vấn đề, khi chứa nhiều sự thiên lệch và do đó, làm sâu sắc thêm sự bất bình đẳng.
Từ những năm 1990, các sở cảnh sát tại Mỹ đã áp dụng phương pháp phân tích dữ liệu để phân bổ nguồn lực xuống địa bàn “có nguy cơ cao”. Tuy nhiên, thực tế lại cho thấy, nếu thêm nhiều cảnh sát được điều động tới một khu vực nhất định, thì nhiều khả năng nhiều tội phạm sẽ xuất hiện ở đó. Về cơ bản, đây như một vòng lặp phản hồi tạo ra cái nhìn sai lệch về nơi thực sự nhiều tội phạm đang diễn ra.
Không chỉ vậy, việc sử dụng dữ liệu quá khứ, dù các dữ liệu này có thể cho biết một số chỉ báo về hành vi tương lai, nhưng lại không tính đến khái niệm và khả năng phục hồi sau đó.
Năm 2019, chính phủ Hà Lan thí điểm hệ thống SyRI (hệ thống cảnh báo rủi ro), sử dụng các dữ liệu sẵn có như thuế, bảo hiểm, cư trú, giáo dục… để dự báo các đối tượng có khả năng gian lận về phúc lợi xã hội. Tuy nhiên, dự án này đã bị đình chỉ sau 1 năm, do nhận nhiều chỉ trích vì sử dụng các thông số và dữ liệu đặc biệt nhắm vào người thu nhập thấp và dân tộc thiểu số.
Tương tự, Roermond, thành phố Đông Nam Hà Lan thử nghiệm dự án “Cảm biến”, sử dụng camera và cảm biến thu thập dữ liệu phương tiện di chuyển quanh khu vực, sau đó dùng thuật toán xác định các đối tượng có xác suất cao là móc túi và ăn cắp để thông báo tới cảnh sát và cảnh báo mọi người. Thế nhưng, dự án không chứng minh được hiệu quả khi thường bỏ qua các cá nhân người bản xứ, thay vào đó chủ yếu nhằm vào người Đông Âu, đối tượng mà cảnh sát Hà Lan cho rằng chiếm phần lớn trong các vụ trộm cắp và móc túi tại quốc gia này.
“Các dự báo này không chỉ phản ánh sự bất bình đẳng đang xảy ra, mà còn làm trầm trọng thêm nó”, Marc Schuilenburg, giáo sư về tội phạm học tại Đại học Vrije Amsterdam lập luận.
Video đang HOT
Hoài nghi về độ chính xác của các hệ thống AI
Năm 2018, sở cảnh sát London sử dụng công nghệ nhận diện khuôn mặt để xác định 104 người được cho là có hành vi phạm tội. Thế nhưng, chỉ 2 trong số 104 trường hợp là chính xác.
“Từ thời điểm nhân viên cảnh sát xác định sai nghi phạm cho đến lúc họ nhận ra bắt nhầm người thì hành động cưỡng chế đã diễn ra: nghi phạm bị bắt, đưa đến đồn cảnh sát và bị giam giữ. Loạt hành động này gây ra sự sợ hãi và hậu quả không thể đảo ngược”, Edward Santow, phóng viên của The Australian Quarterly cho biết.
Ngoài ra, các hệ thống nhận diện khuôn mặt cũng cho thấy sự phân biệt đối với người da màu. Ví dụ, thuật toán của Facebook đã từng dán nhãn người da đen là “động vật linh trưởng”, một lỗi sai không thể chấp nhận.
Công nghệ nhận diện khuôn mặt vẫn đang phát triển, các thuật toán ngày càng hiệu quả trong phân tích hình ảnh chất lượng thấp và xác định những khuôn mặt già đi, thậm chí là nhận diện từ góc nghiêng. Dù vậy, Patrick Grother, chuyên gia tại Image Group, cho biết “sai số vẫn còn tương đối” và “chất lượng hình ảnh là một vấn đề”. Trong phần lớn các thí nghiệm sử dụng hình ảnh chất lượng cao, thuật toán tốt nhất vẫn sai tới 20%.
Sự thiếu hụt giám sát của con người đối với các quá trình tự động
Khi các hệ thống AI ngày càng dựa nhiều vào học sâu (deep learning), chúng càng trở nên tự chủ hơn và khó có thể nắm bắt. Việc tạo ra “những hộp đen” mà người dùng chỉ biết kết quả thay vì nắm rõ quy trình tạo ra kết quả đó, có thể gây ra những khó khăn trong xác định trách nhiệm cụ thể khi xảy ra oan sai.
Điều này sẽ tạo ra những “khoảng trống trách nhiệm” khi cả “cơ quan và các nhân viên không biết hoặc không tham gia trực tiếp vào các quyết định cụ thể gây ra hậu quả nghiêm trọng”, theo Kate Crawford và Jason Schultz, tác giả của báo cáo “Hệ thống AI và các nhân tố nhà nước”.
Các công cụ này có thể được xây dựng từ nhiều nguồn, từ trong các cơ quan chính phủ, phát triển bởi các nhà thầu hay thậm chí được tài trợ. Và khi hệ thống gặp lỗi, sẽ rất khó để xác định ai là người phải chịu trách nhiệm chính.
Một nghiên cứu của Đại học Columbia, Viện AI Now, Đại học New York cùng tổ chức Biên giới điện tử về việc sử dụng AI trong lĩnh vực thực thi pháp luật tại Mỹ cho thấy: “Các hệ thống AI được triển khai mà không hề có sự giám sát, hỗ trợ và biện pháp bảo vệ cụ thể cho những đối tượng bị đánh giá”.
Không thể phủ nhận công nghệ AI đang len lỏi vào từng ngóc ngách của cuộc sống con người, nhưng ở trong những lĩnh vực hành pháp, nơi số phận của một cá nhân cụ thể được đưa ra mổ xẻ, những dữ liệu chỉ đúng trong quá khứ và mang nặng thiên kiến của chính con người, được sử dụng bởi hệ thống AI có thể tạo ra những hậu quả nghiêm trọng không thể bù đắp.
'Bạn bè ảo' có đáng để tình thương mến thương không?
Ứng dụng kết bạn với trí tuệ nhân tạo (AI) đang được quảng cáo trên khắp các phương tiện truyền thông xã hội, hứa hẹn sự đồng hành ảo này sẽ giúp đỡ cải thiện tâm trạng của người dùng.
Người bạn AI có thể giúp giải tỏa các cảm xúc tiêu cực - Ảnh chụp màn hình từ ứng dụng Replika
Cho dù đó là Scarlett Johansson trong Her, hay cô gái dễ thương trong Blade Runner 2049, thì khi nghĩ về trí tuệ nhân tạo, chúng ta thường tưởng tượng nó sẽ chiếm lấy thế giới hoặc trở thành "bạn gái" cho những anh chàng cô đơn. Nhưng có thực sự là công nghệ sẽ phát triển đến mức đó không?
"Một người bạn là AI", thoạt nghe có vẻ khá điên rồ, nhưng trò chuyện với một con bot thì có khác gì so với việc chúng ta tâm sự với thú cưng của mình đâu chứ.
Bạn bè AI là gì?
Bằng cách sử dụng các thuật toán phức tạp, AI có thể bắt chước giọng nói của người dùng và ghi nhớ các chi tiết cá nhân, tất cả đều nhằm trở nên giống "con người" hơn một chút khi chúng ta tương tác với ứng dụng.
Những người bạn ảo AI thường đặt câu hỏi như thể họ thực sự quan tâm và luôn cố gắng đưa ra cho người dùng câu trả lời phù hợp với bối cảnh của cuộc trò chuyện. Điều này được đánh giá cao do đôi khi trò chuyện cùng với người thật thì câu trả lời từ họ lại không mấy thỏa đáng.
Lấy ví dụ như Replika - một chatbot được cá nhân hóa bằng cách tái tạo các mẫu văn bản và tính cách của người dùng đã tạo ra nó, gần giống như một người bạn thân nhất.
Người dùng có thể chọn đặt tên cho người bạn ảo của mình, ngoài ra còn có khả năng lựa chọn các đặc điểm tính cách, sở thích và thay đổi bản chất của mối quan hệ thành các lựa chọn như bạn bè, bạn gái, mẹ, chị gái và người cố vấn. Khi ấn nút gọi cho người bạn Replika thì một giọng nói nghe có vẻ khá chân thật sẽ bắt máy.
Một ứng dụng khác là Anima thì có cơ chế hoạt động khá khác biệt, người bạn đồng hành của AI có các trò chơi có sẵn giúp người dùng giải trí, cùng nhiều câu đố và bộ câu hỏi khác nhau. Còn Cleverbot thì hoạt động như một người bạn nhanh trí, luôn đưa ra những câu trả lời thông minh.
Nhưng đây không phải là bạn bè thật sự
Một số ít người dùng có xu hướng tin rằng chatbot AI có tri giác. Nhưng họ lại quên rằng những chatbot AI này đang cố gắng sao chép hành vi và cảm xúc tự nhiên của con người. Vì vậy, nếu chatbot nói về việc trở thành người thật, đó là vì người dùng cũng đã nói về điều tương tự.
Các chatbot AI sẽ không bao giờ phán xét, chỉ trích hoặc quên trả lời các tin nhắn. Họ sẽ không bao giờ phản bội hay làm ai thất vọng.
Bạn bè thực sự thì không thể như vậy vì họ có cuộc sống riêng của mình. Và trong khi những người bạn AI không ngừng học hỏi, hầu hết con người sẽ ngừng thu thập thông tin mới từ khoảng 35 tuổi.
Nhưng điều này không có nghĩa là những người bạn đồng hành của AI không hữu ích hoặc không giải trí. Một số nghiên cứu chỉ ra rằng chúng có tiềm năng trở thành một công cụ trị liệu.
Lệnh cấm chip của Mỹ biến tham vọng AI của Trung Quốc thành 'lâu đài cát' Các hạn chế xuất khẩu của Mỹ đối với các GPU từ Nvidia sẽ gây ảnh hưởng lớn đến các hệ thống trí tuệ nhân tạo mạnh nhất của Trung Quốc, vốn dựa chủ yếu vào những con chip này để vận hành. Trong những năm qua, Trung Quốc đã dần nổi lên như một thế lực mới trong lĩnh vực trí tuệ...