EU, Mỹ đi đầu thế giới về định hình luật quản lý trí tuệ nhân tạo (AI)
Lường trước được các vấn đề phát sinh liên quan đến trí tuệ nhân tạo (AI), châu Âu và Mỹ đã chủ động nghiên cứu, xây dựng các luật để quản lý lĩnh vực này từ sớm.
Mới đây nhất, ngày 13/3, Nghị viện châu Âu đã thông qua lần cuối luật quản lý AI. Cùng lúc, Mỹ đã trình dự thảo đầu tiên về AI ra Liên hợp quốc.
Châu Âu thông qua luật đầu tiên về AI
Toàn cảnh phiên họp toàn thể của Nghị viện châu Âu ở Strasbourg, Pháp ngày 13/3. Ảnh: AFP/TTXVN
Năm năm sau khi lần đầu tiên đề xuất, các nhà lập pháp tại Nghị viện châu Âu đã bỏ phiếu thông qua Đạo luật Trí tuệ Nhân tạo. Đạo luật này sẽ đóng vai trò là hướng dẫn toàn cầu cho các quốc gia khác đang gặp khó khăn trong quản lý AI – loại công nghệ đang phát triển nhanh chóng mà chương trình ChatGPT của công ty OpenAI là một ví dụ điển hình.
Cụ thể, tại phiên họp toàn thể diễn ra tại Strasbourg (Pháp), 523 nghị sĩ châu Âu đã bỏ phiếu thông qua Đạo luật AI, trong khi có 46 nghị sĩ bỏ phiếu chống.
Văn bản này cần được cơ quan lập pháp của 27 quốc gia thành viên EU thông qua vào tháng 4 tới rồi mới được công bố trên Công báo chính thức EU vào tháng 5 hoặc tháng 6.
Phát biểu trước các nghị sĩ, nghị sĩ Italy Brando Benifei nhấn mạnh đây là dấu mốc lịch sử trên con đường dài phê chuẩn các quy định về AI. Ông nhận định đây là quy định đầu tiên trên thế giới vạch ra lộ trình rõ ràng hướng tới phát triển AI an toàn và lấy con người làm trung tâm.
Ủy viên phụ trách vấn đề công nghiệp của EU, ông Thierry Breton, hoan nghênh Nghị viện châu Âu ủng hộ mạnh mẽ Đạo luật AI. Ông nhấn mạnh châu Âu hiện là nơi đặt ra tiêu chuẩn toàn cầu về AI đáng tin cậy.
Theo Đạo luật AI mà Nghị viện châu Âu vừa thông qua, có các bộ tiêu chí phân loại các hệ thống AI dựa trên mức độ rủi ro mà chúng có thể gây ra cho người dùng, gồm các cấp độ: rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế, rủi ro thấp.
Ứng dụng AI càng rủi ro thì càng bị giám sát nhiều hơn. Hiện nay, phần lớn các hệ thống AI đều có rủi ro thấp, ví dụ như hệ thống đề xuất nội dung hay bộ lọc thư rác. Các hệ thống rủi ro cao như các thiết bị y tế hoặc mạng lưới điện – nước được tích hợp AI sẽ bị quản lý chặt hơn. Một số cách dùng AI bị cấm vì có thể gây ra rủi ro không chấp nhận được, ví dụ như dùng AI để xây dựng hệ thống nhận biết cảm xúc ở trường học hoặc nơi làm việc, cảnh sát dùng AI trong hệ thống quét khuôn mặt ở nơi công cộng…
Các công ty có thể chọn tuân theo các yêu cầu tự nguyện và quy tắc ứng xử. Còn những trường hợp không tuân thủ các quy định bắt buộc có thể bị phạt tới 35 triệu euro hoặc 7% doanh thu toàn cầu, tùy thuộc hành vi vi phạm và quy mô của các công ty. Nghị viện châu Âu cũng đã đề xuất thành lập Văn phòng AI. Đây là một cơ quan mới của EU để hỗ trợ áp dụng hài hòa Đạo luật AI, hướng dẫn và điều phối các cuộc điều tra chung xuyên biên giới.
Các quy định liên quan đến các mô hình AI như ChatGPT sẽ có hiệu lực sau 12 tháng từ khi đạo luật chính thức được ban hành. Sau đó, các công ty phải tuân thủ hầu hết các quy định khác sau 2 năm.
Hồi đầu tháng 2 vừa qua, các nước thành viên EU đã thông qua dự luật AI trên sau khi nhất trí về thỏa thuận chính trị vào tháng 12/2023.
Biểu tượng Tập đoàn công nghệ Mỹ OpenAI. Ảnh: AFP/TTXVN
Các dự thảo ban đầu của Đạo luật AI nói trên tập trung vào các hệ thống AI thực hiện các nhiệm vụ hạn chế trong phạm vi hẹp, như quét sơ yếu lý lịch và đơn xin việc. Sau đó, khi các mô hình AI liên tục xuất hiện, nhất là ChatGPT của OpenAI, đã khiến các nhà hoạch định chính sách EU phải nỗ lực theo kịp.
Họ đã bổ sung các điều khoản cho mô hình AI tạo sinh – công nghệ nền tảng của các hệ thống chatbot AI có thể tạo ra các phản hồi, hình ảnh độc đáo và sống động như thật.
Các nhà phát triển mô hình AI nói chung, từ các công ty khởi nghiệp châu Âu đến OpenAI và Google, sẽ phải cung cấp bản tóm tắt chi tiết về văn bản, hình ảnh, video và dữ liệu khác trên internet mà họ sử dụng để đào tạo hệ thống AI cũng như phải tuân theo luật bản quyền của EU. Hình ảnh, video hoặc âm thanh do AI tạo ra về người, địa điểm hoặc sự kiện phải có nhãn thông báo.
Mỹ trình dự thảo đầu tiên về AI ra Liên hợp quốc
Tổng thống Joe Biden ký ban hành sắc lệnh về trí tuệ nhân tạo ở Washington, D.C., Mỹ, ngày 30/10/2023. Ảnh: AFP/TTXVN
Bản dự thảo do Mỹ trình lên Đại hội đồng Liên hợp quốc hướng đến thu hẹp khoảng cách số giữa các nước, bảo đảm tất cả các bên đều có vị thế bình đẳng trong thảo luận về AI cũng như có được công nghệ và tiềm lực để tận dụng lợi ích mà AI đem lại, trong đó có khám chữa bệnh, dự báo lũ lụt và huấn luyện nhân công lao động thế hệ mới.
Trao đổi với hãng tin AP ngày 12/3, Cố vấn An ninh Quốc gia Jake Sullivan cho biết Mỹ hướng đến Đại hội đồng Liên hợp quốc là vì muốn có một bước thảo luận thực chất tầm toàn cầu về cách thức quản lý tác động của công nghệ AI vốn đang biến đổi rất nhanh.
Dự thảo nghị quyết sẽ cho thấy toàn cầu ủng hộ bộ nguyên tắc cơ bản về phát triển và sử dụng AI, đưa ra con đường để phát huy tác dụng tích cực của các hệ thống AI đồng thời quản trị nguy cơ từ AI.
Theo ông Jake Sullivan, nếu được thông qua, nghị quyết sẽ là bước tiến lịch sử nhằm phát triển AI an toàn, an ninh và tin cậy trên toàn thế giới.
Mỹ bắt đầu khởi động đàm phán với 193 quốc gia thành viên Liên hợp quốc từ ba tháng trước đây, với hàng trăm giờ đàm phán riêng và trực tiếp với các nước, nhận được phản hồi, đóng góp từ 120 nước. Dự thảo đã được chỉnh sửa nhiều lần và nhận ủng hộ đồng thuận của tất cả các nước thành viên trong tuần này. Dự thảo sẽ sớm được xem xét thông qua vào cuối tháng 3.
Khác với Nghị quyết của Hội đồng bảo an, Nghị quyết Đại hội đồng Liên hợp quốc không có tính ràng buộc pháp lý, nhưng là một thông số quan trọng thể hiện quan điểm của thế giới.
Các quốc gia khác nối gót
EU lần đầu tiên đề xuất các quy định về AI vào năm 2019, thể hiện vai trò đi đầu toàn cầu trong tăng cường giám sát các ngành mới nổi, trong khi các chính phủ khác đang cố gắng theo kịp.
Tại Mỹ, các nhà lập pháp ở ít nhất 7 bang cũng đang nghiên cứu luật AI riêng trong bối cảnh ngày 30/10/2023, Tổng thống Mỹ Joe Biden đã ban hành sắc lệnh hành pháp nhằm giảm thiểu những rủi ro mà AI có thể gây ra, thiết lập các tiêu chuẩn mới về an toàn và bảo mật, bảo vệ quyền riêng tư của người dùng, thúc đẩy đổi mới và cạnh tranh trong lĩnh vực AI.
Chủ tịch Trung Quốc Tập Cận Bình đã đề xuất Sáng kiến Quản trị AI Toàn cầu để sử dụng AI một cách công bằng và an toàn. Các nhà chức trách ở nước này đã ban hành các biện pháp tạm thời để quản lý AI tạo sinh, áp dụng cho văn bản, hình ảnh, âm thanh, video và các nội dung khác được tạo ra cho người dân ở Trung Quốc.
Các quốc gia khác, từ Brazil đến Nhật Bản, cũng như các tổ chức toàn cầu như Liên hợp quốc và G7, đang tiến hành xây dựng các khung liên quan AI.
Tỉ phú Elon Musk chuẩn bị công bố chatbot 'đấu' với ChatGPT
Quyết định trên được đưa ra chỉ vài ngày sau khi tỉ phú người Mỹ kiện OpenAI, công ty phát triển chatbot ChatGPT.
Tỉ phú Mỹ Elon Musk hôm nay 11.3 cho biết trong tuần này, công ty khởi nghiệp trí tuệ nhân tạo (AI) xAI do ông sáng lập sẽ công bố mã nguồn mở cho chatbot Grok. Đây được xem là đối thủ hàng đầu của ChatGPT, chatbot do công ty OpenAI (Mỹ) phát triển.
"Tuần này, xAI sẽ mở mã nguồn cho chatbot Grok", ông Musk viết trong một bài đăng trên mạng xã hội X.
Quyết định trên được đưa ra chỉ vài ngày sau khi ông Musk kiện OpenAI vì đã từ bỏ sứ mệnh ban đầu để chuyển sang mô hình vì lợi nhuận. Vào năm 2015, ông Musk là đồng sáng lập của OpenAI, song ông đã rời đi 3 năm sau đó, theo Reuters.
Ông Musk đồng sáng lập OpenAI vào năm 2015. Ảnh REUTERS
Đáp lại, OpenAI đã công khai các email cho thấy ông Musk ủng hộ kế hoạch thành lập một tổ chức vì lợi nhuận và muốn sáp nhập với nhà sản xuất xe điện Tesla của ông.
Tỉ phú này cũng nhiều lần cảnh báo việc các công ty công nghệ lớn như Google (Mỹ) sử dụng công nghệ để thu lợi.
Quyết định công bố Grok có thể cung cấp cho công chúng quyền truy cập miễn phí để thử nghiệm mã nguồn này.
Các công ty như Meta (Mỹ) và Mistral (Pháp) cũng có mô hình AI nguồn mở. Ngoài ra, Google đã phát hành một mô hình AI có tên Gemma mà các nhà phát triển bên ngoài có thể thiết kế theo nhu cầu của họ.
OpenAI được định giá ở mức 80 tỉ USD
Trong khi công nghệ nguồn mở có thể giúp tăng tốc độ chuyển đổi, một số chuyên gia đã cảnh báo rằng các mô hình AI nguồn mở có thể bị khủng bố sử dụng để tạo ra vũ khí hóa học hoặc thậm chí phát triển siêu trí tuệ có ý thức ngoài tầm kiểm soát của con người.
OpenAI công bố tính năng mới của ChatGPT Công ty OpenAI - nhà phát triển công cụ trò chuyện (chatbot) ChatGPT - đã bổ sung tính năng thoại và nhận diện hình ảnh cho nền tảng trí tuệ nhân tạo tạo sinh (generative AI). Thông báo ngày 25/9 của OpenAI nêu rõ những tính năng trên sẽ được bổ sung vào các phiên bản trả phí của dịch vụ ChatGPT, theo...