Google dừng thử nghiệm hệ thống drone chữa cháy
Google đã đề nghị Cục Hàng không liên bang Mỹ (FAA) cho phép thử nghiệm máy bay không người lái ( drone) giúp giám sát và kiểm soát hỏa hoạn, trước khi từ bỏ nỗ lực này.
Những hệ thống drone hiện tại của Alphabet chủ yếu sử dụng cho mục đích y tế và giao hàng
Theo Bloomberg, trong một hồ sơ gửi FAA, nhóm nghiên cứu khí hậu và năng lượng của công ty Alphabet (công ty mẹ của Google) cho biết họ có kế hoạch sử dụng máy bay không người lái tại một cơ sở tư nhân ở Firebaugh, California. Tuy nhiên những kế hoạch đó đã thất bại.
Người phát ngôn của Google cho biết, “hồ sơ FAA từ nhóm khí hậu và năng lượng của Google Research là một bản kiến nghị được gửi gần một năm trước cho một dự án mà chúng tôi đang xem xét khám phá vào thời điểm đó. Tuy nhiên chúng tôi không có kế hoạch ngay lập tức tham gia lại dự án này”.
FAA trước đây cũng cho phép các tổ chức khác được phép hoạt động tương tự. Máy bay không người lái mà Google dự định sử dụng nặng khoảng 25 đến 45 kg và được sản xuất bởi Homeland Surveillance & Electronics LLC. Hiện các hệ thống tương tự đang được dùng hàng loạt cho các ứng dụng nông nghiệp với khả năng chứa 20 lít chất lỏng và có thể bay trong 8 đến 15 phút.
Trong khi đó, Wing – công ty máy bay không người lái của Alphabet chủ yếu tập trung vào việc giao hàng tự động để tăng khả năng tiếp cận hàng hóa, giảm tắc nghẽn giao thông ở các thành phố và giúp giảm thiểu lượng khí thải carbon. Công ty cho biết họ đã bắt đầu làm việc trên công nghệ này vào năm 2012.
Google và đạo đức phát triển AI
Alphabet, công ty mẹ của Google, đang bị nhiều nhà khoa học cáo buộc triển khai công nghệ AI một cách thiếu trách nhiệm và bất chấp hậu quả.
Sundar Pichai, CEO của Alphabet, từng nhấn mạnh vai trò trụ cột của công nghệ AI trong quá trình định hình tương lai công ty. "Gã khổng lồ" này trong nhiều năm qua đã đánh cược lớn vào các nghiên cứu AI khi đầu tư hàng tỷ USD nhằm mang công nghệ này lên các sản phẩm của hãng nhanh nhất có thể.
Video đang HOT
Công nghệ AI của Google bị cho là có thể làm trầm trọng thành kiến về giới tính và chủng tộc.
Tuy nhiên trong hơn 18 tháng qua, công ty mẹ của Google vướng phải hàng loạt lùm xùm liên quan tới các nhà nghiên cứu có tiếng trong lĩnh vực trí tuệ nhân tạo. Mới nhất, chuyên gia AI nổi tiếng Timnit Gebru bị công ty này sa thải sau khi công bố nhiều tài liệu nghiên cứu liên quan tới cách tiếp cận công nghệ của Google. Timnit Gebru kết luận Google triển khai công nghệ AI rất nóng vội và xem nhẹ tác động môi trường gây ra trong quá trình xây dựng các cơ sở siêu máy tính.
Sau đó, CEO Pichai cam kết sẽ điều tra rõ ràng lý do Gebru bị đuổi việc và cho biết sẽ tìm cách để khôi phục lòng tin của các chuyên gia. Trong khi đó, Jeff Dean, Phó chủ tịch cấp cao Google, cho rằng nghiên cứu của cô dẫn ra một số lo ngại đã lỗi thời, quá tập trung chỉ trích những tác hại tiềm ẩn của AI mà không nhận ra các chuyên gia đang nỗ lực giải quyết vấn đề.
Dù vậy, Gebru vẫn nhận được sự ủng hộ từ nhiều đồng nghiệp trong lĩnh vực. Từ cuối tháng 12 năm ngoái, gần 2.700 nhân viên của Google ký một bức thư công khai nói sự ra đi của Gebru "báo hiệu mối đe dọa nhắm tới những người làm nghiên cứu đạo đức AI, đặc biệt là cộng đồng người da màu ở Google".
Google tuần trước cũng tuyên bố đang điều tra việc Giám đốc bộ phận đạo đức AI Margaret Mitchell bị sa thải vì các cáo buộc phát tán tài liệu nội bộ. Mitchell từng nhiều lần đăng bài trên Twitter chỉ trích CEO Pichai về cách thức xử lý các vấn đề liên quan tới đa dạng trong môi trường làm việc.
Phương pháp tiếp cận công nghệ của Google được giới chuyên gia đặc biệt quan tâm bởi hãng là một trong những tổ chức tư nhân tài trợ nhiều nhất cho các lĩnh vực nghiên cứu AI. Chính nhờ những thành quả từ các nghiên cứu này, Google đã phát triển nên vô số các sản phẩm mới từ loa thông minh tới trợ lý ảo. Tuy nhiên, vị thế thống trị của hãng trong lĩnh vực AI cũng dấy lên lo ngại xung quanh ảnh hưởng của các thuật toán máy tính tới cuộc sống con người.
Google từ lâu đã luôn coi mình là người thiết lập tiêu chuẩn cho AI có đạo đức. "Lịch sử từng chứng kiến rất nhiều ví dụ liên quan đến các ảnh hưởng tiêu cực khi công nghệ bị sử dụng sai mục đích. Trong khi AI hứa hẹn mang lại những lợi ích to lớn cho châu Âu và thế giới, chúng ta vẫn nên xem xét thật kỹ càng về những hậu quả tiềm tàng nó có thể gây ra", Pichai từng phát biểu tại một hội nghị tổ chức ở Brussels, Bỉ.
Vấn đề của DeepMind
Ngoài những thách thức trong nội bộ, các công ty do hãng này thâu tóm cũng gặp phải vấn đề tương tự. Theo một báo cáo vừa được công bố, Mustafa Suleyman, người đồng sáng lập DeepMind, đã bị tước bỏ hầu hết các quyền quản lý vào cuối năm 2019 sau khi Google nhận được nhiều đơn khiếu nại, cáo buộc rằng ông có hành vi bắt nạt nhân viên.
DeepMind, được Google mua lại vào năm 2014, trước đó đã thuê một công ty luật bên ngoài nhằm tiến hành điều tra độc lập các khiếu nại. Vào cuối năm 2019, Suleyman đã được chuyển sang một vai trò điều hành khác trong nhóm AI tại Google.
DeepMind và Google, trong một tuyên bố chung, xác nhận về cuộc điều tra liên quan tới hành vi của Suleyman, tuy nhiên từ chối cho biết họ đã tìm thấy gì. Tuyên bố chỉ nêu, từ kết quả của cuộc điều tra, ông Suleyman sẽ phải "trải qua quá trình đào tạo lại chuyên môn để giải quyết vấn đề quan tâm. Ông có thể tiếp tục làm việc nhưng không được quản lý các đội lớn". DeepMind cho biết với vai trò là phó chủ tịch phụ trách chính sách trí tuệ nhân tạo, "Suleyman đã đóng góp có giá trị về chính sách và quy định AI".
Trả lời câu hỏi của Wall Street Journal , Suleyman cho biết: "Tôi chấp nhận kết quả của cuộc điều tra. Với tư cách là đồng sáng lập tại DeepMind, tôi đã thúc ép mọi người quá gắt gao và đôi khi phong cách quản lý của tôi không mang tính xây dựng. Tôi thành thật xin lỗi những người bị ảnh hưởng".
Khác với mục đích sử dụng AI để tìm kiếm của Google, DeepMind tập trung chủ yếu vào lợi ích của AI trong các vấn đề sức khỏe, chẳng hạn thu thập dữ liệu bệnh nhân nhằm tìm ra những cách điều trị bệnh mới. Theo báo cáo tài chính năm 2019, DeepMind lỗ 649 triệu USD, tuy nhiên, cũng nhận được hơn 1 tỷ USD từ Google trong cùng thời gian.
Với khoản đầu tư lớn như vậy, Google phải có một hội đồng đánh giá độc lập DeepMind nhằm giám sát các dự án trí tuệ nhân tạo của công ty này. Tuy nhiên, đến cuối năm 2018, hội đồng này bị giải tán sau khi các thành viên phàn nàn rằng họ không được tiếp cận đầy đủ các kế hoạch chiến lược và nghiên cứu của DeepMind.
Vài tháng sau, một hội đồng đạo đức AI do Google thành lập cũng bị giải tán, sau khi xuất hiện hàng loạt kiến nghị và phản đối của nhân viên về các thành viên trong hội đồng.
Nghiên cứu AI có nhiều "cạm bẫy"
Kể từ năm 2017, phòng nghiên cứu AI đã trở thành một bộ phận độc lập với Google và điều hành bởi Jeff Dean. Khi công bố thông báo tái cấu trúc này, ông Pichai cho biết AI sẽ là trọng tâm chiến lược của công ty, với máy học được áp dụng trong mọi sản phẩm sắp tới.
Pedro Domingos, giáo sư ngành khoa học máy tính của Đại học Washington, cho biết Google đã nhận thức được rất nhiều cạm bẫy liên quan đến AI. Chủ tịch hội đồng quản trị Alphabet, John Hennessy, từng công khai bày tỏ mối lo ngại khi gã khổng lồ tìm kiếm tăng cường đẩy mạnh đầu tư cho lĩnh vực này.
Ông Hennessy nói: "Nếu có bất cứ điều gì sai trái với AI, ngay cả khi nó ở các công ty khác, Google vẫn phải chịu trách nhiệm. Chúng ta chỉ cần sơ sẩy một chút là có thể biến mọi thứ thành thảm họa".
John Hennessy từng cảnh báo những hậu quả tiềm ẩn của AI. Ảnh: CNBC .
Sai lầm đầu tiên xảy đến vào năm 2015, khi một số người dùng gốc Phi phát hiện ra công nghệ trí tuệ nhân tạo trong phần mềm chụp ảnh của Google đã tự động gắn nhãn ảnh họ là "khỉ đột" dựa trên màu da.
Google đã xin lỗi và khắc phục sự cố, đồng thời cam kết sẽ xây dựng các biện pháp bảo vệ nội bộ nhằm đảm bảo phần mềm của họ được lập trình một cách có đạo đức.
Giáo sư Domingos cho biết hầu hết các vấn đề liên quan tới AI của Google đều bắt nguồn từ cách tiếp cận của công ty đối với cách quản lý nhân viên, đồng thời khẳng định khoa học chứ không phải hệ tư tưởng nên dẫn dắt các cuộc tranh luận về đạo đức.
Ông nói: "Google là một công ty siêu chiều chuộng nhân viên. Các chuyên gia ở đây được tự do tới mức họ cảm thấy được quyền đưa ra ngày càng nhiều yêu cầu hơn về cách tiếp cận AI".
Tuy nhiên, theo Reuters , nguồn tin nội bộ cho biết Google đang bắt đầu thắt chặt kiểm duyệt những bài nghiên cứu của nhân viên. Chính sách mới của Google yêu cầu nhân viên tiếp cận các vấn đề AI chủng tộc, giới tính và chính trị theo hướng tích cực.
Google công bố sáng kiến giúp vắc-xin Covid-19 dễ tiếp cận hơn Vắc-xin sẽ đóng một vai trò quan trọng trong cuộc chiến chống lại Covid-19, vì vậy Google đã công bố một loạt sáng kiến mới mà họ đang thực hiện để làm cho vắc-xin dễ tiếp cận hơn. Google tiếp tục thực hiện nỗ lực của mình trong việc chống lại đại dịch Covid-19 Theo Neowin , đầu tiên, Google sẽ cung cấp...