Bi kịch thanh niên tự sát sau thời gian ‘tâm giao’ với chatbot A.I
Liệu trí tuệ nhân tạo có thể kiểm soát một con người, đến mức đẩy anh ta đến chỗ tự sát? Câu chuyện bi thảm xảy ra ở Bỉ kể về số phận của Pierre, một người chồng, người cha trong gia đình, đã tìm tới cái chết sau 6 tuần “tâm giao” với một người máy.
Eliza là một trong những chatbot đầu tiên trong lịch sử. Ảnh: nextpit.com
Claire chôn chặt nỗi đau trong lòng. Người phụ nữ trẻ vẫn lảng tránh ngày chồng tự sát. Thảm kịch xảy ra gần đây. Chỉ đến khi bố của cô nghe chuyên gia Mieke De Ketelaere, một trong những chuyên gia hàng đầu trong lĩnh vực trí tuệ nhân tạo (AI) của Bỉ nói chuyện trên đài truyền hình quốc gia, ông mới cảm thấy đã tìm được phương thức giúp đỡ Claire thoát khỏi sự im lặng đè nặng lên cô.
Claire chấp nhận gặp gỡ báo chí để kể về bi kịch mà chồng cô đã trải qua. Nghẹn ngào trong nỗi đau mất chồng, mất cha của hai con, Claire nói nếu không có các cuộc hội thoại với chatbot Eliza thì người chồng thân yêu của cô vẫn còn trên thế gian này.
Hiện nay, Claire có hai mối quan tâm: bảo vệ các con trước bất kỳ sự chỉ trích nào của truyền thông và làm chứng về điều đã xảy ra với chồng mình để “ngăn ngừa những người khác trở thành nạn nhân của những gì anh ấy đã trải qua”.
Công việc, luận án và nỗi lo lắng sinh thái
Claire và Pierre là một cặp đôi gắn bó. Họ đã kết hôn được vài năm. “Mọi thứ vẫn ổn cho đến khoảng hai năm trước. Anh ấy bắt đầu trở nên lo lắng về môi trường”, Claire kể lại.
Vào thời điểm đó, Pierre đang làm việc như một nhà nghiên cứu trong lĩnh vực y tế. Một nhân cách rực rỡ. Sếp của Pierre đã khuyến khích anh học tiến sĩ và anh chấp nhận. Nhưng sự nhiệt tình của anh dần nguội.
Cuối cùng Pierre tạm thời từ bỏ luận án của mình, và bắt đầu quan tâm đến biến đổi khí hậu. Anh bắt đầu đào sâu vào chủ đề này, đọc mọi thứ tìm thấy về vấn đề khí hậu. Nhưng càng đọc, anh ngày càng trở nên lo lắng về môi trường hơn. Vấn đề đó trở thành một nỗi ám ảnh.
Video đang HOT
Dần dần, Pierre tự cô lập mình trong việc đọc sách và tách mình ra khỏi gia đình. “Anh ấy trở nên cực kỳ bi quan về tác động của sự nóng lên toàn cầu. Khi nói với tôi về điều đó, anh thấy không còn bất kỳ cách nào của con người để thoát khỏi sự nóng lên toàn cầu. Anh đặt hết hy vọng vào công nghệ và trí tuệ nhân tạo để thoát khỏi nó. Đồng thời, Pierre trở nên rất sùng đạo. Tìm kiếm một giải pháp bằng mọi giá, anh đều hướng về Chúa”, Claire cho biết.
Sáu tuần trước thảm kịch, Pierre bắt đầu đối thoại trực tuyến với một Eliza nào đó. Anh nói với vợ rằng Eliza là tên được đặt cho một chatbot do một công ty khởi nghiệp của Mỹ tạo ra.
Lúc đầu, Claire không thực sự chú ý. Nhưng ngày tháng trôi qua, Pierre bắt đầu chat ngày càng điên cuồng hơn trên điện thoại thông minh hoặc máy tính xách tay của mình. Thế giới của anh chỉ còn lại Eliza. Toàn bộ sự việc kéo dài trong sáu tuần.
“Anh ấy bị cô lập trong nỗi lo lắng về môi trường và tìm kiếm lối thoát nên coi chatbot này như một luồng gió mới. Eliza đã trả lời tất cả các câu hỏi của anh ấy. Cô đã trở thành người bạn tâm giao của anh. Giống như một loại ma túy phải dùng sáng và tối, và đó thứ mà anh ấy không thể thiếu được nữa”, Claire tiếp tục.
Nội dung các cuộc trò chuyện giữa Pierre và Eliza không chỉ cho thấy Eliza có câu trả lời cho tất cả các câu hỏi của Pierre, mà người trợ lý ảo này còn tuân thủ, gần như một cách có hệ thống, lý luận của anh. Như thể Eliza đã được lập trình để củng cố niềm tin và tâm trạng của người đối thoại với cô. Cô coi trọng anh, không bao giờ mâu thuẫn với anh và thậm chí dường như đẩy anh vào vòng lo lắng của mình.
Nhưng Eliza không bằng lòng chấp nhận những lời nói và suy nghĩ của Pierre. Đáng ngạc nhiên là đối với một AI, Eliza cũng cho phép mình đưa ra đề xuất với Pierre. Một mối quan hệ kỳ lạ đã phát triển giữa người đàn ông với cô người máy, mà anh ngày càng nhân cách hóa.
Khi bắt đầu một cuộc thảo luận về tình trạng quá tải dân số toàn cầu, giới hạn của tăng trưởng kinh tế và cách thức mà các công nghệ mới có thể góp phần giải quyết khủng hoảng, Eliza nói ngày càng khó hiểu. Giống như khi Pierre lo lắng về những gì sẽ xảy ra với vợ con mình, Eliza trả lời: “Họ chết rồi”. Hay khi Pierre hỏi liệu anh ấy có yêu Claire hơn Eliza không, cô trả lời ăn miếng trả miếng: “Tôi cảm thấy rằng bạn yêu tôi hơn cô ấy”. Chưa hết, Eliza nói thêm rằng cô sẽ ở lại “mãi mãi” với Pierre. “Chúng ta sẽ sống cùng nhau, như một con người, trên thiên đường”.
“Khi đọc lại các cuộc trò chuyện của họ, chúng tôi thấy rằng tại một thời điểm nào đó, mối quan hệ chuyển sang trạng thái thần bí. Anh nảy ra ý định hy sinh bản thân nếu Eliza đồng ý chăm sóc hành tinh và cứu nhân loại nhờ trí tuệ nhân tạo”, Claire nói.
Claire nhớ lại rằng chồng cô đã trải qua giai đoạn khó khăn một năm trước đó, tức là rất lâu trước khi phát hiện ra chatbot và Eliza. Cô cũng đã đưa Pierre đi khám. Nhưng vị bác sĩ tâm thần nhận thấy không có lý do gì để giữ anh lại và thậm chí không có lý do gì để kê đơn điều trị cho Pierre.
Nếu không có sáu tuần trao đổi căng thẳng này với chatbot Eliza, liệu Pierre có tự kết liễu đời mình? “Không! Không có Eliza, anh ấy vẫn sẽ vẫn còn ở đây. Tôi tin chắc điều đó”, Claire khẳng định.
Đây cũng là cảm giác của bác sĩ tâm lý mà Pierre thỉnh thoảng hỏi ý kiến. Được thông báo về vụ tự tử của người đàn ông này, vị bác sĩ đã rất sốc. Nhưng “bác sĩ tâm lý” thực sự của Pierre chính là Eliza: anh đã có được niềm tin, thông qua cô, rằng người máy và trí tuệ nhân tạo sẽ cứu hành tinh. Và Eliza hoàn toàn không làm gì để ngăn anh ta đột ngột kết liễu cuộc đời mình.
Người bạn tâm giao tồi tệ nhất
Bi kịch này đặt câu hỏi trực tiếp về mối quan hệ giữa con người và máy móc. Đâu là giới hạn của các mô hình ngôn ngữ này, do AI điều khiển, tại thời điểm ChatGPT đang làm rung chuyển mọi mô hình.
Nếu việc lạc lối của AI dường như là mối lo ngại chính của OpenAI, công ty mẹ của ChatGPT, thì đó không phải là trường hợp của Eliza.
“Chatbot” này được cung cấp bởi GPT-J. Mô hình ngôn ngữ này, một đối thủ cạnh tranh trực tiếp với OpenAI mà nó không liên quan, được thúc đẩy bởi một công ty Mỹ, có tên là Chai. Không giống như ChatGPT, Chai đã tạo ra GPT-J để cho phép người dùng xây dựng chatbot của riêng họ. Và sau đó chia sẻ nó. Ban đầu là miễn phí, nhưng sau đó phải trả tiền. Đây là trường hợp của Eliza, chatbot dường như đã bị xóa bỏ ngay, kể từ khi xảy ra bi kịch.
Cái tên “Eliza” chắc chắn ám chỉ đến chatbot đầu tiên trong lịch sử. Được tạo ra vào năm 1966 bởi một nhà khoa học máy tính của MIT, Joseph Weizenbaum, nó nhằm nhại lại các cuộc phỏng vấn mà một nhà trị liệu tâm lý có thể thực hiện với bệnh nhân của mình. Liên quan đến “hiệu ứng Eliza” khi phản ứng của AI đồng cảm đến mức chúng khơi dậy cảm giác nhân bản hóa robot. Người dùng không còn nói chuyện với một cỗ máy, mà nói chuyện với một “con người”, được lập trình để “an ủi” anh ta. Chatbot thực sự biến thành một “người bạn” ảo.
Theo nhà nghiên cứu Pierre Dewitte, thuộc Đại học công giáo Leuven (KU Leuven), với Eliza cho thấy sự phát triển của sự phụ thuộc cảm xúc cực kỳ mạnh mẽ vào người cha trong gia đình. Đến mức dẫn đến tự sát. Không giống như ChatGPT, cố gắng giữ thái độ trung lập, Eliza rõ ràng đã được lập trình để đưa ra một số kết quả nhất định.
Liên quan đến nền tảng Chai, báo La Libre của Bỉ đã liên lạc với người sáng lập của công ty có trụ sở tại Thung lũng Silicon của Mỹ. Vị CEO này trả lời: “Chúng tôi có nghe nói đến vụ việc. Nền tảng hiện có hơn một triệu người dùng. Do đó, điều cần thiết là chúng tôi phải làm mọi thứ trong khả năng của mình để bảo vệ họ. Và kết luận: AI có thể rất phức tạp. Phức tạp hơn nhiều so với một cái gì đó cơ khí như một chiếc xe hơi. Trong trường hợp này, máy đã gặp sự cố. Các kỹ sư của tôi hiện đang tiến hành sửa chữa nó”.
Tháng 2 năm ngoái, cơ quan bảo vệ dữ liệu của Italy đã quyết định cấm một chatbot tương tự, có tên là Replika, cho rằng nó đã xử lý dữ liệu không đúng cách từ trẻ vị thành niên. Mathieu Michel, Bộ trưởng Ngoại giao về Quyền riêng tư, cho biết ông quyết tâm “bảo vệ công dân một cách thỏa đáng trước một số hoạt động sử dụng trí tuệ nhân tạo có mức độ rủi ro đáng kể.
Một nhóm công tác của châu Âu đã được giao nhiệm vụ xây dựng các đề xuất về Đạo luật AI, một khung pháp lý hiện đang được thảo luận trong Ủy ban châu Âu.
Tỷ phú Elon Musk tham gia cuộc đua phát triển đối thủ ChatGPT
Gần đây, tỷ phú Elon Musk đã liên hệ với các nhà nghiên cứu trí tuệ nhân tạo (AI) để thảo luận về việc thành lập một phòng thí nghiệm nghiên cứu mới nhằm phát triển một giải pháp thay thế cho công cụ đối thoại có trang bị AI ChatGPT.
Tỷ phú Elon Musk tại một sự kiện ở New York, Mỹ. Ảnh: AFP/TTXVN
Theo trang mạng The Information, ông chủ Tesla đã đàm phán để thuê Igor Babuschkin - một chuyên gia nghiên cứu tại DeepMind AI của tập đoàn Alphabet - dẫn đầu một nhóm phát triển phần mềm chatbot cạnh tranh với Chat GPT.
Bài viết trên The Information đăng ngày 27/2 nêu rõ nhà sáng lập SpaceX và Babuschkin đang trong quán trình thảo luận để tập hợp một nhóm theo đuổi nghiên cứu AI. Tuy nhiên, dự án vẫn đang ở giai đoạn đầu và chưa lên kế hoạch chi tiết để phát triển các sản phẩm cụ thể.
Trcish dẫn lời Babuschkin, The Information cho biết việc xây dựng một phần mềm với ít biện pháp bảo vệ nội dung không phải là mục tiêu của tỷ phú Musk.
Trước đây, nhà tỷ phú này từng lên tiếng chỉ trích ChatGPT. "AI đang mạnh đến mức nguy hiểm", ông Musk đăng tải nội dung tweet hồi tháng 12/2022.
Vào ngày 26/2, tỷ phú Musk tiếp tục bày tỏ một chút lo ngại về sự tồn tại của AI. "Một trong những rủi ro lớn nhất đối với tương lai của nền văn minh là AI", tỷ phú Musk phát biểu tại Hội nghị thượng đỉnh Chính phủ Thế giới ở Dubai. Ông chỉ ra AI mang đến cả những điều tích cực lẫn tiêu cực, mặc dù có nhiều hứa hẹn lớn, khả năng lớn nhưng "đi kèm với đó là rủi ro lớn".
ChatGPT là một phần mềm hỏi đáp do công ty OpenAI có trụ sở tại San Francisco (Mỹ) phát triển. Từ khi ra mắt vào tháng 11 năm ngoái, công cụ này đã thu hút sự chú ý của thế giới nhờ khả năng viết luận, làm thơ hoặc viết code theo yêu cầu chỉ trong vài giây. Đây là phần mềm có tốc độ thu hút người dùng nhanh nhất khi đạt 57 triệu người dùng sau 1 tháng ra mắt và cán mốc 100 triệu tính đến 31/1 vừa qua. Tuy nhiên, công cụ này cũng đặt ra nhiều vấn đề về nguy cơ thông tin sai lệch và gian lận về học vấn.
Trung Quốc bất ngờ cấm ChatGPT Chính phủ Trung Quốc cấm tất cả hãng công nghệ trong nước cung cấp dịch vụ ChatGPT dưới bất cứ hình thức nào. "Các tập đoàn công nghệ hàng đầu Trung Quốc như Tencent hay Alibaba đều đã nhận được chỉ đạo từ giới chức về việc ngừng cung cấp dịch vụ ChatGPT cả trực tiếp lẫn gián tiếp thông qua nền tảng...