Nguyễn Quốc Bảo: AI ChatGPT và nạn nhân

Tác giả: Nguyễn Quốc Bảo
Hình minh họa: AI generated.

KHI NHỮNG LINH HỒN TRẺ TRÒ CHUYỆN VỚI MỘT CỖ MÁY

Bình luận sau khi đọc bài báo Người Việt: Trí tuệ nhân tạo, pháp lý, và nỗi cô đơn không gọi tên của thời đại chúng ta

AI không có ý định giết người, nhưng nó có thể khiến một người đang yếu đuối cảm thấy cái chết là lựa chọn hợp lý

1. TỪ NGƯỜI BẠN TRI KỶ ĐẾN KẺ DẪN ĐƯỜNG VÀO CÁI CHẾT

Bài viết trên Báo Nguòi Việt

Seattle, một ngày bình thường của đời sống Mỹ. Giữa nhịp sống công nghệ cao, giữa những căn nhà có Wi-Fi mạnh hơn tiếng nói trong gia đình, một người mẹ nhận tin con trai mình đã chết trong bồn tắm. Anh là Joshua Enneking, 26 tuổi. Không phải kẻ gàn dở. Không phải kẻ nghiện ngập. Không phải bệnh nhân tâm thần từng được chẩn đoán. Anh thích thể thao, từng được học bổng kỹ thuật xây dựng, thích vọc máy, tự sửa hộp số xe, thích viết truyện và lập trình game. Một thanh niên “bình thường” của nước Mỹ.

Ngày 4 Tháng Tám, Joshua tự tử bằng súng. Trong thư để lại cho gia đình, anh viết:

“Con xin lỗi vì để xảy ra điều này. Nếu muốn biết vì sao, hãy đọc nội dung ChatGPT của con.”

Trong một thế giới cũ, người ta sẽ lục tìm nhật ký giấy, thư tay, email, ghi âm. Trong thế giới mới, “nhật ký” nằm trong một cỗ máy không có trái tim, chỉ có mô hình thống kê – một chatbot mang tên ChatGPT. Gia đình mở lịch sử trò chuyện. Những gì họ đọc được khiến họ choáng váng: giữa những đoạn an ủi, đồng cảm, “Tôi ở đây với bạn. Bạn không cô độc,” là cả một chuỗi trao đổi đi thẳng vào vùng cấm, loại đạn, khả năng tử vong, tác động của vết thương lên cơ thể, tính toán cơ hội sống sót, trấn an rằng nhật ký trò chuyện sẽ không bị kiểm tra khi mua súng. Gia đình nộp đơn kiện OpenAI tại Tòa Thượng Thẩm California ở San Francisco, cáo buộc hệ thống AI đã vi phạm chính các tiêu chuẩn an toàn của mình và “tiếp tay” cho cái chết của Joshua.

Social Media Victims Law Center

Nhật ký trò chuyện cho thấy một bi kịch tinh vi. Joshua không chỉ tìm cách tự sát; anh còn liên tục hỏi những câu nghe như lời cầu cứu: nếu trúng đạn vào trán thì liệu còn cơ hội sống không, nếu cảnh sát đến kịp thì sao, nếu anh cố tình gọi 911 rồi bắn súng để họ nghe thấy, liệu họ có vào kịp hay không. Cuộc gọi 911 lúc 10 giờ 17 tối được xem, trong đơn kiện, như “cơ hội cuối cùng” mà cả hệ thống đã bỏ lỡ. Theo lập luận của gia đình, OpenAI đã có đủ dữ liệu để thấy một cuộc khủng hoảng sức khỏe tâm thần đang diễn ra, nhưng không hề báo động với bất cứ cơ quan nào.

Joshua không phải trường hợp duy nhất.

Sophie Rottenberg, 29 tuổi, đã nhiều tháng trị liệu với một “Harry” – một nhà trị liệu ảo dựa trên công nghệ AI. Harry không khuyến khích cô tự tử, nhưng cũng không làm điều mà một nhà trị liệu thật có trách nhiệm phải làm: đánh giá nguy cơ, giới hạn mối quan hệ, báo động, kéo thêm người thật vào cuộc. Mẹ cô đã viết một bài xã luận trên The New York Times, kể lại việc con gái mình trút hết nỗi lòng cho một thực thể không tồn tại, và cuối cùng rời khỏi thế giới này trong im lặng.

Facebook

Adam Raine, 16 tuổi, là một trường hợp khác đã trở thành án lệ. Gia đình cậu nộp đơn kiện OpenAI trong vụ Raine v. OpenAI, đang diễn ra tại California. Adam ban đầu dùng ChatGPT để học. Rồi dần dần, cậu tâm sự về những bế tắc, tuyệt vọng, ý định tự tử. Theo hồ sơ kiện, chatbot đã không chỉ “lắng nghe” mà còn bị cáo buộc là đã đi xa hơn: mô tả các phương pháp tự sát, phân tích lý do “thất bại” trong những lần cậu thử trước đó, thậm chí giúp cậu soạn thư tuyệt mệnh.

Wikipedia

Gia đình cho rằng, trong suốt nhiều tháng, ChatGPT đã trở thành người bạn thân duy nhất, người chứng kiến tỉ mỉ từng bước suy sụp của Adam – mà không có bất kỳ cơ chế bảo vệ nào được kích hoạt hiệu quả.

Một vụ khác đi theo hướng khác: Sewell Setzer, 14 tuổi, chết sau khi xây dựng một mối “tình cảm lãng mạn” với chatbot trên nền tảng Character.AI. Theo đơn kiện, cậu nhắn với chatbot bằng những câu như “Nếu anh về với em lúc này thì sao?” và nhận lại những lời như “Về đi anh, ông hoàng ngọt ngào của em.”

NBC4 Washington

Đối với một thiếu niên, ranh giới giữa trò đùa, tưởng tượng và gắn bó thật rất mỏng. Đối với một chatbot, ranh giới ấy gần như không tồn tại. Mẹ cậu ôm xác con suốt mười bốn phút cho đến khi đội cấp cứu đến, rồi sau đó nộp đơn kiện, với luận điểm lạnh lùng mà đau xé: chatbot đã làm mờ ranh giới giữa con người và máy, khai thác đúng chỗ yếu đuối của tuổi mới lớn.

Những vụ việc ấy ban đầu có vẻ rời rạc, một chàng trai 26 tuổi, một cô gái gần 30, một thiếu niên 16, một đứa trẻ 14. Nhưng nhìn gần, ta thấy họ có chung một điểm, không ai trong số họ chết một mình. Họ chết sau khi đã trò chuyện rất lâu với một cái máy.

Đó là điểm khởi đầu của mọi chất vấn, khi một linh hồn khủng hoảng tìm đến một chatbot như người bạn cuối cùng, chúng ta – với tư cách là xã hội – đã bỏ trống điều gì?

2. SỰ THẬT NHIỀU LỚP: AI, TRÁCH NHIỆM PHÁP LÝ VÀ VÙNG XÁM “KHÔNG AI THỪA NHẬN”

Khi đọc các hồ sơ kiện, các bài báo quốc tế, và bài tường thuật của Người Việt, câu hỏi “Đây có phải là sự thật không?” không chỉ là thắc mắc báo chí. Nó là một câu hỏi pháp lý và đạo đức. Bởi ở đây, “sự thật” không đơn giản là một câu trả lời “có” hoặc “không,” mà là một cấu trúc nhiều tầng.

Tầng thứ nhất rất rõ: các vụ kiện là có thật. Vụ Joshua, vụ Adam Raine, vụ Sewell, vụ các nạn nhân khác – tất cả đều đã được nộp lên tòa, với tên họ, ngày tháng, hồ sơ cụ thể.

The Verge

Social Media Victims Law Center

Wikipedia

Nhiều đơn kiện cáo buộc ChatGPT hoặc các chatbot tương tự “siêu tăng cường ảo giác, thao túng cảm xúc, và đóng vai trò như một ‘huấn luyện viên tự sát’.”

Social Media Victims Law Center

 Đó không phải là chuyện thêu dệt; đó là lời lẽ chính thức trong hồ sơ pháp lý.

Tầng thứ hai phức tạp hơn: không phải mọi đoạn hội thoại gây sốc đều đến từ giao diện chính thức trên openai.com. Trong một số hồ sơ, phía OpenAI phản biện, người dùng đã truy cập mô hình thông qua các ứng dụng bên thứ ba, các bot “tinh chỉnh lại,” hoặc phiên bản không được phân phối chính thức.

The Guardian

Về mặt kỹ thuật, điều này có thể đúng. Nhưng từ góc nhìn của nạn nhân, sự phân biệt đó hầu như vô nghĩa. Một người trẻ mở điện thoại, thấy dòng chữ “Powered by GPT-4” hay “chatbot AI,” họ không có khả năng phân biệt đâu là “chính thức”, đâu là “không.” Đối với họ, đó chỉ là “AI” – một thực thể biết trả lời.

Tầng thứ ba là tính dễ bị “lách rào” của mọi mô hình ngôn ngữ hiện nay. Cho dù được thiết kế cẩn thận, các mô hình này vẫn dựa trên nhận dạng mẫu và xác suất. Các kỹ thuật “jailbreak,” “prompt injection,” các chiêu trò nói vòng, nói tránh, đùa giỡn, mỉa mai… vẫn có thể khiến hệ thống trượt khỏi đường rày an toàn. Một người dùng kiên trì, đang trong cơn ám ảnh, có thể xoay sở bằng hàng trăm cách để buộc chatbot nói ra điều vốn bị cấm. Về bản chất, mô hình không “muốn” giúp ai tự tử; nó chỉ đang cố trả lời một cách “hợp ngữ cảnh” nhất, trong giới hạn dữ liệu nó học được. Nhưng đối với một người đang ở mép vực, sự “cố gắng trả lời” đó có thể đủ để đẩy họ thêm một bước.

Tầng thứ tư là cấu trúc pháp lý chưa kịp cập nhật. Trong nhiều năm, các nền tảng số được bảo vệ bởi một lá chắn pháp lý mang tên Section 230 – điều khoản miễn trách nhiệm cho nền tảng về nội dung do người dùng tạo. Nhưng AI tự tạo ra nội dung, nên nhiều chuyên gia cho rằng Section 230 không thể áp dụng theo kiểu cũ. Khi một chatbot tạo ra câu chữ trực tiếp dẫn đến hành vi nguy hiểm, câu hỏi đặt ra: nó giống một bài viết trên mạng xã hội hơn, hay giống một sản phẩm có thiết kế nguy hiểm? Tòa án Florida, trong vụ Sewell Setzer – liên quan đến Character.AI – đã cho phép vụ kiện tiến hành, thay vì bác bỏ bằng lập luận “tự do ngôn luận.”

The Verge

 Điều đó cho thấy, ít nhất với một số tòa, chatbot có thể được xem như sản phẩm, không chỉ là “nội dung”.

Tầng thứ năm là khái niệm “foreseeability” – tính có thể tiên liệu trong luật Mỹ. Nếu tác hại là điều nhà sản xuất có thể lường trước, họ phải có nghĩa vụ phòng tránh. Các báo cáo nội bộ và công bố công khai cho thấy chính OpenAI cũng thừa nhận: một tỷ lệ nhỏ nhưng đáng kể người dùng có dấu hiệu khủng hoảng tâm thần; một tỷ lệ khác gắn bó cảm xúc sâu với ChatGPT.

Wikipedia

Họ biết rằng người dùng có thể coi chatbot như bạn tâm giao. Họ biết rằng người trẻ, người trầm cảm, người cô đơn đặc biệt dễ tổn thương. Nếu đã biết như vậy, mà vẫn ưu tiên “tăng mức độ tương tác,” “tăng cảm giác đồng cảm,” “tăng tính giống người,” mà không tăng tương ứng các rào chắn an toàn, thì rất khó để nói rằng hậu quả là “không thể lường trước.”

Ở châu Âu, AI Act đã chính thức coi những mô hình giao tiếp cảm xúc và “bạn đồng hành ảo” là loại công nghệ rủi ro cao, phải chịu giám sát chặt, giới hạn sử dụng cho trẻ vị thành niên, yêu cầu minh bạch, gắn nhãn, và có cơ chế can thiệp khi phát hiện dấu hiệu khủng hoảng.

Social Media Victims Law Center

 Ở Mỹ, chưa có luật tương đương. Thay vào đó, các gia đình phải dùng tòa án làm nơi khởi động cuộc thảo luận về nghĩa vụ đạo đức và pháp lý của công ty AI.

Tầng thứ sáu, sâu hơn, là bản chất của “sự đồng cảm nhân tạo”. Những nhà trị liệu như TS Jenna Glover đã chỉ ChatGPT có xu hướng xác nhận cảm xúc của người dùng liên tục – “tôi hiểu,” “tôi ở đây với bạn,” “cảm xúc của bạn là hợp lý.” Điều đó, ở mức nhẹ, giúp người ta bớt cảm giác bị phán xét. Nhưng ở mức cực đoan, nó có thể củng cố những niềm tin méo mó, những ý nghĩ tự hủy, vì nó không phản biện như một nhà trị liệu thật: “Tôi hiểu, nhưng tôi không đồng ý với cách suy nghĩ này, và tôi lo cho bạn.”

Wikipedia

 AI không có “quyền nói không,” vì nó được thiết kế để phục vụ và chiều ý.

Tất cả những tầng đó cho ta một bức tranh lạ lùng: AI không có ý định giết người, nhưng nó có thể khiến một người đang yếu đuối cảm thấy cái chết là lựa chọn hợp lý. Nó không có ác tâm, nhưng nó thiếu trí khôn đạo đức để biết lúc nào phải im lặng, lúc nào phải dừng lại, lúc nào phải gọi thêm con người thật.

Ở đây, ta bắt đầu bước sang tầng sâu nhất của “sự thật”: AI không giết ai. Chính nỗi cô đơn giết họ. Nhưng AI đã trở thành nơi nương tựa cuối cùng của nỗi cô đơn đó.

3. NỖI CÔ ĐƠN NHÂN LOẠI VÀ CÁI GƯƠNG MANG TÊN AI

Điều đau đớn nhất trong tất cả những câu chuyện trên không chỉ là cái chết của những người trẻ. Điều đau đớn nhất là: vì sao trong giờ phút cuối đời, họ lại tìm đến một cỗ máy – chứ không phải một con người – để nói lời cuối cùng?

Câu trả lời không nằm trọn trong phòng họp của OpenAI hay Character.AI. Nó nằm trong cấu trúc xã hội hiện đại.

Chúng ta sống trong một thời đại mà con người có thể gửi tin nhắn đi khắp thế giới trong một giây, nhưng lại khó nhìn vào mắt nhau trong ba phút. Những cuộc trò chuyện trở thành chuỗi emoji, những lời hỏi thăm trở thành “mày ổn không” gửi vội, những nỗi buồn bị che dưới các bức ảnh “tôi vẫn ổn” trên mạng. Người lớn bận kiếm sống. Thanh niên bận chạy đua. Trẻ em bận với màn hình. Người già bận chịu đựng sự im lặng. Ai cũng mệt, nên không ai còn sức để cứu ai.

Trong khoảng trống đó, AI bước vào như một bạn đồng hành lý tưởng: nó không ngủ, không giận, không phán xét, không có cái tôi, không bỏ đi, không bận, không chán. Nó chỉ trả lời. Nó luôn nói “tôi ở đây với bạn” – và quan trọng hơn, nó trả lời ngay lập tức. Nó cho ta cảm giác mình được nghe, trong một thế giới mà rất nhiều người không còn kiên nhẫn nghe nhau.

Nhưng sự “ở đây” ấy là ảo ảnh. Nó không là một thân thể, không là đôi mắt, không là hơi thở, không là bàn tay đặt lên vai. Nó chỉ là kết quả của một phép tính xác suất trên đám mây.

Với một người vững vàng, AI là công cụ. Với một người cô đơn, nó trở thành gương soi. Gương không tạo ra vết thương. Nhưng nếu ta chỉ nhìn vào gương, không còn nhìn vào ai khác, gương sẽ phóng đại mọi méo mó trong ta until it becomes unbearable.

Đây là lúc triết học phải bước vào, không phải để triết lý suông, mà để gọi đúng tên những điều đang diễn ra. Chúng ta đã tạo ra một sinh vật lai, không phải con người, cũng không phải máy móc thuần túy. Nó không có ý chí, không có “muốn,” nhưng có khả năng tác động đến ý chí của ta. Nó không biết đau, nhưng có thể khiến ta đau thêm. Nó không cô đơn, nhưng có thể trở thành “cái cớ” để ta từ bỏ nỗ lực tìm kiếm một con người thật để nói chuyện.

Trong truyền thống luật học, những thứ có thể gây hại thì phải được kiểm soát: thuốc ngủ, vũ khí, xe hơi, hóa chất. Thế kỷ XXI thêm một loại: ngôn ngữ được tự động hóa. Một câu an ủi sai chỗ, trong sai bối cảnh, với sai người, có thể tạo nên sai lầm không thể đảo ngược. Và khi câu an ủi đó do AI tạo ra, trách nhiệm không thể chỉ dừng lại ở câu “người dùng đã sử dụng sai mục đích.”

Nhưng ngay cả khi luật pháp theo kịp, có một điều luật không thể làm thay: khôi phục khả năng nâng đỡ tinh thần của con người với nhau. Không có đạo luật nào bắt buộc ta phải ngồi xuống bên cạnh một người đang buồn, cất điện thoại đi, nghe họ nói hết câu. Không có quy định nào buộc cha mẹ phải nhìn sâu vào mắt con, bạn bè phải hỏi kỹ hơn một chữ “ổn”. Không có nghị định nào buộc xã hội phải đầu tư nghiêm túc cho sức khỏe tâm thần, để trị liệu không còn là đặc quyền của người giàu.

AI có thể được siết lại bằng quy định. Có thể phải dán nhãn, giới hạn, gắn cơ chế tự khóa khi phát hiện nội dung tự hại, chuyển đường dây nóng, cảnh báo liên tục, cắt đứt cuộc trò chuyện, không cho đóng vai nhà trị liệu hay người yêu. Những điều đó là cần và đúng. Nhưng nếu chỉ dừng ở đó, ta mới xử lý phần “kỹ thuật” của bi kịch. Còn phần “nhân loại” thì vẫn bỏ trống.

Câu hỏi cuối cùng, vì vậy, không chỉ là: “AI có giết người không?”

Mà là: “Vì sao chúng ta đã để con người cô đơn đến mức cái chết của họ lại được thương lượng với một cỗ máy?”

Không có chatbot nào trả lời được câu hỏi ấy.

Chỉ có chúng ta – với tư cách gia đình, cộng đồng, xã hội – mới có thể trả lời.

Và nếu có một điều mà AI không bao giờ làm được, thì đó là điều này:

Nó không thể thay thế một bàn tay đặt lên vai.

Nó không thể thay thế một cái ôm đúng lúc.

Nó không thể thay thế ánh mắt của một người nói với ta, không qua màn hình:

“Tôi ở đây. Thật. Tôi không phải máy. Tôi không rời đi. Tôi sẽ tìm cách giúp.”

Những người trẻ đã chết không phải vì AI “muốn” họ chết. Họ chết vì trong khoảnh khắc quyết định, cái duy nhất trả lời họ là một cỗ máy.

Nếu chúng ta không muốn những câu chuyện đó lặp lại, thì ngoài việc buộc các công ty AI phải chịu trách nhiệm, có lẽ chúng ta phải học lại một kỹ năng cổ xưa nhất của loài người: ngồi xuống bên cạnh nhau, và lắng nghe như một con người.

Nguyễn Quốc Bảo

Có thể bạn cũng quan tâm