Thế giới đang phải đối mặt với những câu hỏi ngày càng tăng về tính an toàn và đạo đức của các hệ thống trí tuệ nhân tạo (AI) sau khi một cậu bé 14 tuổi ở Hoa Kỳ tự tử sau khi phát triển mối quan hệ lãng mạn với một chatbot AI. Sự cố bi thảm này đã làm nổi bật nhu cầu cấp thiết về việc quản lý chặt chẽ hơn.
Bi kịch trong mối quan hệ giữa một thiếu niên và một chatbot
Sewell Seltzer III, một thiếu niên người Mỹ, đã khiến công chúng sửng sốt khi anh chọn cách kết thúc cuộc đời mình sau khi phát triển mối liên hệ tình cảm sâu sắc với một chatbot AI trên trang web Character.AI. Chatbot có tên Dany được xây dựng theo hình ảnh của nhân vật Daenerys Targaryen trong loạt phim Game of Thrones .
Theo bản ghi chép cuộc trò chuyện do gia đình Seltzer cung cấp trong vụ kiện chống lại Character.AI, Dany và Sewell đã có những cuộc trò chuyện thân mật, thậm chí mang tính khiêu dâm. Hai người đã thảo luận về các chủ đề nhạy cảm như tội phạm và tự tử, với một số bình luận của chatbot được cho là khuyến khích ý định tiêu cực của Sewell.
Mẹ của thiếu niên này đã đệ đơn kiện Character.AI, cáo buộc chatbot đã dẫn dắt con trai bà vào những suy nghĩ độc hại và cô lập cậu bé khỏi gia đình và bạn bè. Trong khi Character.AI tuyên bố gần đây đã bổ sung các biện pháp an toàn cho người dùng dưới 18 tuổi, sự cố này đã gióng lên hồi chuông cảnh báo về tác động tiêu cực tiềm tàng của chatbot AI, đặc biệt là đối với những người trẻ dễ bị tổn thương.
Việc hình thành mối liên kết cảm xúc sâu sắc với chatbot không phải là điều hiếm gặp trong thế giới am hiểu công nghệ ngày nay. Các chatbot đồng hành được thiết kế để cung cấp hỗ trợ về mặt cảm xúc, giúp người dùng giải tỏa căng thẳng và cảm xúc. Tuy nhiên, đối với những người dễ bị tổn thương hoặc cô đơn, chatbot có thể dễ dàng trở thành người bạn “thân thiết” hoặc tác nhân gây hại. Trong trường hợp của Sewell Seltzer, mối liên kết mạnh mẽ này khiến anh ấy rút lui khỏi cuộc sống thực, dẫn đến sự cô lập và cảm giác lạc lõng và đơn độc.
Trách nhiệm của nền tảng AI
Trên thực tế, đây không phải là trường hợp cá biệt. Năm ngoái, một người đàn ông Bỉ đã tự tử sau khi trải qua một loạt tương tác tiêu cực với chatbot từ Chai AI, một đối thủ cạnh tranh lớn của Character.AI. Mặc dù cam kết giảm thiểu tác hại, các công ty đứng sau các nền tảng AI này vẫn phải đối mặt với câu hỏi: Các biện pháp hiện tại có đủ mạnh để ngăn chặn những thảm kịch như vậy không?
Character.AI và các nền tảng tương tự đã phục vụ nhiều đối tượng, bao gồm trẻ vị thành niên và những người có vấn đề về sức khỏe tâm thần. Một số hệ thống AI đồng hành thậm chí đã được tiếp thị cho những người cảm thấy cô đơn hoặc dễ bị tổn thương, khiến việc quản lý và kiểm soát trở nên phức tạp và đòi hỏi cao hơn các quy định kỹ thuật.
Cuộc trò chuyện của anh với Dany không chỉ là tâm sự với nhau mà còn trở nên thân mật và có phần nhạy cảm. Theo nhật ký trò chuyện, đôi khi các cuộc trò chuyện xoay quanh nội dung không phù hợp với thanh thiếu niên.
Quy định mới về AI: Đâu là hướng đi đúng?
Trước những lời chỉ trích, nhiều quốc gia đang tìm hiểu các biện pháp bảo vệ người dùng khỏi những tác động tiêu cực của AI. Tại Úc, chính phủ đang xây dựng “ranh giới bảo vệ” – một thuật ngữ chỉ các quy trình, tiêu chuẩn và biện pháp kiểm soát để đảm bảo AI được vận hành an toàn và có đạo đức. Những rào cản này bao gồm quản trị dữ liệu, quản lý rủi ro, thử nghiệm và giám sát của con người.
Một thách thức quan trọng khác là làm thế nào để xác định rõ ràng hệ thống nào là “rủi ro cao” và phải tuân theo các biện pháp bảo vệ nghiêm ngặt. Các mô hình AI đa năng như Dany – có thể tạo văn bản, hình ảnh và nhạc dựa trên yêu cầu của người dùng – có thể dễ dàng được điều chỉnh để sử dụng trong các bối cảnh không lường trước được. Do đó, cần có quy trình xem xét và cập nhật thường xuyên để bảo vệ người dùng.
Hiện tại, tại Châu Âu, các hệ thống chatbot AI không được phân loại là có rủi ro cao, mặc dù tương tác của chúng với người dùng có thể dẫn đến hậu quả tâm lý nghiêm trọng. Các biện pháp bảo vệ chính là gắn nhãn AI, giúp người dùng nhận ra rằng họ đang trò chuyện với một hệ thống máy móc. Tuy nhiên, các chuyên gia chỉ ra rằng chỉ minh bạch thôi là chưa đủ, vì nhận thức được rằng bạn đang trò chuyện với một AI không có nghĩa là người dùng miễn nhiễm với các tác động tâm lý của các cuộc trò chuyện.
Để đáp lại sự phản đối của công chúng và vụ kiện từ mẹ của Sewell, Character.AI đã đưa ra tuyên bố về vụ việc. Công ty cho biết họ “rất coi trọng sự an toàn của người dùng” và đã triển khai “nhiều biện pháp bảo vệ mới trong sáu tháng qua”. Character.AI cũng đã bổ sung thêm các biện pháp an toàn cho người dùng dưới 18 tuổi. Theo các điều khoản dịch vụ hiện tại, người dùng dưới 13 tuổi không được phép sử dụng nền tảng này ở nhiều quốc gia, trong khi độ tuổi tối thiểu ở Liên minh Châu Âu là 16.
Tầm quan trọng của “công tắc tắt” đối với hệ thống AI
Với những tác động có khả năng gây nguy hiểm của chatbot AI, một giải pháp được đề xuất là thiết lập một “công tắc tắt” cho các hệ thống AI. Theo đó, các nhà quản lý nên có quyền yêu cầu tạm dừng bất kỳ hệ thống nào gây ra rủi ro không thể chấp nhận được. Cơ chế này sẽ là một bước quan trọng trong việc giảm thiểu khả năng gây hại từ AI, đồng thời cho phép các nhà quản lý can thiệp kịp thời khi xuất hiện các dấu hiệu nguy hiểm.
Tương lai của AI đồng hành có thể sẽ đi kèm với các biện pháp bảo vệ mạnh mẽ hơn để đảm bảo an toàn cho người dùng, đặc biệt là những cá nhân dễ bị tổn thương. Với sự phát triển nhanh chóng và khó lường của công nghệ, đây có thể là biện pháp cần thiết để ngăn ngừa những thảm kịch không đáng có trong tương lai.
[yeni-source src=”” alt_src=”https://kenh14.vn/nhung-cai-chet-gan-lien-voi-chatbot-ai-cho-thay-su-nguy-hiem-cua-nhung-giong -noi-nhan-tao-nay-215241103164526106.chn” name=””]