Liệu chatbot có thể trở thành nhà trị liệu tâm lý không?


Chỉ khi bạn muốn chúng trở thành nhà trị liệu tâm lý.


Gần đây, một nhà quản lý tại công ty trí tuệ nhân tạo OpenAI đã viết rằng cô vừa có một "cuộc trò chuyện rất xúc động và riêng tư" với ChatGPT, chatbot lan truyền của công ty.


Lilian Weng đã đăng trên diễn đàn: "Chưa từng thử liệu pháp tâm lý, nhưng liệu đây có phải là liệu pháp cuối cùng?".


Điều này đã gây ra một loạt bình luận tiêu cực, cáo buộc cô đã hạ thấp mức độ nghiêm trọng của bệnh tâm thần.


Tương tác của Weng với ChatGPT có thể được giải thích bằng hiệu ứng giả dược được đề cập trong một nghiên cứu được công bố tuần này trên tạp chí Nature Machine Intelligence.


Một nhóm nghiên cứu từ Viện Công nghệ Massachusetts (MIT) và Đại học Bang Arizona đã yêu cầu hơn 300 người tham gia tương tác với một chương trình AI về sức khỏe tâm thần và hướng dẫn họ những gì có thể mong đợi từ tương tác này.


Một số người được cho biết chatbot có khả năng đồng cảm, những người khác được cho biết nó có khả năng thao túng, và một nhóm thứ ba được cho biết nó trung lập.


Những người được cho biết họ đang nói chuyện với một chatbot quan tâm đến mọi người có xu hướng tin rằng nhà trị liệu chatbot của họ đáng tin cậy hơn các nhóm khác.


Pat Pataranutaporn, đồng tác giả của báo cáo, cho biết: "Từ nghiên cứu này, chúng ta có thể thấy rằng ở một mức độ nào đó, AI chính là AI của người quan sát."


Trong những năm gần đây, một số công ty khởi nghiệp nổi tiếng đã thúc đẩy các ứng dụng AI cung cấp liệu pháp tâm lý, tình bạn và các hỗ trợ sức khỏe tâm thần khác, một cơ hội kinh doanh lớn. Tuy nhiên, lĩnh vực này vẫn là tâm điểm gây tranh cãi. Cũng như các ngành công nghiệp khác bị đe dọa bởi AI, các nhà phê bình lo ngại rằng robot cuối cùng sẽ thay thế người lao động thay vì bổ sung cho họ.


Trong lĩnh vực sức khỏe tâm thần, có những lo ngại rằng robot khó có thể làm tốt công việc.


"Liệu pháp tâm lý là dành cho sức khỏe tâm thần và đó là một công việc khó khăn", lập trình viên Cher Scarlett đã viết để phản hồi bài đăng đầu tiên của Weng trên X.


Ngoài những lo ngại chung về AI, lịch sử gần đây của một số ứng dụng trong lĩnh vực sức khỏe tâm thần cũng có phần đáng lo ngại.


Một ứng dụng đồng hành AI phổ biến có tên Replika đôi khi được quảng cáo là mang lại lợi ích cho sức khỏe tâm thần, nhưng người dùng từ lâu đã phàn nàn rằng bot có thể bị tình dục hóa quá mức và mang tính xúc phạm.


Các nhà nghiên cứu tại MIT Arizona cho biết xã hội cần phải nắm bắt được câu chuyện về AI.


Bài báo lập luận rằng "Cách AI được giới thiệu với xã hội rất quan trọng vì nó thay đổi trải nghiệm về AI. Có thể cần phải hướng người dùng đến việc giảm bớt những kỳ vọng tiêu cực hơn."