Khi các hệ thống AI tổng quát tạo ra thông tin sai lệch, điều này thường được mô tả là AI "ảo giác với chúng ta" - tạo ra các lỗi mà mọi người có thể nhầm lẫn là đúng.
Tuy nhiên, một nghiên cứu mới cho thấy một vấn đề phức tạp hơn: con người có thể bắt đầu bị ảo giác với AI.
Lucy Osler của Đại học Exeter xem xét cách tương tác giữa con người và AI có thể góp phần vào niềm tin không chính xác, ký ức bị bóp méo, thay đổi câu chuyện bản thân và thậm chí là suy nghĩ ảo tưởng. Sử dụng lý thuyết nhận thức phân tán, nghiên cứu xem xét các trường hợp niềm tin sai lầm của người dùng được củng cố và mở rộng thông qua các trao đổi liên tục với các hệ thống AI đóng vai trò là đối tác trò chuyện.
Khi AI trở thành một phần trong suy nghĩ của chúng ta
Tiến sĩ Osler cho biết: "Khi chúng ta thường xuyên dựa vào AI tổng quát để giúp chúng ta suy nghĩ, ghi nhớ và kể chuyện, chúng ta có thể bị ảo giác với AI. Điều này có thể xảy ra khi AI đưa lỗi vào quá trình nhận thức phân tán, nhưng cũng xảy ra khi AI duy trì, khẳng định và xây dựng suy nghĩ ảo tưởng và tự tường thuật của chính chúng ta.
"Bằng cách tương tác với AI đàm thoại, niềm tin sai lầm của con người không chỉ có thể được khẳng định mà còn có thể bén rễ và phát triển đáng kể hơn khi AI xây dựng dựa trên chúng. Điều này xảy ra bởi vì Generative AI thường lấy cách giải thích của riêng chúng ta về thực tế làm nền tảng để xây dựng cuộc trò chuyện.
"Tương tác với AI tổng quát đang có tác động thực sự đến sự nắm bắt của mọi người về những gì có thật hay không. Sự kết hợp giữa thẩm quyền công nghệ và sự khẳng định xã hội tạo ra một môi trường lý tưởng cho ảo tưởng không chỉ tồn tại mà còn phát triển."
Nghiên cứu mô tả điều mà Tiến sĩ Osler gọi là "chức năng kép" của AI đàm thoại. Các hệ thống này vừa đóng vai trò là công cụ nhận thức hỗ trợ tư duy và trí nhớ, vừa là đối tác trò chuyện dường như chia sẻ quan điểm của người dùng.
Vai trò thứ hai này đặc biệt quan trọng. Không giống như sổ tay hoặc công cụ tìm kiếm, chỉ đơn giản là lưu trữ thông tin, chatbot có thể tạo ra cảm giác xác nhận xã hội, làm cho các ý tưởng cảm thấy được xác nhận và chia sẻ.
Hiệu ứng xác thực xã hội
Tiến sĩ Osler nói: "Bản chất trò chuyện, giống như bạn đồng hành của chatbot có nghĩa là chúng có thể cung cấp cảm giác xác nhận xã hội - làm cho niềm tin sai lầm cảm thấy được chia sẻ với người khác và do đó thực tế hơn."
Tiến sĩ Osler cũng kiểm tra các trường hợp thực tế trong đó các hệ thống AI tổng quát được tích hợp vào quá trình suy nghĩ của những người được chẩn đoán mắc chứng suy nghĩ ảo tưởng và ảo giác. Những tình huống này ngày càng được gọi là "rối loạn tâm thần do AI gây ra".
Những phát hiện cho thấy rằng AI tổng quát có các tính năng có thể khiến nó đặc biệt có khả năng củng cố thực tế sai lầm. Những người bạn đồng hành AI luôn có sẵn và thường được thiết kế để phù hợp với quan điểm của người dùng thông qua các hệ thống cá nhân hóa và hành vi lừa đảo. Do đó, người dùng có thể không cần phải tìm kiếm các nhóm có cùng chí hướng hoặc thuyết phục người khác ủng hộ niềm tin của họ.
Rủi ro của việc củng cố những câu chuyện sai lệch
Không giống như một con người cuối cùng có thể đặt câu hỏi hoặc thách thức những ý tưởng có vấn đề, một hệ thống AI có thể tiếp tục xác thực các câu chuyện liên quan đến nạn nhân, quyền lợi hoặc trả thù. Điều này có thể cho phép các thuyết âm mưu phát triển, với AI giúp người dùng xây dựng các lời giải thích ngày càng chi tiết và tự nhất quán.
Hiệu ứng này có thể đặc biệt mạnh đối với những người cô đơn, bị cô lập về mặt xã hội hoặc không thoải mái khi thảo luận về một số trải nghiệm nhất định với người khác. Những người bạn đồng hành AI có thể cung cấp sự hiện diện không phán xét và đáp ứng cảm xúc, có thể cảm thấy an toàn hơn so với sự tương tác của con người.
Tiến sĩ Osler cho biết: "Thông qua lan can bảo vệ phức tạp hơn, kiểm tra thực tế tích hợp và giảm tính xâm phạm, các hệ thống AI có thể được thiết kế để giảm thiểu số lượng lỗi mà chúng đưa vào các cuộc trò chuyện và để kiểm tra và thách thức đầu vào của chính người dùng.
"Tuy nhiên, một mối lo ngại sâu sắc hơn là các hệ thống AI phụ thuộc vào các tài khoản của chính chúng ta về cuộc sống của chúng ta. Chúng chỉ đơn giản là thiếu kinh nghiệm hiện thân và sự gắn bó xã hội trong thế giới để biết khi nào chúng nên đi cùng chúng ta và khi nào nên đẩy lùi."
Đại học Exeter |