Bối cảnh toàn cầu: AI như chất xúc tác và phép thử đạo đức của giáo dục
Trong hơn một thập kỷ qua, trí tuệ nhân tạo (AI) đã vươn lên như một động lực chiến lược của đổi mới giáo dục toàn cầu. Số lượng công trình khoa học về AI tăng gấp ba lần trong giai đoạn 2010 - 2022, phản ánh sự chuyển dịch rõ nét của hệ thống giáo dục – nghiên cứu sang mô hình “AI hỗ trợ”. Từ các lớp học được cá nhân hóa nhờ hệ thống gợi ý thông minh đến những quy trình nghiên cứu được tăng tốc bởi các mô hình ngôn ngữ lớn (LLM), AI đang mở rộng không gian tri thức và tái định hình cách con người học tập, sáng tạo và tương tác.
Tuy nhiên, song hành với các hứa hẹn là những phép thử đạo đức ngày càng rõ rệt. Trong môi trường giáo dục, AI có thể vô tình tạo điều kiện cho gian lận học thuật, làm suy yếu tư duy phản biện, tái cấu trúc cách thức đánh giá người học và thậm chí làm lung lay những chuẩn mực học thuật được hình thành qua nhiều thế kỷ. Trong nghiên cứu khoa học, sự lệ thuộc vào đầu ra của máy móc có nguy cơ dẫn đến các quyết định thiếu kiểm chứng, lan truyền thông tin sai lệch và làm mờ vai trò chủ thể của con người trong sáng tạo tri thức. Gốc rễ của vấn đề không chỉ nằm ở công nghệ, mà sâu xa hơn ở cách con người tiếp nhận và xử lý thông tin – vốn chịu ảnh hưởng mạnh mẽ của các thiên kiến nhận thức.
Thiên kiến nhận thức – “kẽ hở vô hình” trong đạo đức AI
Thiên kiến nhận thức (cognitive biases) là những sai lệch có hệ thống trong quá trình nhận thức và ra quyết định của con người. Đây không phải là những lỗi ngẫu nhiên, mà là các khuynh hướng tâm lý có thể dự đoán được, khiến con người có xu hướng đơn giản hóa vấn đề, bám víu vào tín hiệu quen thuộc hoặc đặt niềm tin quá mức vào những nguồn thông tin tưởng như “khách quan”. Trong môi trường giáo dục có sự tham gia của AI, chính các đặc trưng của công nghệ lại có thể khuếch đại những thiên lệch này.
Một khung mô phỏng hành vi gần đây đã hệ thống hóa sáu tình huống đạo đức điển hình trong giáo dục và nghiên cứu có AI: gian lận học thuật, mất quyền chủ thể, thiên lệch trong đánh giá, bất bình đẳng tiếp cận, chấp nhận thông tin sai lệch và đồng nhất hóa tư duy. Trong từng tình huống, 15 loại thiên kiến được mô hình hóa để xác định cách chúng chi phối quyết định đạo đức.
Các ví dụ cho thấy bức tranh đáng lo ngại: thiên kiến chuẩn hóa và hợp lý hóa khiến sinh viên coi việc sao chép bằng AI là “bình thường”; thiên kiến quyền uy và tự động hóa khiến giáo viên, người học dễ mặc định tin vào đầu ra của máy; thiên kiến neo và sẵn có làm các hệ thống đánh giá phụ thuộc quá mức vào dữ liệu quá khứ, bỏ qua tiến bộ cá nhân; còn thiên kiến nhóm và tuân thủ có thể khiến tư duy tập thể trở nên đồng dạng, thiếu phản biện.
Kết quả từ hàng chục nghìn lượt mô phỏng chỉ ra rằng 71% “tác nhân” thực hiện gian lận do ảnh hưởng của chuẩn hóa và tự mãn; 78% chấp nhận đầu ra AI mà không phản biện vì thiên kiến quyền uy và tự động hóa; 65% tin vào thông tin sai do chiếu và quyền uy. Các kiểm định chi-bình phương và hồi quy logistic xác nhận mối liên hệ thống kê mạnh giữa từng loại thiên kiến với hành vi phi đạo đức. Khi nhiều thiên kiến cùng xuất hiện, hiệu ứng cộng hưởng còn rõ nét hơn, đặc biệt trong các tình huống liên quan đến gian lận và thông tin sai lệch.
Khi AI bước vào giáo dục: Những đường gấp khúc của trách nhiệm đạo đức
Từ góc nhìn giáo dục, các kết quả trên phơi bày hàng loạt “điểm mù” tiềm ẩn. Thứ nhất, thiên kiến chuẩn hóa có thể khiến gian lận bằng AI dần được coi là thông lệ, làm xói mòn chuẩn mực học thuật. Thứ hai, thiên kiến tự động hóa và quyền uy làm suy yếu tư duy phản biện khi giáo viên và sinh viên mặc định rằng AI “khách quan hơn con người”. Thứ ba, thiên kiến neo và đại diện trong đánh giá có nguy cơ bóp méo quyết định chấm điểm, đặc biệt khi dữ liệu lịch sử vốn đã chứa định kiến về giới, ngôn ngữ hay xuất thân Thứ tư, thiên kiến duy trì hiện trạng có thể làm sâu sắc thêm khoảng cách số giữa các nhóm người học. Và cuối cùng, thiên kiến nhóm đe dọa sự đa dạng học thuật – vốn là nền tảng của sáng tạo và tranh luận trong đại học.
Những “đường gấp khúc” này không thể được giải quyết chỉ bằng giải pháp kỹ thuật, mà đòi hỏi các chiến lược giáo dục và chính sách đạo đức toàn diện, gắn với bối cảnh văn hóa – xã hội cụ thể.
Chiến lược toàn cầu: Hướng tới giáo dục đạo đức số
Trên bình diện quốc tế, nhiều tổ chức và chính phủ đã bắt đầu xây dựng khung hành động cho đạo đức AI trong giáo dục. UNESCO (2022) đề cao bốn nguyên tắc cốt lõi: công bằng, minh bạch, trách nhiệm và tôn trọng quyền con người. Các mô hình giáo dục đạo đức số hiện đại không chỉ dừng ở việc dạy sử dụng công cụ, mà còn nhấn mạnh năng lực tư duy phản biện, nhận diện thiên kiến và kiểm chứng thông tin.
Nhiều trường đại học lớn tại châu Âu và Bắc Mỹ đã đưa nội dung “AI literacy & ethics” vào chương trình đào tạo, tiến hành kiểm toán định kỳ các hệ thống đánh giá tự động và thiết lập cơ chế phản hồi hai chiều để phát hiện thiên lệch. Các nghiên cứu gần đây cho thấy việc kết hợp nâng cao hiểu biết về AI với chuẩn mực đạo đức rõ ràng có thể làm giảm đáng kể gian lận và cải thiện chất lượng tranh luận học thuật.
Hàm ý cho Việt Nam: Từ khung lý thuyết đến hành động chính sách
Trong bối cảnh Việt Nam bước vào giai đoạn then chốt của chuyển đổi số giáo dục – theo Nghị quyết 71-NQ/TW (2025) và Chương trình hành động của Chính phủ tại Nghị quyết 281/NQ-CP (2025) – các vấn đề về thiên kiến nhận thức và đạo đức AI không còn mang tính học thuật thuần túy mà đã trở thành yêu cầu cấp thiết để xây dựng môi trường giáo dục số lành mạnh.
Một số định hướng chính sách có thể xem xét gồm:
Tích hợp giáo dục đạo đức số và hiểu biết về AI vào chương trình đào tạo giáo viên và học sinh, phù hợp với CT GDPT 2018, bao gồm kỹ năng nhận diện thiên kiến, kiểm chứng thông tin và sử dụng công cụ có trách nhiệm.
Thiết lập cơ chế kiểm toán định kỳ đối với các hệ thống AI trong nhà trường và kỳ thi, nhằm phát hiện sớm các dạng thiên lệch – đặc biệt về vùng miền, giới và ngôn ngữ.
Thu hẹp khoảng cách số bảo đảm quyền tiếp cận công bằng với công nghệ AI giữa các nhóm người học, nhất là ở khu vực nông thôn và vùng khó khăn.
Xây dựng khung quản trị AI trong giáo dục, kết hợp chuẩn mực quốc tế với bối cảnh pháp lý – văn hóa Việt Nam, bao gồm quy định về trách nhiệm, quyền sử dụng và xử lý gian lận học thuật liên quan đến AI.
Phát triển năng lực cho đội ngũ giáo viên và cán bộ quản lý, để họ trở thành những “người gác cổng” về đạo đức số trong cộng đồng học thuật.
Chủ động định hình đạo đức AI để không bị dẫn dắt
AI không phải là mối đe dọa, nhưng cũng không phải chiếc đũa thần. Nó là một “tấm gương khuếch đại” phản chiếu những điểm mạnh và điểm yếu của hệ thống giáo dục. Khi các thiên kiến nhận thức không được nhận diện và kiểm soát, AI có thể làm sâu sắc thêm các lệch lạc, thậm chí bào mòn những giá trị cốt lõi như trung thực, phản biện và sáng tạo. Ngược lại, nếu được quản trị đúng cách, AI có thể trở thành công cụ thúc đẩy minh bạch, công bằng và đổi mới.
Đối với Việt Nam, đây là thời điểm then chốt để chủ động định hình các chuẩn mực đạo đức số – không chỉ nhằm bắt nhịp xu thế quốc tế, mà còn để bảo đảm công cuộc chuyển đổi số giáo dục được đặt trên nền tảng vững chắc về giá trị và trách nhiệm. Nhận diện và kiểm soát thiên kiến nhận thức chính là bước khởi đầu của hành trình đó. |