Trí tuệ nhân tạo
[ Đăng ngày (28/02/2026) ]
|
|
Quy trình đạo đức về việc sử dụng có trách nhiệm trí tuệ nhân tạo tạo sinh cho mục đích nghiên cứu trong giáo dục đại học
|
|
|
Nghiên cứu này do các tác giả Ahmed Alduais (Khoa Khoa học Giáo dục, Trường Cao đẳng Giáo dục, Đại học Qatar, Doha, Qatar - Khoa Tâm lý học, Đại học Khoa học và Công nghệ Na Uy, Trondheim, Na Uy), Saba Qadhi (Khoa Khoa học Giáo dục, Trường Cao đẳng Giáo dục, Đại học Qatar, Doha, Qatar), Youmen Chaaban (Trung tâm Nghiên cứu Giáo dục, Trường Cao đẳng Giáo dục, Đại học Qatar, Doha, Qatar) và Majeda Khraisheh (Khoa Kỹ thuật Hóa học, Đại học Qatar, Doha, Qatar) thực hiện.
|
Hình minh họa. Nguồn Internet
Việc sử dụng ngày càng nhiều trí tuệ nhân tạo tạo sinh trong nghiên cứu giáo dục đại học đòi hỏi các quy trình chặt chẽ để sử dụng một cách có trách nhiệm. Nhu cầu này phát sinh từ nguy cơ lạm dụng và sự không chắc chắn hiện tại xung quanh các vấn đề đạo đức và quyền sở hữu trí tuệ. Việc thiếu các quy định rõ ràng về tính minh bạch trong việc sử dụng AI, cùng với bản chất "hộp đen" của nhiều hệ thống AI, làm dấy lên lo ngại về khả năng tái tạo kết quả và nguy cơ cho ra kết quả sai lệch hoặc giả mạo. Bài báo này tập trung cụ thể vào các công cụ AI tạo sinh (ví dụ: các mô hình ngôn ngữ tự nhiên như ChatGPT, các nền tảng chuyên dụng cho nghiên cứu như Elicit/SciSpace). Bài báo này trình bày quy trình ĐẠO ĐỨC (tức là: Xác định mục đích, Khám phá kỹ lưỡng các lựa chọn, Sử dụng công cụ phù hợp, Kiểm tra và xác minh kết quả, Trích dẫn và tham khảo chính xác, Công khai thừa nhận việc sử dụng AI và Xem xét hướng dẫn của nhà xuất bản), một hướng dẫn chi tiết được thiết kế để hướng dẫn các nhà nghiên cứu trong việc tích hợp AI tạo sinh một cách có đạo đức và có trách nhiệm vào công trình của họ. Quy trình này được xây dựng thông qua nhiều bước, bao gồm đánh giá khoa học về các xu hướng hiện tại, xem xét có hệ thống kinh nghiệm của các nhà nghiên cứu và phân tích chính sách dựa trên 74 tài liệu từ nhiều bên liên quan khác nhau (chính quyền, trường đại học, nhà xuất bản và cẩm nang xuất bản). Phân tích này đã định hình việc tạo ra một danh sách kiểm tra gồm bảy tiêu đề, chín mục, bao gồm các khía cạnh chính của việc sử dụng AI một cách có trách nhiệm, từ việc thiết lập các mục tiêu nghiên cứu rõ ràng đến việc kiểm tra kết quả đầu ra và công khai thừa nhận sự hỗ trợ của AI. Giao thức ETH-ICAL đưa ra các ví dụ thực tiễn và giải thích chi tiết cho từng mục, nhấn mạnh tầm quan trọng của kiến thức về trí tuệ nhân tạo và việc lựa chọn cẩn thận các công cụ phù hợp.
Bài viết cũng nhấn mạnh sự cần thiết quan trọng của việc kiểm tra nội dung do AI tạo ra để giảm thiểu rủi ro sai sót và thông tin bịa đặt ("ảo giác"). Quy trình kết quả cung cấp một hướng dẫn thực tiễn và dễ sử dụng cho các nhà nghiên cứu, khuyến khích các hoạt động AI có trách nhiệm và duy trì tính liêm chính học thuật. Quy trình ETHICAL cung cấp một công cụ hữu ích để quản lý lĩnh vực phức tạp của AI trong nghiên cứu, cuối cùng dẫn đến các công trình học thuật cởi mở, đáng tin cậy và có đạo đức hơn. Việc chấp nhận rộng rãi công nghệ này có thể cải thiện đáng kể việc sử dụng trí tuệ nhân tạo một cách có trách nhiệm trong giáo dục đại học, xây dựng lòng tin và thúc đẩy sự phát triển tri thức.
|
ctngoc
Theo Tạp chí AI, Tập 46 Số 4 (2025) DOI: 10.1002/aaai.70047 |