受访者表示,高校在积极运用大模型赋能教育教学时,也应关注新技术带来的多维风险,统筹建设学术不端检测平台、筑牢数据安全防线、引导学生正确使用技术工具。
高位统筹规范建设学术不端信息检测平台。为应对AI学术造假,不少高校引入了AI检测工具作为技术防火墙。西南交通大学、天津科技大学、湖北大学等多所高校提出,学生的毕业论文除了要通过查重、答辩外,还需检测AI工具使用情况。
当前各高校使用的相关检测识别技术水平参差不齐。第三方AI检测工具多通过文本特征模型比对、概率阈值判定等识别人工智能生成内容,存在误判原创、漏判洗稿的技术缺陷,可能打击真实学术努力,刺激更隐蔽、更难溯源的学术不端行为,或是诱发更多投机心理。
受访者表示,国家有关部门可牵头科技企业、高校、研究机构等共同开发高质量AI检测技术和工具,并根据院校类型、学科类型等统一制定科学、规范的检测标准,加强防范学术不端、提升信息安全的同时,避免重复建设造成资源浪费。
筑牢数据安全防线。近期,北京外国语大学正式上线了基于DeepSeek671B大模型开发的“外晓通”智能问答平台,为学生实时提供学术研究、校园事务办理流程等专业解答。相关负责人介绍,该平台深度融合学校独有的教学资源与知识体系,并采用本地化存储和严格隐私保护机制,确保师生数据安全无忧。
除了运用技术手段应对数据安全风险,受访人士还建议,高校应完善AI在教学、科研、管理等场景下的数据使用、隐私保护、算法透明等规章制度,制定严格的数据安全管理规定,加强对人工智能教学和科研中涉及学生数据、科研数据等的保护,防止数据泄露和滥用。
引导学生正确使用技术工具。受访者认为,高校需通过通识教育与实践活动,帮助学生建立“技术工具与自身能力”的正确认知,平衡“技术赋能”与“人的主体性”。
一方面,高校可结合各学校自身专业特色开设人工智能通识课,帮助学生理解技术原理。另一方面,高校也应通过出台AI辅助学习指南,划定使用边界,使学生从“依赖AI完成任务”转向“用AI辅助解决问题”;并通过调整教学模式,提升过程性评价占比和批判思维训练,让学生在技术浪潮中保持独立思考与创新的核心竞争力。
《瞭望》新闻周刊记者赵旭 魏梦佳
