第A09版:深读

新风险扩散

北京一高校研二学生小张利用人工智能大模型整理科研数据时发现,模型生成的参考文献虽标注了详细出处,但在权威学术平台核实时,这些文献却“查无此文”。

小张的遭遇显现出了AI技术在学术场景中的“可靠性短板”。这提示我们,在AI深度赋能高校教育科研管理的同时,AI的潜在风险已从技术层面扩展至学术生态层面,亟待关注。

易引发学术不端。一些受访的高校教师担忧,大模型在高校广泛应用可能会助长学术造假,破坏科研真实性,影响学术生态健康发展。

人工智能大模型的任务导向属性使其易被引导生成特定结果,这一技术特性若被急功近利的研究者利用,可能引发主动捏造符合实验假设数据的行为。

北京师范大学政府管理学院教授王磊进一步指出,当前学术领域已显现出两类典型的由AI引发的学术不端风险:一种是学生自主利用AI代写论文或“洗稿”,这类行为在本科生毕业论文、本硕博课堂论文等相对低门槛或低监管场景中尤为高发;另一种是源于技术复杂性带来的认知偏差——研究者可能因低估AI生成内容的“不可控性”,忽视对生成文献及数据真实性的严格验证,出现“无意识”学术失范行为。

在数据处理阶段,数据污染可能导致人工智能生成结果失真,引发认知安全风险。

北京航空航天大学法学院副教授赵精武说,若将包含错误信息或偏见数据的语料注入大模型,其生成内容可能出现事实性偏差、传播虚假信息,或强化社会偏见。

学生自主学习与创新能力弱化。记者观察到,高校学生利用AI工具辅助论文写作越发普遍,有学生认为,“相比翻阅书籍或利用互联网搜索引擎查找资料,借助AI工具让论文撰写方便了很多。”

第三方机构“麦可思”对3000多名高校师生的问卷结果显示,近六成高校师生每天或者每周多次使用生成式AI。而大学生在使用生成式AI时,有近三成主要用于写论文或作业。一些学生坦言,在写报告或论文时,他们会直接复制粘贴AI生成的内容。

受访者认为,高校部署AI大模型辅助学生学习和科研,可能在一定程度上削弱学生主动探索、深度思考与批判性思维的训练,使其过于依赖外部工具完成任务,影响学术创新能力的可持续发展。

2025-07-02 2 2 江海晚报 content_212852.html 1 3 新风险扩散 /enpproperty-->