好博体育(集团)有限公司官网 | 中国领先的智能体育管理平台好博体育(集团)有限公司官网 | 中国领先的智能体育管理平台

NEWS

新闻资讯

人民论坛实评 | “AI代审”的忧与优


一些审稿专家的审稿意见,存在高度疑似由AI工具生成的现象,近来在网上引起质疑:当算法开始参与学术评价,学术评判权是否仍掌握在人的手中,学术共同体长期形成的信任机制是否会受到影响?

AI评判论文,靠谱吗?这与学术期刊审稿工作具有科学性、严谨性、保密性等多重特殊要求相违背,应该说是不合适的。若随意采用未经保密性验证的AI平台代为审稿,很有可能无法保障稿件评审质量,更有可能泄露作者的原创学术成果。

从表面看,技术进入学术出版流程,似乎顺理成章。过去几十年间,学术生产规模持续扩大,论文投稿数量不断攀升,许多期刊编辑部面临审稿周期拉长、专家资源紧张等现实压力。在这样的背景下,借助人工智能进行重复率检测、格式识别乃至文献匹配,被视为一种提升效率的技术办法。算法在处理结构化信息方面的能力,使其在技术性环节具有明显优势。

但真正引发争议的,并不是技术本身,而是技术在学术评价中的角色定位与边界。如果AI仅用于基础性筛查,其作用类似于查重系统或数据库工具。当算法开始参与对论文质量的判断,问题便随之产生。学术论文的价值,并不只是文本质量,还涉及理论贡献、方法设计与论证逻辑等,这些判断往往依赖学科经验与研究传统。算法可以识别语言模式,却难以理解学术创新的意义。

“AI代审”之所以引发担忧,并不是因为技术能力不足,而是因为其触碰学术制度的一些重要原则:学术评价应该由谁来评?怎么评?目前来看,较为有效的科研评价方式,是由同一领域的学者进行判断,并保证评价的专业性与客观性。

同行评议制度,作为学术评价体系的重要组成部分,在于它建立了一种可追责的评估机制。专家在评审过程中以自身声誉为担保,编辑在制度上承担决策责任,作者则在公开交流中接受检验。正是在这种责任关系中,学术评价获得稳定的可信度。

当算法被引入审稿环节,首先出现的问题,往往是责任模糊。若评审意见部分来自AI生成,当判断失误时,应由谁承担责任?是使用工具的审稿人,还是提供算法的平台?在传统制度中,审稿意见背后始终存在具体的学术主体;而在算法参与之后,评价过程可能逐渐演变成一种技术流程,长此以往,会削弱学术评价的责任基础。

此外,算法并非完全中立。人工智能模型往往依赖既有数据训练,其判断逻辑可能带有隐性偏差。例如,算法可能会在不同语言环境和跨学科信息检测领域存在误判现象。如果这种技术直接用于论文筛选和评判,就会在无意中影响学术评价的公正性。

当然,这并不意味着技术应被排除在学术出版之外。恰恰相反,人工智能在信息整理、文献检索,以及数据处理方面具有明显优势。如果合理使用,它完全可以帮助编辑与审稿人更快掌握研究背景,从而把精力集中在更重要的学术判断上。问题的关键并不是“是否使用AI”,而是“如何使用AI”。

从制度角度看,学术出版界需要达成共识,形成一种更清晰的技术边界:技术可以承担辅助功能,但不能试图取代学术判断;算法可以提供信息支持,但不能成为最终裁决者。只要评价结论仍然来自学术共同体,技术就只是工具;一旦判断权被让渡给算法,学术评价体系的基础便会受到影响。学术制度的稳定性,从来不是依靠技术维系,依靠的是责任与信誉。当技术不断进入科研与出版领域时,学术界亟需思考:如何在技术便利与学术判断之间,保持必要的冷静与边界。

在这一意义上,“AI代审”的讨论,具有积极意义。它提醒学术共同体重新审视技术与制度之间的关系:效率固然重要,但学术判断的主体性更为关键。秉持使用边界清晰、责任归属明确的原则,AI才会发展为更好的学术工具,推动学术成果评价,朝着更加科学、透明、公平、可靠的方向发展。

 | 人坛网

任编辑 王卓怡 王爽