01-08来源:平地起直聘作者:咨询微信:zjwh365阅读:332次
在2026年度的职称评审中,一个前所未有的现象正引发学术界与科研管理部门的广泛关注与讨论:因 “不当使用人工智能辅助工具,引发学术诚信与原创性质疑” ,而导致评审失败的案例数量呈快速上升趋势。据记者从部分高校、科研院所集中地区的人社及科技部门了解,在工程技术、自然科学及社会科学等系列的副高级以上职称评审中,此类原因导致的未通过案例,已占未通过总人数的15%-20%,成为一个不容忽视的新型“拦路虎”。全国职称申报入口(https://sl.pidiqi.com/Vzyiia)

评审专家委员会成员向记者透露,问题主要集中在两个深化发展的层面:第一,在论文、专著或技术报告撰写中,AI生成内容(AIGC)占比过高,且申报人未在任何位置进行明确声明与区分,导致评审专家无法界定申报人的原创性贡献边界,最终可能对成果的产权归属产生疑虑。第二,更为隐蔽的是,在实验设计、数据分析、模型构建等核心研究环节,申报人过度依赖黑箱式AI工具,但在材料中既无法阐明所采用AI模型的基本原理、参数设置与局限性,也无法清晰说明本人在此过程中的关键性判断、调整与创新工作,使得整个研究过程的真实性与申报人的主体性大打折扣。

“职称评审,评的是‘人’的学识、能力与贡献,而不是人工智能的产出效率。”国家科学伦理委员会委员、清华大学人工智能治理研究中心主任冯琳教授对此现象发表了严肃看法。她指出,随着生成式AI工具的普及,学术共同体正在形成新的规范共识。“工具性使用与主体性替代之间存在本质区别。评审委员会有责任对此进行严格甄别。”冯教授介绍,目前国际上主要学术出版机构均已推行或计划推行“AI使用声明”制度,要求作者详细说明在研究中是否以及如何使用AI,并为其内容的准确性负最终责任。
她强烈建议,职称申报材料应主动对标这一前沿学术规范。申报人不仅应在材料末尾附上规范的“AI辅助工具使用声明”,详细列明使用的工具、用途(如语法润色、文献梳理、数据可视化等)及本人进行的实质性校验与修改工作,更应在正文相关部分,通过注释或说明的方式,清晰展示自身工作的核心逻辑与创造性贡献。“透明化是建立信任的基础,”冯琳教授强调,“主动、详尽地披露AI辅助情况,恰恰是申报人学术严谨性和诚信态度的体现,能有效避免误解和误判。”各职称评审委员会也表示,正在研究将“学术透明性”作为一项隐性指标纳入评估框架,引导建立健康、负责任的人机协同科研新模式。
特别注意:
(1)职称评审入口:(https://sl.pidiqi.com/eYRRfq)(认准官方入口)
(2)深圳职称申报系统官方入口:(https://sl.pidiqi.com/Nrmm6n) (深圳市人才一体化综合服务平台)
(3)广州职称申报系统官方入口:(https://sl.pidiqi.com/FNvium) (广州人社局职称业务申报与管理系统)
(4)东莞职称申报系统官方入口:(https://sl.pidiqi.com/eaI36v) (东莞市人力资源和社会保障局网站)
(5)除广州、深圳或是东莞外的,广东省其他地方的职称申报官方入口:(https://sl.pidiqi.com/jERzq2)(广东政务服务网)
(6)四川职称申报系统官方入口:(https://sl.pidiqi.com/fYvIJ3) (四川人力资源社会保障厅)
1、工程职称申报网遵循行业规范,任何转载的稿件都会明确标注作者和来源;2、原创文章,请转载时务必注明文章作者和"来源:很i学",不尊重原创的行为或将追究责任;3、作者投稿可能会经很i学编辑修改或补充。
增值电信业务经营许可证:粤ICP备20042059号-2 ┊ 出版物经营许可 ┊ 营业执照 ┊ 触屏版
版权所有© 广州 All Rights Reserved 全国客服热线:400
违法和不良信息举报电话:400 举报/反馈/投诉邮箱:ucczc@qq.com