大家好,我是赛博红兔。视频中接受采访的年轻人叫杨海山(音译),他是明尼苏达大学正在攻读公共卫生学院博士学位的中国留学生。就在2024年8月,他因为涉嫌使用AI作弊被他的大学给勒令退学了。结果他也没惯着,直接把他母校给告了!这事儿一下子引爆了关于AI在学术圈使用的争议。可是当我们深挖下去,这件事情远没有这么简单,今天我们就来聊聊这件事。
我们接着说,杨海山攻读公共卫生博士学位前,已经拿到了一个经济学的博士学位。当时他正在摩洛哥旅行,通过远程方式参加博士学位答辩前的一场资格考试。在美国大学,我们管它叫Qualifying Exam,我之前也考过。那么,他系里的考试规定考生需要在8小时内回答三个大问题,而且属于开卷考试,允许参考课堂笔记、书籍和研究报告,但是明确禁止使用任何AI工具。当时,这个杨海山考完之后,自我感觉发挥良好。但是几周以后却收到学校邮件通知说他考试不及格。因为学校指控他在考试中使用了AI (具体的指ChatGPT),涉嫌学术作弊。 校方随后展开了调查与听证程序。四名阅卷的教授一致认为杨海山的论文答案在写作风格和内容上与ChatGPT自动生成的答案高度相似,而且明显不符合他的个人写作风格。我们来一起看看这几位教授给出的具体理由啊:
- 答案长度异常,相比最近的预备考试明显更长。
- 写作风格高度结构化(例如,使用标题、小标题和项目符号)。
- 使用了大语言模型常见的措辞。出现了两次 “in summary” (总结) 和一次 “in conclusion” (总之)。
- 与ChatGPT的输出内容明显相同或高度相似。
- 内容不符合健康经济学的标准,但在ChatGPT的输出中可以找到。意思就是,你回复我们的答案已经超纲了,我们没有教过你这些,那么有可能是GPT教给你的。
- 文章感觉“没有个人风格”,不像该学生以往的写作风格。
基于以上种种,负责审核的教授组认定证据充分,建议对杨海山予以退学处分。
可以想象啊,当时杨海山听到这个消息,肯定犹如晴天霹雳啊!本来以为答辩的机会要来了,结果没成想学位就这么没了。在听证会上,杨海山坚决地说我没有用AI作弊啊!他对这些指控进行了反驳:
首先一个是教授们翻查了他一年前提交的课程作业,发现在文档中留有一行他和GPT交互的提示语,翻译过来就是“重写一下,让它看起来更自然,就像是一个外国学生写的,但别太像AI生成的。”在教授们看来啊,这就说明杨海山平时有依赖AI改写作业的习惯。杨海山说,我真的是冤枉啊!我毕竟不是一个英语母语者,自然英语没办法和身边土生土长美国人相比。所以平时确实会用ChatGPT改改语法,让句式更漂亮通顺一些。但这场关键考试,我压根就没用AI,连备考的时候都没碰过!另外,教授们把当时考试的论文题目输入ChatGPT,发现AI给出的答案在结构、术语和行文上都与杨海山的答案相似。关于这点,杨也反驳了。他说,教授们在听证会上拿出的 ChatGPT 回答,其实是他们调整了好多次提问方式,还修改了至少十个地方,才让AI的回答看起来跟他的回答相似。换句话说,ChatGPT最开始的回答跟他的论文差别很大,教授们为了证明“相似”,不断引导AI去生成更接近他回答的内容,然后再用这个“证据”来指控他。然后是当时最有“科学性”的一个证据,学校还使用了AI检测工具GPTZero对杨海山的考试论文进行分析,结果显示他的答案可能包含AI生成内容。对于这个,杨海山也有话要说。他说,这个AI检测工具老不靠谱了,经常判断错误,甚至还会把完全人写的文本误判成AI生成的。最后,对于答案中专业术语较多,长度异常,而且超纲的质疑,杨就更好解释了,他说他在考前投入大量时间研读了相关文献和课程材料,熟悉这些超纲的知识和术语并不意外。
另外,他的导师,拥有40多年教学经验的资深教授布莱恩·道德(Brian Dowd)也下场为他背书。他导师名字很有意思奥,叫道德。道德教授写了一份声明说,他的这个学生,平时就是特别博学又勤奋。这次的指控根本站不住脚。学校应当采取更开放、更务实的态度去面对AI,而不是一味地去扣帽子。他甚至直接说,我教书几十年,从来没见过学院对哪一个学生表现出如此强烈的敌意。哎,这句话就比较耐人寻味了,我们一会再聊。
但是最后,明尼苏达大学方面并没有采纳这些异议。学校认为教授评委组的判断足以令人信服,他们选择相信教授们识别AI作弊的能力。于是,在2024年11月,学校正式开除杨海山。要注意啊,对于一位留美的博士来说不仅仅是开除学籍这么简单,同时意味着,你的职业规划全部报废,还会取消你的学生签证,短期之内如果拿不到别的有效签证就不得不回国了。在尝试了各种申诉无果的情况下,在2025年也就是今年的1月份,杨海山就把学校告上了明尼苏达州法院和联邦法院,指控校方教授滥用职权、捏造证据,侵犯了他的正当程序权利。他要求学校重新审核他的考试成绩,撤销退学处分,并公开道歉,同时赔偿总计57.5万美元,包括学业损失和精神损害。此外,他还对听证会上提交“误导性证据”的副教授汉娜·内普拉什提起了诽谤诉讼,索赔76万美元。有意思的是,在法律文件里,杨海山大方承认他在写这个诉状的时候用到了ChatGPT的帮助。还不忘阴阳一下明尼苏达大学奥:你们觉得我考试用了AI?行,那我现在光明正大用给你们看看!目前,这起案件还没有最终结果,明尼苏达大学也没正式回应。咱们也让子弹再飞一会。这个就是全球可能是首例因为AI作弊引发法律诉讼案例的全部过程了。
下面啊,我来谈谈我的一些看法啊。咱们先就事论事,其实从ChatGPT的兴起以来,全球的学术圈就一直紧紧地拥抱AI工具。小到英语语法修改像Grammarly之类的,大到蛋白质结构预测AlphaFold。AI可以说在各个专业无处不在,最近不是中国高校纷纷引入DeepSeek来推动AI教育创新。在学校里,你甭管允不允许吧,大学生们写作业、改论文、搜文献、找游戏攻略,自己都会去用AI,这已经是共识了。但是,反过来看学术界对于AI的使用又十分谨慎,尤其牵涉到评测性的或者公平性的问题,比如说考试、写论文之类的,甚至已有很多高校严令禁止用AI写论文。不是最近还有高校老师直接提醒说:如果用AI生成的作文,全部算0分嘛。理由很简单,越来越浓的AI味会断送学生们的独立思考和创新能力,威胁到考试或者评测学生时候的公平性。那么,问题就来了,学术界该如何去定义AI作弊呢?现在有的学校或者教授认为在考试或者作业中应该明令禁止使用任何AI工具,比如像这次明尼苏达大学这样的。另外一部分人还是认为,如果学生只是将AI当作辅助工具,比如说检查语法错误、润色一下论文,而非完全让AI代写,那么还是可以接受的。首先在这方面,缺乏统一的标准。怎么算AI作弊?按照什么标准去处理作弊?有些地方的规章制度还是朝令夕改的,非常模糊,容易产生灰色地带。
另外,更大的争议在于,你怎么去判断他用AI作弊了?现有的AI检测工具和手段,可以说,十分匮乏而且缺乏科学性和说服力。就比如说,现在用的最多的Turnitin AI Detection (我那会Turnitin还只是一个查重工具还没有AI检测的功能呢)还有前面说的GPTZero。有大量事实证明这些工具存在较高的误判风险。华盛顿大学的一项研究表明,Turnitin的AI检测在分析未使用AI的学生作业时仍给出了约25%的错误判定率,这就是所谓的”假阳性“,人家原创的东西你给错判成AI了。你就别说25%了,就算1%学生也受不了啊。就拿华盛顿大学每年提交的7.5万份学生作业和论文来说,1%的假阳性就意味着750份无辜的学生作业被误标为AI作弊。OpenAI官方以前还推出一款AI鉴别工具,后面因为“准确率过低”在推出仅半年后就悄悄下架了。除了“假阳性”,“假阴性”同样很高。学生只要稍加修改一下AI生成的内容、增加点个人风格,当前检测算法也难以判别。这意味着什么啊?真正动歪脑筋的学生可能轻松逃过检测,而诚实写作的学生反倒可能被误伤。我们再深入聊聊这个事儿。现在主流的AI检测器对非母语者写的英语文章,误判率居然高达61%!这到底是为什么呢?核心问题就在于,这些AI检测工具主要依赖一个叫“Perplexity(PPL)”的指标,说白了,就是看语言的复杂度。AI生成的文本通常用的是概率高、常见的词和短语,所以PPL值比较低。而人类写的文章更有语言的多样性和一些突发的表达,PPL值就相对更高。但问题来了,非母语的人因为词汇量和语法储备没那么丰富,写作的时候自然会用更简单的词和句式,结果PPL也低,就很容易被AI检测器误判成机器写的。换句话说,很多AI检测工具天生就对非母语者不太友好,甚至可以说是带着偏见的。说起来讽刺的是,现在大家一边在努力让AI伪装得更像人类,但一到考试、论文这些场合,又急着想把两者区分开。我觉得比误判更可怕的,是这些规则和检测算法的不透明、不严谨。正因为如此,检测结果就很难让人信服,规则的公信力也会大打折扣,最后搞得人人自危、怨声载道,哎反倒是那些投机取巧的人刚好可以转空子。
有人说,AI融入学术圈还在早期阶段,很多技术、法规还在摸索。那在这种情况下,各方不就更应该冷静、理性一点吗?就杨海山事件本身来说,明尼苏达大学的处理是不是过于草率了?首先,从证据角度来看,单凭AI检测工具的结果还有风格相似度,或者“这不像是学生能写出来的”这种理由就给人定罪,真的理性吗?前面我已经解释过了,校方所谓的“铁证”实际上都是糊弄小孩的。要真拿得出有说服力的证据,能不能整点硬货?比如学生考试用的设备使用记录,AI网页或者工具的访问痕迹,IP地址追踪之类的证据,甚至AI生成的独特“水印”。当然,这技术现在有没有还不好说,但至少得有点实际证据吧?别管别人用没用AI,你没这个能力或者权力,拿不出来这些证据,就别拿个鸡毛当令箭使了。对吧?要不就改成闭卷考试,或者出点技术争对性强的考题,让人谷歌、GPT、DeepSeek都查不到、回答不好的问题吧。这难吗?一点都不难!当年我考试的题,全是跟我研究的项目强相关的问题。我做的是多关节冗余机械臂,你倒是让GPT给我写个控制程序,让它真的按要求动起来看看?你让AI给我数学证明一下,它的控制算法能保证所有轨迹误差都收敛?做不到吧?自己出一些”大陆货“的题目,发现学生答得超纲了,就急了?这会要你宁杀错不放过了?奥,学校选择相信教授们识别AI作弊的能力。OpenAI自己都没搞清楚,这些教授都是天网派来的啊?
哎,说到这些终结者教授,其实这里面还有点儿故事呢!之前杨海山就提过,说这些教授可能会引导AI编织证据。他导师也纳闷儿了,说从来没见过学院对某个学生表现出这么强烈的敌意。那问题来了,这“敌意”到底是从哪儿来的?到底有没有影响到整个事件呢?杨海山本人提到,他跟系里的部分教授闹过矛盾,甚至一度被取消资助、被劝退学。这种不良纪录或许让某些教授对他持负面印象,在AI作弊怀疑上更倾向于“有罪推定”。再叠加他留学生的身份,难免有人对国际学生、非英语母语的学生带点偏见。我还去查了查,发现他系里确实有记录,因他在担任研究助理期间“表现不佳”和“发表不当言论”为由,撤销了他的财政资助。当时系里研究生主任当面告诉杨说:“要不你考虑退学吧?”但说真的,助教“表现不佳”这种事,哪儿都有啊。以我做助教那些年来看根本不是事儿,斯这句话好像说得不太对奥。反正就那个意思。哎但是“发表不当言论”,就很耐人寻味了,说了什么话?踩了谁的尾巴?触碰了哪些人的利益?难不成惹到研究生主任了?这就不得而知了。要真是这么回事儿,那杨海山确实挺可惜的。当时他说那些话之前,有没有想过自己的小命就捏在这些人手里啊?想想我那个时候就幸运很多啊,评委组里组长就是我导师,另外几位教授也都是我老板和我的好朋友,当然啦,我这个人人缘就这么好啊,几千个粉丝不是白来的!咳,扯远了奥,当然举贤避亲是非常公平、科学的做法啊。不过说真的,以我的判断,即便杨海山官司打赢了,这张博士文凭恐怕也难拿到,毕竟这铺子是人家开的嘛。对于他来说,幻景再恶终是梦,珍惜眼前始为真啊。但话又说回来,这个事到底是在讨论AI作弊,还是有人借题发挥、借刀杀人呢?哎,你们觉得呢?
好了,今天我们就先聊到这里,喜欢听我讲故事,给我三连支持一下。想听我在这系列节目里闲聊什么话题的记得在留言区告诉我。那么就这样,咱们下期再会啦!

Leave a comment