Back to Blog

AI 时代的学术写作,工具、边界、品味与学科未来

一个做人文社科研究的朋友,带着一组关于 AI 使用的问题来找我。如何稳定使用国外 AI 工具,哪个模型更好用,AI 能不能帮忙整理材料,写论文时到底能用到什么程度,怎样降低幻觉,怎样减少「AI 味」,以及在 AI 已经进入学术生产之后,一个研究者还应当怎样保持竞争力。

我们聊了两个小时,发现这些问题其实都指向同一个更大的问题:AI 到底改变了学术写作的哪一部分,又把哪一部分变得更重要了?

我们目前达成的共识是:AI 正在迅速压低学术写作中程序性劳动的价值。查资料、归纳材料、生成初稿、改写语言、搭建结构、做初步审稿,这些过去需要大量时间的环节,正在被工具极大压缩。但这不意味着研究者消失了。恰恰相反,AI 越强,人的问题意识、判断力、品味、责任感,以及与真实世界建立关系的能力,反而越重要。

这篇文章是对那次交流的整理。我尽量保留他的问题路径,因为这些问题本身就代表了很多今天正在使用 AI 的研究者。

一、先把工具用稳定

很多人谈 AI,喜欢直接谈模型能力、学术伦理和未来趋势。但朋友最先提出的,是一个更实际的问题:很多国外 AI 工具并不好稳定使用,账号容易出问题,访问链路也不稳定。对许多研究者来说,AI 首先是一套很麻烦的基础设施。你想用它整理文献、处理材料、辅助写作,前提是你得先能稳定打开它、持续使用它,并且不被频繁中断。

这件事听起来不够学术,却决定了一个人能不能真正进入 AI 时代的研究流程。账户、网络、支付、稳定性和成本,看上去都很琐碎,但它们决定了 AI 对你来说到底是偶尔调用的聊天框,还是日常工作里可以反复试错、持续磨合的工具系统。

我的回应也很直接:我自己为了稳定使用 AI,付出了不低的成本。我会同时使用多个主流模型,不把判断完全押在一个工具上。对重要内容,我更倾向于让多个模型互相验证,尤其是在方案设计、数学推导、程序开发、论文结构这类高风险环节。单个模型再强,也会犯错。多个模型交叉使用,至少可以暴露一部分盲点。

所以,AI 时代的第一层差距,来自于基础设施。谁先建立起稳定、持续、低摩擦的工具环境,谁才有机会真正把 AI 纳入工作流。

而一旦工具真的稳定下来,最先被改变的,就是材料处理和初稿生成这些程序性环节。朋友所在的学科,经常要收集新闻文本、社交平台帖子、用户评论、访谈记录和图表材料,再进行分类、归纳、分析和阐释。过去这些工作非常耗时,而且很多环节本质上是重复劳动。他的直觉没有错:AI 确实可以大幅缩短这个过程。

但前提是任务要说清楚。你拿到的是什么材料,材料来自哪里,你想得到什么结果,你要它做主题归纳、情绪分类、观点聚类,还是生成一份可用于写作的材料综述?如果这些问题没有界定清楚,AI 给出的往往只是看似完整、实则空泛的整理。

在我的学科里也是一样。AI 可以生成论文草稿、实验方案、程序甚至是数学推导,但它会错,而且有些错误非常隐蔽。它让初稿变得便宜,却没有让判断变得多余。材料处理被压缩,不等于研究完成了;恰恰因为整理变容易了,研究者反而更需要知道自己到底要证明什么、解释什么、推进什么理解。

二、真正的边界,是谁负责

程序性劳动被压缩之后,最敏感的问题就出现了:AI 到底能用到什么程度?

朋友最纠结的,就是 AI 写作的边界。很多期刊和老师仍然明确反对 AI 写作,但很多人也已经在偷偷使用 AI:有人让它生成初稿,再自己改写;有人让它整理文献;有人让它写审稿回复;也有人直接让它生成大段论文内容。于是问题就变得很尴尬:什么算辅助,什么算代写?什么可以公开承认,什么又只能私下做?

比较谨慎的人,会让 AI 帮助生成一些学术化表达,但不会原样照搬,而是再用自己的语言重新讲一遍。一方面,这是为了降低「AI 味」;另一方面,也是仍然在意写作主体性:这篇论文到底是不是我自己的?

我对这个问题的判断比较直接:从技术上说,目前没有一种普遍可靠的方法,可以真正判断一篇文本是不是 AI 写的。所谓 AI 检测,更多是一种概率判断或风格判断,并不可靠。它可以被规避,也容易误伤。期刊当然可以提出伦理要求,但如果它无法验证,这种要求就更像道德约束,而不是真正可执行的技术规则。

但这并不意味着可以随便用。真正的边界,不该放在「来源」上,而应该放在「责任」上。如果你用了 AI,却没有理解它写了什么,也没有能力判断其中的错误,那问题就在于你放弃了作者责任。

在数学里,这一点尤其清楚。我们真正关心的,从来不是一段证明是不是 AI 起草的,而是结论对不对,证明能不能成立,读者能不能理解。如果有人借助 AI 证明了一个重要定理,只要证明是真的,可以理解的,它仍然是重要成果。数学共同体不会因为草稿里有 AI 参与,就自动否定它的价值。

但反过来说,AI 也会很快生成大量看起来像论文的东西,而审稿人需要花很大精力判断它到底对不对。如果研究者只是把 AI 生成的半成品丢给期刊和审稿人,等于把自己的责任转嫁给整个学术共同体。这已经不是工具使用的问题,而是学术生态的问题。

所以,AI 写作最重要的边界,在于「你是否真正理解、判断并承担了它写出的东西」。

三、「AI 味」可以修,真正难修的是不理解

朋友对「AI 味」很敏感。他提到,很多 AI 生成的文字有明显的机械感:句式固定,喜欢整齐对仗,形容词过满,语气像老套的学术腔。有些模型还特别爱用某几种转折句式,文章读起来很像机器拼出来的。更严重的是,在文科论文里,它经常会出现论证跳跃:从一个概念跳到另一个概念,中间的因果链条并没有真正建立起来。

他也很在意幻觉问题。在人文社科里,幻觉常常表现为 AI 编造不存在的文献,或者文献确实存在,但其中根本没有它声称的那个观点。这些问题近来有所改善,但并没有消失。AI 可能比以前更会找文献、更会引用,但它仍然需要人去核对。

我的回应是:单纯的「AI 味」不是最根本的问题。风格是可以训练的。你可以给它范文,规定句式,建立写作规范,甚至把自己的文风沉淀成一套固定的编辑规则。只要使用者足够熟练,AI 生成的文字完全可以摆脱那种常见的机械腔。而且,可以通过某些技术性的手段,让几个AI轮流互相检查,最终形成一个更自然的文本。

真正的问题在于理解。AI 很擅长模仿论文的外观,却不一定真正明白材料内部的关系。它像一个没有受过扎实训练、但很会模仿格式的人,赶鸭子上架写出了一篇论文。它知道论文应该长什么样,却不一定知道每一步为什么要这样走。

在数学中,这表现为隐秘的推导错误;在人文社科中,这表现为概念滑移、因果偷换,以及材料和结论之间的距离过大。它能把话说得漂亮,但漂亮不等于成立;它能把结构排得整齐,但整齐不等于有判断。

所以,降低「AI 味」并不难。难的是让文章有真正的判断,有材料的质感,有概念的准确性,有逻辑上的必要性。风格可以靠提示词修,理解只能靠人来做。

四、当过程变便宜,竞争就会前移

也正因为如此,AI 时代的竞争力,会从「谁更能熬」转向「谁更会看」。

朋友在交流里提到一个非常关键的判断:AI 出现之后,论文中的证明过程、材料整理过程、语言组织过程都会被压缩,但问题意识会变得更重要。他越来越觉得,选题本身比具体写作过程更关键。一个问题有没有价值,是否击中某种真实的人的处境,是否能打开新的理解,比机械地把文章写完整更重要。

这点在人文社科里尤其明显。很多研究都是从某种现实触动开始的:你看到一个人怎样使用 AI,怎样和 AI 产生依赖,怎样在虚拟关系里体验亲密或失落;你看到一个群体怎样被技术改变,看到一种新的情感结构和生活方式正在出现。这个触动不是 AI 能替你完成的。AI 可以帮助你展开论证,却不会替你在现实中被某个现象击中。

在数学里也是同样的道理。一篇数学论文如果证明的是一个很平庸的问题,即使证明过程完全正确,也未必真的有价值。真正重要的是,这个问题是否让我们更接近某个深层结构,能否去接近真理世界中属于数学的那个部分。努力当然重要,但努力不能替代问题本身的价值。

这就是 AI 时代最残酷的地方。过去很多人还能靠勤奋弥补问题意识的不足。现在,勤奋型流程正在被工具压缩。AI 可以帮很多人更快地达到「形式上过得去」的水平,于是差距会转移到更前端的地方:你能不能发现问题,能不能判断问题的价值,能不能把一个现象命名出来,能不能让别人读完之后意识到,原来这件事可以这样理解。

未来的学术竞争力,会在用了 AI 之后仍然知道自己在做一件有意义的事情。更具体地说,是知道自己为什么写这个问题,为什么选择这批材料,为什么这样解释,以及这篇文章到底把人的理解往前推了哪一步。

五、人文学科,仍然在回答「人的处境」

我对人文学科的理解,在与朋友的交流里逐渐变得清楚。我越来越确认,人文社科的价值不只是生产结论,而是不断描述和阐释人的生存处境。

时代一变,人就会遇到新的问题,产生新的情感结构,也会发展出新的关系形式。十年前,人们未必会认真讨论人和 AI 的亲密关系;今天,这已经成为现实经验的一部分。有人把 AI 当恋人,有人把 AI 当心理咨询师,有人把 AI 当朋友,有人把 AI 当成自我理解的镜子。

这些问题不是单靠数据就能穷尽的。它们需要研究者进入具体经验:去访谈,去观察,去阅读材料,去感受一个人说话时的犹豫、兴奋、羞耻、依赖和痛苦。朋友特别强调,田野中的气味、空间、人脸、语气、沉默和身体反应,这些细节不是模型坐在屏幕后就能得到的。

这正是我觉得人文学科在 AI 时代不会消失,甚至会越来越重要的原因。AI 可以帮你整理访谈,归纳主题,提出理论解释,甚至把材料写成很漂亮的论文段落。但它没有真正的具身经验,也没有真正的同情心。它可以模拟同情的语言,却没有被人的苦难触动过;它可以生成关于情感的段落,却没有亲自处在某种关系里。

朋友还区分了人文社科内部不同的研究类型。有些研究更偏量化,关注数据、变量、模型和统计关系;有些研究更偏社会学,需要访谈、观察和材料阐释;还有一些研究更偏哲学思辨,主要通过概念之间的推演来推进理解。这些路径对「人味」的要求并不相同,但都绕不开人的问题。

对传播学来说,这个问题还更复杂一点。AI 不只是一个新的研究对象,它同时也在改写研究者自己的工作方式。它正在改变内容生产、平台分发、用户信任、亲密关系、虚拟身份、公共讨论和情感表达,也正在进入研究流程本身,帮助研究者爬梳材料、生成编码框架、做初步主题分析、比较文本差异、整理访谈笔记,甚至辅助写作和审稿回复。

朋友给出的那些选题,本身就说明了这种变化的复杂性:有人和 AI 谈恋爱,有虚拟偶像与粉丝情感,有深度伪造内容在平台上传播,也有老年人与智能工具的初始信任,以及青少年在 AI 陪伴中的社会化过程。AI 不只是一个工具,它正在重新组织人与信息、人与媒介、人与他人、人与自我的关系。

当然,我研究的不是传播学,我也完全不了解这门学科。相反,我更需要从这个学科的人那里理解,传播到底如何被界定,什么样的问题才算它的核心问题。但有一点至少是清楚的:AI 已经不只是一个可以被研究的对象,它同时也是研究过程本身的一部分。

所以,传播学研究者不仅要研究别人怎样使用 AI,也得反过来审视自己怎样使用 AI。这才是朋友那个问题真正尖锐的地方:如果整个学术生产流程都被 AI 改写,那么训练、规范、写作伦理和学术竞争力都要重新理解。

在我看来,一篇好的人文社科文章,或许有时更像一件艺术品。它不一定像数学证明那样,在每一步上都完全客观可验证;它可能有主观性,也可能有可攻击的地方。但如果它提供了一个新的角度,让人更准确地看见自己、看见他人、看见时代,它就是有价值的。这说明人文学科的标准从来不只是形式正确,它还要求一种判断力:什么问题值得被看见,什么经验需要被命名,什么概念能真正击中现实。

六、数学面对的是另一种同样剧烈的冲击

朋友也反过来问我:数学是否真的那么容易被 AI 替代?他的疑问很自然。数学史上总有一些灵感性的突破,像某种突然出现的火花。如果 AI 只能在已有材料里训练,它能不能产生真正新颖的数学直觉?

我的回答是,数学中确实会有大量工作被 AI 替代,尤其是平凡的推导、计算、整理和推广。很多数学研究之所以存在,本来就是因为人类还需要花大量时间去补完细节。如果 AI 能把这些细节补完,许多普通研究的价值就会迅速下降。

但这不意味着数学本身消失。数学最核心的部分,不是把一个已知套路勤勤恳恳推到底,而是发现某些抽象结构之间意想不到的联系。真正重要的数学直觉,往往不是熟练劳动的线性结果,而更像是某些人天然更靠近那个抽象的真理世界。他们能看见别人看不见的结构,然后再用人类能够理解的语言把它说出来。

从这个意义上说,数学研究的未来可能不是被 AI 整体消灭,而是回到一种更纯粹的形态:少数真正有直觉的人提出关键问题和核心结构,AI 帮助补全繁重细节。对大多数普通研究者来说,AI 会成为一种强大的证明助手、计算助手和写作助手;但对真正原创的数学而言,人仍然需要决定什么结构值得研究,什么问题真正接近数学的核心。

朋友也提到,数学工作者让数学公式进入工程、统计、社会科学和技术系统,本身当然有价值。我同意这一点,但那已经不完全是纯数学本身,而是数学与其他学科结合之后形成的工作,这可能也是部分没有被上帝吻过的非天才,能发挥自己作用的地方。AI 在这些应用环节会非常强,因为它很擅长把已有工具迁移到具体任务里,但总归需要人来与他人进行合作。

所以,数学学科面临的冲击会非常剧烈。它会让很多平凡的劳动失去意义,也会让真正的问题意识和结构直觉变得更稀缺。人文学科面对的是「人还能不能被理解」的问题,数学面对的是「人还能不能看见数学真理」的问题。两者看似不同,其实都在问同一件事:当 AI 把流程大幅加速之后,人还剩下什么不可替代的能力?

七、未来不是端到端代工,而是重构工作流

回到最初的问题。未来的学术写作,不会是 AI 从零到一端到端代工生成一篇论文,而是研究者借助 AI 去重构自己的研究流程。

朋友的担心很有代表性:端到端生成出来的论文往往质量很差。它看上去有题目、有摘要、有结构、有文献回顾、有结论,但细节空、逻辑松、材料薄,甚至没有真正的问题意识。我感觉他的判断是对的。AI 目前还不能独立完成一篇真正合格的人文社科论文,也不能产出合格的数学论文。

但这不能推出「AI 不行」,只能说明使用方式不对。我们不应该期待 AI 像一个完整研究者那样独立完成所有步骤。更合理的做法,是把它当成一种新的研究基础设施,让它进入每个具体环节。

过去,计算器和计算机改变了数学、工程和科学研究。它们并没有让人类不再研究问题,而是让人类不必再把大量生命耗在繁复的初等计算上。AI 也类似。它不一定能替你提出最好的问题,但它能帮你更快尝试结构,更快整理材料,更快暴露漏洞,更快比较不同写法。

朋友用了一个很好的比喻:AI 像一匹马。有人骑上去,可以把马驾驭得很快;有人骑上去,只会被马带着乱跑。差别不只在马,也在骑手。研究者的训练、判断、学科素养和问题意识,决定了 AI 最后是帮你扩大能力,还是放大你的混乱。

所以,未来真正有竞争力的人,不是拒绝 AI 的人,也不是把一切交给 AI 的人,而是能把 AI 纳入自己工作流的人。他知道什么时候让 AI 生成,什么时候让 AI 检查,什么时候必须自己判断,什么时候必须回到原始材料,什么时候不能相信模型给出的漂亮答案。

八、最后留下来的,不是手工写作的优越感,而是人的责任

这次交流之后,朋友更确信了一件事:他使用 AI 辅助论文写作,并不是错的。真正的问题不是能不能用,而是怎么用,以及用到什么程度。他没有把 AI 当成替自己完成研究的代工厂,而是把它当成压缩材料处理、语言组织和初步论证的工具。他仍然要提出问题,判断材料,修正逻辑,承担文章最后的责任。

我也从这次交流里更清楚地理解了人文学科。以前我更习惯从数学的角度看研究:一个结论是否成立,一个证明是否可靠,一个结构是否接近真理。但在人文学科中,很多有价值的工作并不是把世界变成可验证的公式,而是把人的处境说清楚。它让一种模糊经验获得名字,让一个正在发生的社会变化变得可理解,让读者意识到自己身处其中。

或许我对数学的认知也能有所改变,更好的数学研究,不仅能让读者更接近真理世界,还能让人们普遍从中获益,而不是只让少数人看得懂。它也需要以人为中心。

AI 当然会继续变强。它会写得更像人,会更少编造文献,会更会模仿风格,会更擅长处理访谈、平台文本、统计数据和理论框架。很多今天看起来还需要人手工完成的环节,将来都会被半自动化。

但这不意味着人的退出。恰恰相反,当流程越来越便宜,人的责任会越来越集中。你不能再用「我很努力」来证明一篇文章有价值,因为努力本身会被工具稀释。你必须回答更尖锐的问题:这个问题值得写吗?这个材料可靠吗?这个解释推进了理解吗?这个结论由谁负责?

AI 真正逼出来的,正是这几个问题。

你到底看见了什么?

你为什么要把它写出来?

你愿意为这篇文章承担什么责任?