关注我们
荆楚网

东湖观舆 | AI的病只有文科生能治?

发布时间:2026年04月03日16:11 来源:

东湖观舆1119.png


主编舆情分析师 卢霜   

AI正在加速融入我们的生活,但我们对如何跟AI相处,好像还是知之甚少。

近日,“AI大厂月薪3万疯抢文科生”的新闻,给我们如何更好地适应AI时代提供了一些思考和启发。据媒体报道,为训练大模型理解人类价值观,一些企业开设“AI叙事设计师”等岗位,明确要求具有中文、哲学等文科背景,月薪普遍高达3万元至5万元。在“文科无用论”已深入人心的背景下,文科生成为全球科技公司争抢的“香饽饽”引发了关注。欧洲科技公司DeepMind曾在官网上挂出一个岗位“AI伦理研究员”,年薪达12万英镑。硅谷“首席讲故事官”年薪高达30万至50万美元。

文科生到底有什么AI时代不可或缺的核心力量?

一方面,人文积淀、情感感知、价值判断成为稀缺品。AI能模仿人类的语言逻辑,写出流畅的总结、文案、代码和报告,甚至能模仿特定风格的文字,但它不懂语境、立场、价值和人心。在舆情分析中,文科生能从杂乱的网络言论中捕捉公众情绪,判断舆论走向,为政策制定提供参考;在公共政策研讨中,文科生能结合历史、文化、社会现实,平衡各方利益,让政策更具人文温度;在伦理判断中,文科生能立足人类共同的价值追求,界定是非边界;在叙事建构中,文科生能通过故事传递价值观,凝聚社会共识。AI让信息过载、真假难辨,所以迫切需要有人能解读信息、赋予意义、指引方向。

说到底,AI拥有的是标准化能力,它能精准无误地整理数据,甚至能比人类更高效地完成重复化的写作任务,但现实中有诸多无法量化的内容,需要我们的共情、审美判断、强化叙事、价值排序、复杂沟通、文化理解等“人文能力”才能处理。

另一方面,当AI制造伦理风险的时候,必须让文科生充当起社会“安全阀”。如针对AI偷声灰产泛滥,法律才能界定侵权的边界,明确声音权、版权的保护范围,划定侵权红线;面对AI造假,新闻学能坚守事实核查的底线,辨别真伪,引导舆论理性发展,避免虚假信息扩散;面对AI偏见、算法歧视等问题,社会学、管理学、新闻学等能深入探讨AI发展的伦理边界,为技术发展提供价值指引,调解AI带来的效率提升与社会公平矛盾,避免技术红利集中在少数人手中。

技术带来的混乱,最终需要文科来“收拾残局”。

文科思维成为AI乱象治理的良药,给我们带来多方治理启示:

一是技术看似没有立场,但很容易被流量、资本、灰产利用,导致内容生态失范,因而必须把人文价值、伦理底线、公共理性嵌入内容生产全链条。并且要改变出了问题再整改的治理思维,因为AI模型一旦训练完成、算法上线,偏见、侵权、失序的根就已经埋下,事后拦截成本极高。

二是要强化理性供给,利用算法将专业理性内容权重放大,真正实现用事实核查对冲虚假信息,用专业解读消解非理性情绪和认知偏差,用文化审美提升内容品位,用系统和整体治理思维替代“一刀切”诉求。

三是加强人文确权和评估,在危害评估上兼顾整体性,明晰法律边界,细化分级监管,实现精准治理,避免创作者的人格权、著作权被技术轻易掠夺,重建健康内容生态。

现在回看前两年甚嚣尘上的“文科无用论”,才能深刻感受到,时代的风一直在吹,并且其强劲程度前所未有。

专题:东湖观舆

【责任编辑:卢霜】