荆楚网(湖北日报网)主编舆情分析师 卢霜
9月26日,“三只羊”直播带货涉嫌虚假宣传事件终于有了结果,三只羊被罚款没收违法所得6894.91万元,并暂停经营限期整改。同时,此前流传甚广的涉“三只羊”卢某某的音视频,被合肥市警方证实不实,相关内容其实是利用AI工具伪造的。
此事中,相关造假音视频给事件热度推波助澜,凸显了AI新技术的发展应用给当前的网络舆论生态带来的新挑战。
在很多人后知后觉之前,AI已经融入了我们的生活。AI批量生产的图文在各大平台被大量浏览和转发,年轻人与AI谈恋爱,政务和商业服务咨询客服引入AI进行解答,企业招聘用AI来对面试者进行初筛……同时,AI在家居生活、交通、医疗、教育方面的应用也在逐步深入。但更值得关注的是,AI可能会影响我们的思想认知。分析发现,AI对舆论生态的塑造和影响可能包括多方面:
其一,生成内容可能误导认知。决定AI内容生成的语料库,也就是信息来源囊括全网平台,全网平台包括了权威信源,也包括了部分未经证实的自媒体信息,因而AI聚合生成的内容可能出现虚假谬误信息,乃至价值导向有偏的内容。日前,媒体曝光儿童电话手表否认南京大屠杀存在、称中国人最不诚实等事件,这些内容实则源自AI的回答。参考消息报道称,ChatGPT的计算在8%的情况下是错误的,它采取的按步骤解决问题的方法在42%的情况下是错误的。此外,智能推荐算法的普及应用,可能加剧群体的信息茧房效应,强化刻板印象和偏见。中国社会科学院发布的《青少年蓝皮书:中国未成年人互联网运用报告(2024)》指出,AI技术逐渐被广泛应用,潜移默化地影响未成年人的认知。
其二,助力虚假信息生成传播。AI技术低成本批量生成细节内容丰富、语言表述规范的文本,增加了内容专业性和可信度,助力虚假不实的图片和音视频生成,增加信息的真实感,给网络造谣和谣言传播提供了技术支持。如日前湖南省互联网举报中心通报,网民杨某运用AI技术将河水与杨梅果树图片拼接在一起,造成大雨涨水淹没果树的假象。逼真的画面导致部分群众信以为真,经网民广泛传播后引发恐慌情绪。
来源:网信怀化
其三,灌水黑产防治难度增加。AI技术还对原有的灌水黑产有加持作用。在AI技术还没出现前,因跟评内容雷同或与主题贴近度很低,网络“水军”较容易被识别,但AI技术能低成本生成个性化、相关性高的内容,为黑产公司“养号”打造虚假大V账号、个性化跟评转赞提供了便利,让制造、操控热搜的行为更加隐蔽、更具迷惑性,也增加了平台和有关部门监管的难度。近日,河南省新乡市公安局端掉了涉案金额达5000万元的特大“网络水军”犯罪团伙,其中花5万元“宣传费”就能登上热搜榜的现象背后,就有AI技术的加持。央视新闻也报道,发布“西安突发爆炸”虚假新闻的账号所属机构,利用AI软件批量造假,最高峰一天能生成4000至7000篇假新闻。
其四,内容应用影响信任度。AI生成的文本、视频和图片,因为内容系自动生成,没有花费过多精力,而天然被认为不够真诚,因为信源混杂,难以获取舆论信任,因为内容大而全,显得没有针对性。因而,AI技术的应用要充分考虑使用对象的角色定位和具体场景。类似问题实际上早已初现端倪。2024年年初,有博主反映成都爱益行公益服务中心某捐赠项目的链接中有三张照片都是AI合成,对此,涉事慈善机构“爱益行”声称此举是为了保护受助人的隐私。但媒体评论认为,使用AI合成照片进行网络募捐,影响了公益慈善活动的公信力。无独有偶,据环球时报报道,新加坡财政部使用了AI生成的照片配文,向民众介绍住在组屋的不同家庭如何从本年度财政预算中获益。尽管图片已标明“由AI生成”,部分网民仍质疑为何财政部不使用真人照片,甚至有人认为这些图片“看起来像诈骗广告”。
来源:极目新闻
对此,要限定AI生成内容的使用范围和场景,尤其在一些视真实性为生命的领域,如新闻报道、纪录片、学术论文等,要慎用AI生成的文字、视频和图片。同时,在一些关涉权威性和信任度的场景,也要慎重,以免引发不必要的争议,乃至影响自身公信力。此外,还应加大源头监管和治理,应明确标识AI生成痕迹,加大技术和辟谣时效,加强公众AI素养教育。
与此同时,近日,大量低质量、AI生成的内容让互联网充斥垃圾信息的现象引发关注,AI生成的内容不仅涉及文字、图片、视频、音乐、电子书、论文,甚至搜索引擎也被AI生成的内容所污染。一些缺乏对原创内容严格把关的平台,后续可能因为被AI污染而导致民众降低对其信任度,而那些连接虚拟空间和现实世界的工作会显得更加稀缺和重要,诸如新闻的采访报道、纪录片创作等。当然,这也侧面启示新闻机构在新闻报道和发布工作中要持续重视对内容真实性审核的环节。
专题 东湖观舆