AIGC对新闻伦理的冲击及规范构建
The Impact of AIGC on Journalism Ethics and the Establishment of Regulatory Guidelines
DOI: 10.12677/jc.2025.133049, PDF, HTML, XML,   
作者: 周 佩:北京印刷学院新闻传播学院,北京
关键词: AIGCChatGPT新闻伦理人机关系AIGC ChatGPT Journalism Ethics Human-Machine Relationship
摘要: 近年来,深度学习技术的突破使得AIGC在新闻领域的应用越来越广泛。AIGC可以自动生成新闻报道,大大提高了新闻生产的效率和质量。然而,AIGC的使用也引发了一系列新闻伦理问题,如真实性和客观性问题、隐私和信息安全问题、版权问题等。随着人工智能技术的快速发展,新闻报道领域也不可避免地面临着一系列伦理问题。本论文旨在探讨人工智能生成内容(AIGC)对新闻伦理所带来的冲击,探讨如何构建规范的AIGC使用准则,并提出相应的规范构建方法,以保障新闻的真实性、客观性和公众利益。本文采用文献综述和案例分析相结合的方法,通过对相关文献的梳理,总结AIGC在新闻领域的应用情况和伦理问题,通过对典型案例的分析,探讨AIGC对新闻伦理的冲击及应对策略。
Abstract: In recent years, breakthroughs in deep learning technology have significantly expanded the application of AI-generated content (AIGC) in the field of journalism. AIGC can automatically generate news reports, greatly enhancing the efficiency and quality of news production. However, its use has also raised a series of ethical concerns, including issues related to authenticity and objectivity, privacy and information security, and copyright. As artificial intelligence technology continues to evolve rapidly, the journalism industry inevitably faces various ethical challenges. This paper aims to explore the ethical implications of AIGC in journalism, examine how to establish standardized guidelines for its use, and propose corresponding regulatory frameworks to ensure the authenticity, objectivity, and public interest of news reporting. By combining a literature review with case analysis, this study summarizes the applications of AIGC in journalism and its associated ethical issues through a review of relevant literature. Additionally, by analyzing typical cases, the paper investigates the ethical challenges posed by AIGC in journalism and explores possible strategies for addressing them.
文章引用:周佩. AIGC对新闻伦理的冲击及规范构建[J]. 新闻传播科学, 2025, 13(3): 326-331. https://doi.org/10.12677/jc.2025.133049

1. 引言

AIGC即Artificial Intelligence Generative,指利用人工智能生产的内容,是人工智能技术持续发展的产物,预示着内容创作领域整体变革的可能性。2022年底,人工智能实验室OpenAI发布了一款名为ChatGPT (全称Chat Generative Pre-trained Transformer)的人工智能聊天机器人程序。ChatGPT是AIGC领域的一个典型产品,主要体现为人工智能在文本生成方面的应用。而新闻伦理是新闻生产和传播实践应该遵循的价值取向、专业规范和行为准则。新闻伦理不仅规定了新闻报道的价值与是非问题,也划定了新闻操作的规范与底线问题[1]

事实上,每轮技术革新,都将勾勒出一个新纪元,在AIGC时代,所有行业都值得用AI重塑,其中新闻业是受影响最为剧烈的领域之一。一方面,其受制于程序员圈定的生产逻辑、分发逻辑,AIGC给职业新闻生产者、传统新闻消费者、现行新闻管理者都带来诸多挑战;另一方面,AIGC的到来也会进一步推动了新闻业的底层运行逻辑、生产规则、新闻样态等方方面面的再造与重构。AIGC生产的优势在于,它可以实现快速的内容生产,并且可以根据关键词和数据分析制作出定制内容。目前,AIGC已经运用到了新闻媒体、金融服务、法律服务、医疗健康等领域。AIGC比如GPT-3、Bert等开放AI的模型,能够从海量的文本中学习并生成极为接近人类写作风格和内容的文章,包括新闻写作。然而,随着AIGC技术的应用,新闻产业正面临着前所未有的挑战。AIGC技术可以生成高度逼真的虚假新闻、误导性信息以及操纵性内容,这对新闻行业的伦理标准提出了巨大的威胁。这种技术的应用对新闻行业产生了显著的影响,与这种影响相悖的是新闻伦理面临的严重冲击。因此,本文以新闻伦理为切入点,梳理和分析AIGC等人工智能机器人对新闻伦理带来的冲击,并在此基础上探讨新闻行业及媒体面对这些冲击和挑战所进行的规范建构方法。

2. AIGC对新闻伦理冲击的原因

1) 技术驱动的新闻生产变革

AIGC以其高效、低成本的优势正在深刻改变新闻生产模式。传统新闻业依赖记者的调查、采访和编辑工作,而AIGC通过大数据分析、自然语言处理和深度学习,实现新闻自动化生产。这一技术的进步虽然提升了新闻生产效率,但也引发了一系列伦理问题,例如内容真实性、数据偏差和新闻价值观的削弱。

2) 经济利益驱动下的新闻自动化趋势

新闻机构在激烈的市场竞争和成本压力下,逐渐转向AIGC以降低人力成本。自动化新闻生产不仅减少了对记者的依赖,还能快速生成大量内容,以获取流量收益。然而,这种商业驱动的自动化趋势可能导致新闻业对深度报道的忽视,过度追求流量而牺牲新闻的社会责任。

3) 算法主导的信息传播模式

算法推荐在新闻传播中的作用日益增强,AIGC生成的内容通常由算法决定分发给用户。由于算法的黑箱效应,新闻的选择、呈现和传播方式变得高度数据化,削弱了新闻媒体作为公共议题把关人的角色。同时,算法容易强化信息茧房效应,导致用户只能接触与自身偏好相符的新闻,从而加剧社会认知分裂。

4) 监管体系滞后与法律空白

AIGC相关的法律和伦理规范尚未完善,对其内容真实性、新闻版权、数据安全等方面的监管存在空白。例如,人工智能生成的新闻作品是否享有著作权、虚假新闻责任应由谁承担、用户数据如何保护等问题尚未得到明确规定。这种法律的不确定性,使得AIGC在新闻生产中的伦理风险难以得到有效控制。

3. AIGC对新闻伦理冲击的具体表现

1) 记者职业边界的消解,导致行业主体性模糊

信息环境的数字化给新闻传播带来巨大变化,内容嬗变、载体重塑、渠道革新,新闻业的边界正在逐步面临消解。处于新闻业边缘或外围,不断挑战并拓宽新闻业边界的行动者有可能成为新闻生产主体。AIGC新闻生产以“量”取胜,可能产生大量看上去“令人信服”的内容而占领大众的注意力资源,而职业新闻人的生存空间受到挤压,职业行为的合法性边界逐步消解,职业媒体的传统新闻权威性可能进一步被削弱[2]

到了智能媒体的时代,新技术赋予用户生产权利“人人皆为传者”、“自媒体”大行其道。同时,机器作为主体参与的各种能达及人的智能传播活动都可以算作人机传播,机器自动化新闻生产、算法分发等也可以包括在内[3]。机器人写作、ChatGPT、AIGC等人工智能技术广泛应用于传媒业,在新闻报道方面,AI技术可以用于自动化新闻采集、分析和发布,代替传统记者的工作。如今,一些新闻机构已经开始使用AI机器人编写新闻稿件,这使得传统记者和编辑的职业边界变得模糊。此外,AI技术还可以用于新闻推荐系统,根据用户的兴趣和浏览历史推荐相关新闻,也使得新闻媒体的行业主体性变得模糊。

为了将AIGC、ChatGPT等智媒技术更好地应用于新闻业,新闻媒体开始积极寻求与外部一些大数据公司、人工智能公司等进行合作,新闻业务已不再局限于采、写、编、播、评这些传统业务,正在超越新闻,重建边界。例如,央视和亿赞普合作创作《数说命运共同体》,挖掘了超过1亿GB的数据分析发现一带一路沿线国家四十多亿百姓休憩相关的密切联系。AIGC技术的发展使得人工智能可以自动化地进行新闻撰写、翻译和编辑等工作,这些任务曾经是新闻从业者的专业领域。这意味着新闻从业者面临着来自机器的竞争,他们的职业边界逐渐模糊。

2) 数据偏差与把关质量降低,造成虚假新闻传播

学者彭兰曾言,新技术生产力的引入并不必然带来专业性的增强[4]。新闻业用智媒技术进入到了新闻业更深层次的决策领域,其中的数据误差也正动摇着新闻业的生命——真实性。冰冷宏观数据缺乏代表性,大样本不等于全样本,无法还原真实鲜活的现实世界,无法完全客观地反映现实情况,算法决策就难免有失公允。在AIGC广泛应用的当下,权力重新分配的传播秩序、新闻质量的把关、真实客观的缺位成为新闻业渠道之间需要解决的难题。

AIGC无法做到辨别真假,ChatGPT可能会产生虚假新闻或不合常理的回答,包括最新发布的GPT-4也无法做到完全准确[5]。而新闻媒体在社会中扮演着至关重要的角色,它们应该致力于提供真实、客观和准确的信息。有学者研究指出,在数字新闻生产和流通过程中,对“新闻真实”的探讨伴随新的新闻样态的出现而产生。当前,在数字新闻业,已经出现了媒介技术层面的“体验真实”、认知心理层面的“收受真实”以及权力关系层面的“协商真实”等新闻话语新构型[6]。从本质上讲,AIGC高度依赖的语料库本身就来源于鱼龙混杂、真假难辨的网络信息,虽然在人机交互的真实性模拟方面不断提升,但内容的真实性和准确性的偏差无法有效解决。

据《纽约时报》报道,美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,虚假信息的研究人员对ChatGPT提出充斥阴谋论和误导性叙述的问题,发现它能在几秒钟内改编信息,产生大量令人信服却无信源的内容。因此,AIGC新闻生产出来的看似一本正经的专业信息会加剧专业知识欠缺的大众在“信息过载”环境中的新闻获取行为产生对AI的依赖,可能形成习惯性接受,进一步增加大众对虚假新闻识别的难度。

3) “算法黑箱”遮蔽,“伪中立性”挑战伦理道德

在人工智能伦理方面,ChatGPT这样的AIGC的使用,引发了偏见、错误信息等问题[7]。智媒技术正剥夺着用户的被遗忘权,极其隐蔽的技术运作“黑箱”正侵犯着用户隐私,权力的狂欢让新闻业陷入了公信力危机。2018年中消协发布的《100款App个人信息收集与隐私政策测评报告》显示,在针对通讯社交、影音播放等10类共100款APP的评测中,多达91款列出的权限涉嫌“越界”。通过大数据、云计算对网络痕迹进行采集、挖掘后,大规模隐私被媒体“收割”,这无疑让用户担忧,并且控诉媒体。规范真空、权力隐忧是公信力危机的成因,新闻业理应警惕技术权力的失衡,不仅要他律,更要自律,才能打破信任危机。

AIGC为代表的智能技术的强势加入对新闻工作者的能力提出了更高的要求,新闻工作者正以此为契机,积极探索自身的转型,从单纯的新闻报道人转身成为新闻策展人,成为掌握技术的“超级记者”[8]。但是在如今过度追求流量和泛娱乐化的媒介生态中,一些新闻媒体为了迎合受众的猎奇心理和偷窥欲,获取更多受众关注,采用智媒技术制造一些有违新闻伦理的作品。例如《苹果日报》曾以动新闻的方式,还原父亲强奸女儿的新闻事件,违背了公序良俗,背弃了对新闻职业道德的坚守。

AIGC等智媒技术的运用重塑了新闻生产的流程,过去,新闻媒体所需要的消息大多依靠爆料、人工采集,再依靠记者编辑进行新闻作品的创作和发布。如今,基于传感器和大数据技术等,新闻生产开始转向数据处理和智能合成。但是仅靠技术而生产出的新闻作品,在叙事性、情感性和价值建构方面有着很大的局限性,由于其不具备人类所独有的思想情感和生活体验,难以完成一篇有温度的新闻报道,不仅挑战了伦理道德,也缺乏人文关怀,例如此前在对2019年四川宜宾地震系列报道中《封面新闻》小封所撰写的新闻内容就仅包括“速报参数”、“震中地形”等从中国地震台网抓取的客观数据,缺少了人文关怀[9]

4) 新闻著作权的模糊归属,引发信息传播失序

目前学界目前对于人工智能生成内容作品的可版权性尚无定论,由于人工智能创作物不是人的创造成果,其独创性有所欠缺且思想或情感的表达不足,有不少学者认为人工智能生成的内容作品不能被认定为受著作权法保护的作品。但随着AI被认为逐步具备一定的心智认知能力,在内容创作中必然也会有自己的心智贡献和创新,从著作权法鼓励创新的初衷来看,不少学者支持人工智能生成的内容作品具有一定的可版权性。因此,如何对其创作的心智贡献和可版权性进行有效界定,对整个著作权概念的存在都将产生挑战。

5) 内容失韵丧失,炫技过度下新闻价值漂移

新闻信息流转环境被以ChatGPT为代表的人工智能技术不断解构时,传统的新闻场域内部的研究路径显现出不足[10]。批判学派学者本雅明认为,机器的复制下,艺术作品的“灵韵”会丧失。在AIGC风靡的智媒时代下,部分媒体过于注重新闻的呈现方式,难免陷入史安斌教授所说的“追逐亮点综合征”,过度追求工具理性反而丢失了新闻讲故事的内核,导致新闻价值的漂移。对于技术的过度追逐会产生一些不利影响,据哈弗尼曼新闻实验室发布的一份报告,当前西方新闻业过度迷恋技术将面临患上“技术依赖综合征”的风险,其主要症状包括对人工智能的固守,对ChatGPT和AIGC等技术的倚重[11]。过度追求技术和形式上的创新。此前《光明日报》的报道神器“钢铁侠”在两会报道中因过度看重技术,忽视了对重点内容的关注,被质疑为“过分炫技”。

AIGC技术的应用在新闻业尚未成熟,技术和媒介只是简单的“相加”而非“相融”。许多媒体仅因对新形式的追捧,并未深入探寻其内涵,便加入到了智媒时代的狂欢中。其结果是只注重形式的外化,忽略了内容的表达。某些H5新闻只是简单的手指点击,并非深入互动和创新结合,导致流于形式。智能媒介正陷入阿多诺所说的“文化工业”当中,新闻产品的“标准化”和“伪个性化”凸显,通过模仿、机械复制、流水生产,使本应新颖的产品桎梏在了窠臼之中。新闻业应突破局限,更新理念,深耕内容建设,作出并非临摹而是创造的新闻,回归新闻价值本位。

4. 应对与变革

1) 以人文情感巩固人类价值

所有的伦理危机,最终指向的都是人类对自身价值定位的模糊。AI绘画在实际工作中对人类插画师的取代、ChatGPT背后的从事着低价值工作的数据标记员、人工智能全流程新闻生产与真实的“新闻劳工”,人工智能对人类在工作中的替代性使得人们对自我价值的不确定。在这种背景下,人类本身的人文情感、道德伦理,是同机器最本质的不同。因此,用人类视角对机器的行为、输出的内容进行把关、引导和训练,成为人机关系中的掌舵者,是未来人机互动的关键。而在人工智能时代挖掘并巩固人类价值,是应对AI带来的伦理危机最根本的措施。

2) 以溯源核查揭露深度虚假

剑桥词典公布的2023年度词汇是Hallucinate。当这个表示“幻听,产生幻觉”被放到当前智能时代背景下时,它指向的正是AI带来的真实性危机:社交机器人散播虚假的政治倾向导致“脱欧”等黑天鹅事件、ChatGPT生产出的“杭州取消限行”等虚假新闻也进一步暴露了深度造假对人们生活最切实的干扰。当下,对网络中热度、争议度较大的信息进行技术性的溯源核查,并利用平台限流和AIGC标记限制虚假内容的传播,是解决深度虚假的有效方式,无论是国内的微博、B站、小红书还是国外的twitter、youtube,都会对可疑内容打上“疑似AI生成”的标记。

3) 以现实道德规范人机关系

人工智能的成熟意味着它正在作为一种新的生产主体介入到人类生活之中,人机关系之间也存在着伦理性危机。一方面,机器本身的无自主意识属性使得人在与之交流时缺乏将心比心、平等对话的“他者伦理”,“主–从”式的交流使得人的道德感有了减弱的可能,这在部分人刻意询问ChatGPT政治、色情等隐喻信息时便有所体现。另一方面,人工智能在情感、道德维度的缺失也导致了发布种族歧视言论、引导主人自杀等伦理危机。而针对当下存在的伦理危机,OpenAI对ChatGPT的道德训练在事实上有效地避免了AI对歧视、色情等道德性问题的回答;而及时落地人机间的道德法律规范,也是解决伦理性危机的重要措施。

4) 以版权保护平衡算力与创造

在ChatGPT受到人们广泛关注的同时,在线课程供应商https://study.com/的一项研究显示有89%的美国学生在使用ChatGPT写论文、完成作业;2022年由MidJourney创作的《空间歌剧院》获奖,也使得AI创作受到广泛争议。AI带来的创造性危机一方面体现在人类思维惰性下对AI创作辅助的过度依赖,另一方面表现为使用庞大算力进行的内容拼接对真实创作空间的挤压。AI超越人类的“创造力”来自于强大算力对可能结果的穷举,而用到的养料则是人类真实的创造。因此,进一步完善对数字内容生产的版权保护、利用NFT技术完善版权管理与法律条例,是保护并鼓励人类创造、规范AI算力边界的关键。

5. 结语

德国学者斯托伯尔总结了技术进化的三个阶段:首先是“发明”,其次是“创新”,最后是“制度化”,即形成文化。概括而言,“发明”是从无到有的创造,“创新”则是基于发明的利用和改进。就目前的情形,AIGC还处于发明阶段,并正在迈向与各个领域融合的创新阶段。从技术发展史来看,任何技术被社会所接受、采纳并真正发挥作用,都需要一个漫长的过程。我们既不能低估AIGC可能引发的变革,也不能高估变革实现的速度。无论在现在还是未来,这种存在于人文社科和科技领域的脱节都需要双方的共同努力才能搭建起桥梁。

智媒技术作为一种新生产力,正引发新闻业从生产到生态的多维变革。麦克·卢汉曾言:“我们盯着后视镜看现在,倒退着走向未来。”智媒技术对新闻业重构和解构的现有思考都无法摆脱现定媒介属性的局限。如此更应“跳出新闻业,从一个更高的地方去观察”[12]。在创造与威胁之间,走在时间之前,以“先天下之忧而忧”为传媒学者己任,在热技术下进行冷思考去警惕风险,挣脱桎梏。同时要呼吁“人”的回归,坚守新闻专业主义从而驾驭媒介,才能乘“媒”之风,披荆斩棘,迈向新闻业更好的未来。

参考文献

[1] 彭兰. 未来传媒生态: 消失的边界与重构的版图[J]. 现代传播(中国传媒大学学报), 2017, 39(1): 8-14, 29.
[2] 郑满宁. 人工智能技术下的新闻业: 嬗变、转向与应对——基于ChatGPT带来的新思考[J]. 中国编辑, 2023(4): 35-40.
[3] 彭兰. 从ChatGPT透视智能传播与人机关系的全景及前景[J]. 新闻大学, 2023(4): 1-16, 119.
[4] 刘涛. 融合新闻的三重伦理困境[J]. 教育传媒研究, 2020(6): 10-14.
[5] 郭全中, 袁柏林. 从GPT看AGI的本质突破: 传媒业新挑战与未来[J]. 新闻爱好者, 2023(4): 30-35.
[6] 彭兰. 未来传媒生态: 消失的边界与重构的版图[J]. 现代传播(中国传媒大学学报), 2017, 39(1): 8-14, 29.
[7] 陈昌凤, 张梦. 由数据决定?AIGC的价值观和伦理问题[J]. 新闻与写作, 2023(4): 15-23.
[8] 李敏, 谭天. 融合中转型: 从电视记者到新闻策展人[J]. 电视研究, 2016(8): 11-13.
[9] 陈荷. 机器人写作的应用现状与展望——以“封面新闻”机器人“小封”为例[J]. 中国广播, 2019(10): 62-65.
[10] 郭淼, 邓斐扬. 人机耦合: ChatGPT对新闻业的重塑可能[J]. 传媒论坛, 2023, 6(6): 9-14.
[11] 夏雨禾. “智媒化”语境中的新闻传播——对智能技术与新闻传播关系的思考[J]. 编辑之友, 2019(5): 13-19, 31.
[12] 于洋, 姜飞. 国际跨文化传播研究新特征和新趋势[J]. 国际新闻界, 2021, 43(1): 67-84.

Baidu
map