1. 引言
生成式人工智能技术的深度应用正将未成年人信息权益保护推向法治实践的前沿场域。未成年群体因认知判断能力发展阶段所限,难以全面评估智能技术应用场景中信息交互行为的法律后果,尤其在面对智能学习系统、算法推荐平台等新型信息处理模式时,其信息甄别能力与风险防范意识的不足,极易导致个人信息在数据采集、算法分析及商业应用等环节遭受系统性侵害。此类技术性侵害不仅直接威胁未成年人的人格尊严与隐私安全,更可能诱发算法歧视、数字身份异化等次生社会风险,对数字时代未成年人权益保护体系形成严峻挑战。
我国未成年人信息权益保障机制正处于规范建构与理论创新的关键阶段。立法层面已形成以《民法典》第1034条个人信息保护原则为统领,《未成年人保护法》《网络安全法》《数据安全法》等特别规范为支撑,配套《儿童个人信息保护规定》等实施细则的复合型规范体系,呈现出从基础权利宣示向场景化规制演进的特征。学术研究方面,尽管个人信息处理法律规制研究已取得突破性成果,但针对未成年人特殊保护场域的学理探究仍存在明显盲区。在生成式人工智能重构个人信息处理范式的技术背景下,亟需系统解构未成年人信息权益保护面临的三重困境——数据主体特殊性与技术中立原则的价值冲突、技术迭代速度与法律规制效能的制度张力、商业开发需求与儿童最大利益原则的规范失衡,进而构建兼顾技术发展与权利保障的法治化治理方案。
2. 生成式人工智能场景中未成年人数字信息处理的现状与挑战
在生成式人工智能蓬勃发展的当下,随着大数据分析等高新技术在我国的广泛应用,未成年人信息处理问题成为社会各界关注的焦点。虽然《中华人民共和国民法典》为未成年人信息处理提供了法律基础,《个人信息保护法》也强化了个人信息保护框架,但我国现行法律法规在生成式人工智能场景下仍存在诸多不足。具体而言,从系统性来看,专门性立法空白与法律适用断层,责任机制创新滞后于技术迭代速度;从适配性来看,未成年人信息分级保护制度粗放化,算法透明度与可解释性缺失;从有效性来看,刑事规制更侧重事后惩治,而民事救济难以消除侵权的影响。所以,我国尚未构建完善的生成式人工智能场景中未成年人信息处理法律规制体系,亟需加强专门系统性规范建设。[1]
未成年人作为心智尚未成熟的互联网用户群体,在生成式人工智能场景中,其数字信息处理面临新的挑战。施害主体范围从传统网络犯罪分子扩展到掌握先进人工智能技术的企业和个人,技术手段更新使侵害行为更隐蔽、犯罪特征更复杂,随着获取未成年人个人信息的成本降低、商业利益增加,其信息被滥用、泄露等风险显著上升。这些侵害行为严重损害未成年人的隐私权等基本权益,还会对其心理健康、人格发展及财产安全造成深远影响,使得未成年人信息处理问题成为亟待解决的社会和法律难题。
(一) 数字信息处理主体多元化
1) 智能服务提供者
在生成式人工智能时代,随着技术的飞速进步和未成年人对人工智能应用的高度依赖,众多智能应用与服务平台为吸引未成年人用户,不断开发符合其兴趣特点的功能和服务。这些平台通过嵌入吸引人的图像、音频、视频、互动游戏等元素,以及专为未成年人设计的智能穿戴设备和教育工具,虽为未成年人提供了丰富的学习与娱乐体验,但同时也带来了个人信息泄露的风险。智能应用与服务平台通过收集未成年人的使用习惯、偏好、位置信息等,运用先进的算法进行精准推送,甚至可能利用这些信息构建未成年人的数字画像,为不法分子提供了可乘之机,进一步加剧了未成年人个人信息的安全隐患。
2) 非法数据经纪商
尽管我国相关法律法规对个人信息保护提出了明确要求,但在实践中,一些智能应用与服务平台在提供服务时仍过度收集用户信息,包括未成年人的姓名、年龄、性别、家庭背景等敏感数据。这些信息一旦落入不法的第三方机构之手,便可能被用于非法牟利,如将未成年人信息倒卖给黑色产业链中的广告商、诈骗团伙等。这些第三方机构通过挖掘、整合未成年人信息,进行精准营销或实施其他违法犯罪活动,严重侵犯了未成年人的合法权益。
3) 数据分析企业
在生成式人工智能场景中,未成年人信息的处理与分析成为数据处理与分析企业提升商业价值的重要手段。这些企业通过对原始数据的深度挖掘、重组和优化,释放出数据的潜在价值。然而,未成年人信息的特殊性在于其较高的可识别性和关联性,使得这些信息在处理过程中更容易被泄露或滥用。数据处理与分析企业利用先进的算法和技术手段,对未成年人信息进行系统整合和归纳,以识别信息主体身份,并进一步挖掘其隐私信息。[2]这些信息一旦泄露,将对未成年人的身心健康、学业发展、社交关系等方面造成深远影响,甚至可能对其未来的职业发展、信用评级等产生负面作用。
(二) 数字信息处理手段隐秘化
生成式人工智能技术架构的持续演进正在催生新型个人信息处理风险。互联网服务平台完成从基础推荐系统向全景式数据交互系统的转型过程中,技术运营商基于《个人信息保护法》第13条规定的合法性基础,依托技术工具实施数据资源整合,这种技术赋能的商业实践在未成年人应用场景中呈现出显著的合法权益侵害特征:服务提供者通过精心设计的“数据–反馈”闭环交互机制,系统化实施未成年人敏感信息的梯度采集。[3]典型例证可见于智能教育领域,技术运营商在履行《儿童个人信息网络保护规定》第9条特别告知义务时,采用嵌入式数据采集模块(如学习行为跟踪系统)、模糊化知情同意界面(如游戏化隐私设置向导)等技术手段,突破《民法典》第1035条规定的最小必要原则边界。未成年用户因认知发展阶段限制,难以辨识《网络安全法》第41条规定的“明示同意”与“默示授权”的本质区别,导致生物特征数据、家庭关系图谱等核心隐私要素在“提升服务质量”的技术修辞下被攫取。[4]
(三) 数字信息处理风险扩大化
1) 被侵害主体范围广泛
现行法律体系下,《民法典》第16条虽确立胎儿特殊利益保护原则,但《个人信息保护法》尚未明确将胎儿信息纳入保护范畴。生成式人工智能通过医疗健康数据建模等技术手段,使孕检数据中的胚胎生物特征可被数字化重构,形成具有身份识别功能的“预生档案”。此类信息如果被商业机构用于胎教产品的精准营销,将突破《未成年人保护法》确立的“出生后保护”时间边界,因此需要通过司法解释拓展“未成年人”概念的时空维度。
2) 被侵害影响深远持久
《个人信息保护法》第51条要求数据处理者采取必要措施确保信息安全,但生成式人工智能特有的数据衍生能力,使未成年人的行为轨迹信息可以通过算法重构形成“数字孪生体”。[3]如未成年人教育平台的在线学习数据经关联分析后,可能被用于预测其职业倾向、信用评级等未来权益,这种“现时采集–未来损害”模式已超出传统侵权法的救济范围,需建立终身数据可遗忘权制度。[5]
3) 被侵害空间边界模糊
根据《数据安全法》第36条确立的数据出境安全评估制度,未成年人信息的跨境传输应进行特别审查。但生成式人工智能的分布式学习架构,使得未成年人面部特征、声纹等生物信息可能通过联邦学习技术实现跨国界隐形传输。[6]如果未成年人信息在模型参数更新过程中被拆分传输至境外服务器,则规避了《个人信息保护法》第三章规定的跨境提供规则,暴露了现行监管框架对于技术性绕道行为的规制盲区。
(四) 数字信息处理目的商业化加剧
在生成式人工智能盛行的当下,数据信息已成为企业竞争的核心资源,蕴含着巨大的商业价值,能够为平台企业带来丰厚的经济回报。研究表明,未成年人在生成式人工智能场景中的应用主要集中在娱乐互动、在线学习以及教育游戏融合软件等方面,他们正逐渐成为智能互联网领域活跃的参与者,甚至可能涉足电子商务或智能广告活动。然而,由于未成年人群体在认知能力、信息处理及自我控制方面相对薄弱,其个人信息在处理过程中极易受到侵害。例如,在智能应用中,未成年人可能为了获取特定的服务或内容,而在平台的诱导下输入个人姓名、年龄、兴趣偏好、家庭住址等敏感信息。这些信息随后被大数据算法深度分析,转化为商业利用的工具,用于精准营销、用户画像构建等目的。[7]
综上所述,在生成式人工智能场景下,未成年人因心智尚未完全成熟、辨别能力及自控能力有限,加之个人信息处理主体多样化、手段隐蔽化等因素,其个人信息遭受侵害的风险不断上升。因此,我国亟需结合智能时代的背景,深入分析当前未成年人个人信息保护的现状与不足,并在此基础上提出切实可行的优化策略,以确保在推动数字经济健康、快速发展的同时,有效保障未成年人的个人信息权益不受侵犯。
3. 生成式人工智能场景中未成年人数字信息处理问题的应对策略
(一) 强化多元主体自律与监管
1) 行业从业者加强自律与监管
智能服务提供者等从业者应建立健全用户信息保护机制,明确告知未成年人及其监护人信息收集的范围、目的及保护措施,并采用加密技术保护数据传输与存储,定期进行安全审计,确保信息不被滥用。同时,政府与行业组织也应设立完善的监管机制,加强政府监管力度,开展定期的信息安全培训与检查,确保平台合规操作,对违规收集信息的平台进行处罚与整改,提高违法成本。
2) 打击与防范非法数据经纪商
政府机关应建立跨部门协作机制,严厉打击非法数据交易。要求智能应用与服务平台强化数据加密与访问控制,实施严格的数据生命周期管理。同时,通过公众教育提高未成年人及其监护人的信息安全意识,不轻易透露个人信息。设立举报奖励机制,鼓励公众参与监督。加强法律宣传,让未成年人及其监护人了解信息保护的重要性及措施。
3) 数据分析企业规范信息处理
相关数据分析企业应遵循最小必要原则,仅处理对业务必要的数据和信息,并建立透明的数据处理政策,向用户明确说明数据处理目的、范围及保护措施。采用去标识化或匿名化处理技术,降低信息泄露风险。有关部门应推动行业标准的制定,鼓励企业采用隐私保护技术,如差分隐私等,确保数据处理的安全合规,并对违规处理个人信息的行为进行严厉处罚。[8]
(二) 提升技术透明度与防护能力
1) 增强技术透明度与用户教育
技术运营商应公开数据处理逻辑与算法,提供清晰的用户界面说明数据收集与使用的具体情况。同时,加强对未成年人的信息安全教育,提高其隐私保护意识与能力,如开发易于理解的隐私政策与用户指南,并通过动画、游戏等易于理解的形式进行演示说明,使未成年人能够识别并防范隐私风险。
2) 强化法律监管与技术防护
行政部门需尽快完善相关法律法规,明确技术运营商的责任与义务,要求技术运营商采用先进的安全技术措施,如加密、访问控制等,保护未成年人信息不被非法获取。同时建立专门的监管机构,负责监督技术运营商的合规情况。还可以通过技术创新,如开发能够自动检测并阻止隐私泄露的技术工具等,进一步加强对于非法行为的防控。
(三) 拓展法律保护与数据遗忘权
1) 拓展法律保护范围与司法解释
通过司法解释或立法,建立胎儿信息保护的特别规定,将胎儿信息纳入个人信息保护范畴,明确“预生档案”的法律地位与保护要求,确保其在孕检等医疗活动中的安全。加强法律研究,根据技术发展不断更新法律条款,并及时开展法律宣传,提高公众对胎儿信息保护的认知与重视。另外,应对未成年人信息的跨境传输进行特别审查,建立严格的跨境数据传输审批机制,并要求企业采用加密、数据脱敏等技术手段,确保跨境传输中的信息安全。
2) 建立终身数据可遗忘权制度
为全面保护未成年人信息权益,建立终身数据可遗忘权制度显得尤为重要。这一制度旨在确保未成年人及其成年后,在特定条件下有权要求删除或匿名化处理其个人信息。通过此项制度,个人能够更好地掌控自己的数据轨迹,避免信息被长期滥用或泄露。为有效实施这一制度,也应设立专门的数据保护机构,负责处理数据遗忘的请求,并承担起监督企业严格履行数据遗忘义务的重任,从而全方位维护个人信息的安全与隐私。[9]
(四) 规范商业化利用与提升保护能力
1) 强化法律法规与行业标准
行政部门必须不断完善相关法律法规,明确禁止任何形式的未成年人信息商业化利用。还要建立严格的行业标准,引导并鼓励企业制定并执行高标准的信息保护政策。这些政策应规范企业在处理未成年人信息时的行为,确保其处理活动合法、正当且必要。此外,还需加大对违法企业的处罚力度,通过公开曝光典型案例,形成强有力的震慑效应,从而有效遏制侵害未成年人信息权益的行为。
2) 提高未成年人及其监护人的信息保护能力
应在学校、社区等场所广泛开展信息安全教育活动,通过讲座、培训等多种形式,普及信息安全知识。同时,技术部门和相关企业应积极开发易于使用的隐私保护工具,如密码管理器、隐私设置向导等,并大力推广这些隐私保护软件或服务。这些举措将帮助未成年人及其监护人更好地理解和应对信息安全风险,从而有效管理并保护个人信息。
4. 结语
在生成式人工智能的浪潮下,未成年人数字信息处理问题凸显,成为亟待解决的社会与法律难题。本文深入剖析了当前未成年人信息处理面临的挑战,包括法律法规的滞后、技术手段的隐蔽化、信息处理主体的多元化以及商业化利用的加剧等。这些挑战不仅威胁到未成年人隐私权等基本权益,还对其心理健康、人格发展及财产安全造成深远影响。
为应对这些挑战,我们从强化自律与监管、提升技术透明度、拓展法律保护、规范商业化利用这四个方面提出了应对策略。这些策略旨在构建一个全方位、多层次的保护体系,以确保未成年人在享受智能服务的同时,其个人信息权益得到有效保障。展望未来,保护未成年人信息权益仍需政府、企业、社会与个人共同努力。政府应加快立法进程,完善相关法律法规,为未成年人信息处理提供坚实的法律基础;企业应增强自律意识,建立健全的内控机制,确保信息处理的合法合规;社会应加强对未成年人的信息安全教育,提高其防范能力;个人则应积极维护自身信息权益,敢于维权、善于维权。
总之,保护未成年人信息权益是一项长期而艰巨的任务,需要全社会携手共进,共同为未成年人创造一个安全、健康、和谐的数字环境,让他们在智能时代中茁壮成长。