零分Trader

AI手机时代的数据安全与隐私保护:端侧AI与云侧AI的技术挑战与法律风险

作者头像
分析师熊大 本文作者

2025-2-23 阅读 92 约 11分钟读完

评论0

随着AI代理“接管”手机屏幕,数据安全和隐私保护问题变得越来越复杂。尤其是当AI被“安装”到手机的两个“技术地图”中 - 终端AI和云侧AI时,它还涉及第三方大型型号,手机终端制造商,大型模型提供商和开发人员以及其他不同的业务实体。责任的生态模型和界限尚不清楚。

另一位专家引起了更深入的关注:在AI手机时代,移动电话制造商和应用程序开发人员将为用户权限竞争,并且当市场竞争从传统应用程序转变为领先者的领导者时,原始市场竞争模式将被重塑终端大型模型可能会涉及现有的反垄断法和反对竞争法所没有涵盖的问题。此外,当面对越来越了解自己需求的手机智能机构时,用户将不可避免地担心智能机构的“自动决策”。

智能,越开放,越危险

像任何基于大型模型的创新应用程序一样,AI手机功能的实现通常基于“吞咽”大量个人数据。尤其是在培训AI代理时,有必要连续收集,处理和分析各种用户信息,浏览习惯甚至生物识别数据以训练自动推理能力并实现自动决策。

“因此,隐私保护是所有商业故事的起点。”最近,一个行业内部人士在一个学术研讨会上提出了“ AI移动隐私危机:新秩序的安全挑战和选择”主题。

目前,AI手机主要基于三个开发路径:基于终端AI模型,自我开发的AI的终端云合作以及与第三方AI参与的终端云合作。

因此,AI手机生态系统包括移动终端,第三方模型,应用程序和云服务等参与者。与使用应用程序作为起点的传统手机不同,各种AI手机之间的数据安全责任和职责将更加复杂,并且要实现支持用户的数据安全解决方案的挑战将更大。

中国律师协会网络和信息法研究协会执行副秘书长周·胡(Zhou Hui并且从理论上讲,将数据传输最小化并避免将用户敏感信息上传到云。如果管理到位,这是一个“更私人”的解决方案。此外,由于端端AI设备相对独立,因此在本地完成算法更新和优化,从而使用户更容易检测和监督。

但是,终端大型模型能否真正意识到“锁定在手机硬件中的AI”,并使用户数据和隐私更安全?

行业观点认为,由于各方,用户以及结束,结束和应用的风险责任需要明确定义,因此需要改进当前的法律制度。

Shangyin Technology Co.,Ltd。的首席执行官张·伦佐(Zhang Renzhuo)表示,纯端侧模式可以在本地完全处理用户数据,并且其安全性相对可控。但是风险是,当第三方应用程序干预时,隐私保护的边界通常会变得模糊,这很容易导致数据滥用或过度收集。

多年来,北京Hanhua Feitian Xinan Technology Co.,Ltd。的总经理Peng Gen多年来从事手机方面的研究。他说,在AI手机诞生后,最初旨在帮助残疾人“打破障碍”的可访问权限正在成为AI手机中的“上帝模式”。 ,可以打破各种应用程序之间的沙盒隔离机制,并且具有极高的权限。 “便利也会造成更大的危机。” Penggen说,在可访问性模式下,AI电话的隐藏呼叫实际上可能会导致安全性和隐私风险,甚至可能被罪犯用作窃取用户信息的工具。

另一个不可否认的事实是,终端AI计算能力不如云那么好。一项调查显示,尽管手机制造商都声称其终端AI大型模型功能,但AI手机的所有功能的实现仍将依赖云端大型型号。

“为了获得较高的计算能力,强大的算法和其他功能,AI手机的主流模型仍然是End-Cloud的合作,这是将数据处理分配给本地和云。”张伦祖说。他以Apple电话为例,说Apple努力使用本地AI处理数据,但它也与私有云计算(Private Cloud Compute,PCC)紧密合作。

当用户数据通过模型移动到云时,如何加强云数据的安全性,与终端保持一致,并防止数据被滥用已成为数据安全和隐私保护领域的新挑战。

此外,AI手机数据交互边界的持续扩展也存在“硬币的前后”。

自出生以来,AI手机终端制造商就可以与第三方车型合作。例如,荣誉,三星和百度的合作,小米连接到大豆袋模型。例如,最近,许多国内手机制造商,例如华为,Honor和Oppo,已连续正式宣布访问DeepSeek-R1。

“即使是像苹果这样的技术巨头,在第三方AI方面,PCC的保护也有点不足,这只能确保数据预处理的安全性。尽管大多数手机制造商都会声称可以保护用户数据,但是这些语句通常,缺乏具体细节在许多不确定性和隐藏的危险中都隐藏了。

他认为,第三方AI模型通常需要访问大量用户数据,这进一步增加了数据泄漏的可能性。数据流在端侧,云和第三方AI之间很复杂,透明度较低,而且责任分配也是尚不清楚的,如果出现问题,可能很难承担责任。

“技术监督总是优先于法律监督”

中国信息与通信技术学院互联网法律研究中心主任他说,人工智能是一轮科学和技术革命和工业转型的战略技术,相关行业正在发展朝着新的阶段多智能集成。从当前的情况来看,AI手机的开发并不是完全赤裸裸的。

首先,现有的法律法规适用,需要遵循。他举了一个例子,“网络安全法”,“数据安全法”和“个人信息保护法”清楚地规定了处理个人信息的要求,包括知情同意规则,最低必要性原则等;在今年1月1日生效的“网络数据”进一步为涉及新兴技术(例如自动化工具和生成人工智能)的数据处理活动提供了特殊规定,这些技术可以用作AI手机的监管基础。

国际商业与经济学大学数字经济与法律创新中心主任Xun也认为,在现有法律法规的框架内,实际上对AI移动电话有很多监督。 “尽管在一定程度上,中国互联网发展的历史是不断破坏现有法律的历史,甚至无法实现过去十年,尤其是在过去的五到六年中,中国的互联网法律制度已经有了变得非常全面。

此外,他还提到我国家在新兴领域的监督“仍然非常及时”。无论是以前的区块链,算法建议还是生成人工智能,都在需求产生时立即引入相应的监管规则。

但是,由于AI手机涉及不同受试者之间的许多主题和数据流,因此很难将职责与每个链接区分开。他还承认,AI手机的诞生确实给监督带来了挑战。

他说,作为新的应用程序和新事物,目前,许多普通用户很难清楚地了解可能的安全风险,尤其是当用户信息被抓住并且启用隐私权时,很难清楚地了解安全风险。此外,尽管当前的隐私政策更详细,但对于普通用户来说,它更为复杂且难以理解。

更值得关注的是,一旦用户打开了Penggen提到的“上帝模式” - 可访问性权限,尽管手机系统会提醒您,但这些提醒通常只有一次,并且警告内容含糊不清,使其含糊用户很难真正了解其潜力。风险。当某些AI手机附带的内置应用程序权限高于普通应用程序的应用程序时,用户的“不敏感”将再次扩大。

“可访问性模式的核心问题是数据安全性和网络安全问题。首先,应首先由技术专家提出此安全问题,并负责解决该安全问题。”徐说,例如,建立可访问性许可是否形成了行业共识?在哪种情况下,它打开收益大于风险?在云数据交互模式下,如何在将云中的大型模型提炼为本地小型模型时如何制定技术标准?所有这些都需要由行业做出回应。

他认为,对于AI手机的算法治理,首先,数据和隐私保护的责任不能单方面地抑制用户;其次,技术监督始终优先于法律监督。

北京大学政府管理学院的教授Ma Liang注意到AI手机带来的另一个新挑战 - 市场竞争秩序的变化。随着制造商和应用程序越来越激烈地争夺用户权限,不可避免地会涉及定义,控制和优先级分类等问题。 “目前,迫切需要达成共识并探索合理的权力治理模型。”马·林说。

许可还引起了人们对市场垄断的担忧。他观察到,AI代理在手机中的作用变得越来越重要,这决定了资源分配的方式,并可能改变了传统的应用程序主导的模型。如果某些AI模型将来主导了市场,那么它可能会给市场竞争带来新的挑战,即使是现有的反垄断法和反对反对竞争法的问题。

此外,许可提示还说,即使是最聪明的AI代理人也需要添加“人类监督”的作用,也就是说,通过优化“人类在循环”(HITL)技术,我们可以实现人类和机器智能并通过“人类在循环”(hitl)技术实现人类和机器智能,手机AI代理的有机组合与现有法律相关联。目前,实现这一目标仍然需要更多的制度和道德思想,以打破僵局。

上一篇 2025年春运圆满结束:跨区域人员流动量达90.25亿人次,民航运输创历史新高 下一篇 科技板块加速上涨,科创50指数年内涨幅达10.7%,红利策略暂时被资金抛弃
评论
更换验证码