24小时黑客接单的网站

黑客业务,怎么找黑客,联系黑客,黑客服务,免费黑客服务QQ

提升数据安全,让人工智能更可信

京东探索研究院院长陶大成曾做过一个实验:在道路交通卡上贴一个小广告,结果无人驾驶系统误判,“由于缺乏可解释性,人工智能的应用和赋能也受到限制”。

这是“双面”一方面,利用机器学习等人工智能技术,可以实现数据识别保护、数据安全可追溯性等功能,提高数据安全保护能力;另一方面,人工智能也会带来过度收集数据甚至算法歧视等新的安全问题“数据投毒”等。

如何使人工智能更可信?在最近在上海举行的世界人工智能会议上,许多专家学者都密切关注这个问题,指出人工智能在数据和网络安全中不容忽视。

新安全问题不容忽视

虽然中国已经跻身世界人工智能第一方阵,但在人工智能的发展和安全方面仍面临着严峻的考验。

全国政协社会法律委员会副主任陈志敏指出,过度收集和非法使用数字信息可能侵犯公民的权利和隐私;算法偏好可能会加剧社会偏见或歧视,威胁公平正义。

信息被盗或盗窃可能会导致更严重的刑事犯罪。他列出了一组数据:目前,我国电信欺诈案件发病率较高,占部分地方所有刑事案件的一半以上,超过传统盗窃案件。

“机器深度学习很难理解人性的道德。例如,无人驾驶汽车紧急避险等智能决策可能会威胁到特定群体的生命。”他说。

计算能力、算法和数据是人工智能的三个要素,人工智能也导致了新的数据安全问题。国家工业信息安全发展研究中心副主任何小龙指出,人工智能算法对数据的依赖性很强,可能会带来“数据投毒”类似于新的数据安全挑战。

所谓数据投毒,是指在训练数据中添加伪装数据或恶意样本,破坏数据完整性,造成算法模型结果错误。“例如,原微软聊天机器人Tay就发布过歧视性和攻击性言论而被关闭,主要原因就是在对话数据集里面被恶意增加了不当的数据。”何小龙说。

二是样本偏差。基于基础数据集的多样性和代表性不足,人工智能算法会隐藏特定的社会价值倾向或偏见,产生不公平的结果。

越来越多的开源框架也造成了新的风险,“例如,对于主流开源架构的安全测试,我们在短时间内发现了24个安全问题,包括2个严重危险漏洞和8个高危漏洞。”何小龙说。

“事实上,人工智能应用带来了许多风险,包括其自身的计算能力和算法的脆弱性,以及人工智能在应用中的鲁棒系统在异常和危险情况下的生存能力)、可解释性和公平性。当这些新技术与原始业务相结合时,它们可能会给原始业务或系统带来巨大的系统风险。”上海市网络信息办公室总工程师杨海军说。

人工智能工智能?“定责”

“当人类将思维、控制甚至决策外包给算法时,人工智能首先要做的就是如何证明自己值得信赖。”云计算与大数据研究所所长何宝红表示,值得信赖的人工智能已成为全球共识。

那么,什么样的人工智能是可信的呢?根据不同的机构对此有不同的理解IEEE(电气与电子工程师协会)“透明性”,以正确的方式使用技术,以人为本,明确责任,造福人类;欧盟提出鲁棒、安全、人类监督干预、明确责任等。2017年底,何积峰院士在香山科学会议上首次在中国提出建议“人工智能可信”概念。

目前,世界各国不约而同地广泛关注可信人工智能。陶大程介绍,它汇聚成了四个主要的性能,从四个方面度量这个可信,一是稳定性,即人工智能系统在抵抗恶意攻击或者是环境噪声并且做出正确决策的能力;二是可解释性,就是人工智能系统做决策的过程中,需要用人能够理解的方式解释是怎么做这些事情的;三是隐私保护,即人工智能系统不会把个人的隐私信息或者群体的隐私信息对外泄露;四是公平性,就是系统需要公平公正,正确对待所有的用户,无论是针对大众用户还是小众用户,男人还是女人。

对于自动驾驶事故的复杂事件,也可以按照这个逻辑不断拆卸:系统问题,需要知道为什么,谁承担责任,如何承担责任等,需要有明确的指标,测量可靠的人工智能。

约翰,上海交通大学·霍普克罗夫特计算机科学中心副教授张拳石介绍,如果自动驾驶汽车发生碰撞,首先在确定责任之前,要了解系统的真实原因。为了避开另外两个人,可能有20%的原因可能涉及时间检测算法模块的错误,然后判断法官。

蚂蚁集团副总裁、首席AI科学家漆远表示,人工智能的公平性体现在许多地方。例如,一个非常重要的社会问题与包容性有关,即技术包容性和服务平等性。他举了一个例子:验证码最初是为了提高安全性,但它本身会导致视障人群无法使用,所以支付宝开发了空中手势;利用人工智能技术分类回收旧衣服,可以识别哪种旧衣服回收更多,给用户更多的能量,蚂蚁集团也承诺在2030年实现净零排放。

加强可信AI技术攻关

各国都在积极采取措施应对人工智能安全的挑战。在中国,从顶层设计的角度来看,最新颁布的《数据安全法》将于9月1日正式实施,为规范数据处理活动和确保数据安全提供法律依据。

此外,面对人工智能的重要领域,相关部门还提出了详细的管理规定和框架,并提出了有针对性的数据管理要求。

今年3月,中国人民银行发布了《人工智能算法金融应用评价规范》;2021年4月,工业和信息化部《智能网络汽车制造商及产品准入管理指南(试行)》,对各领域人工智能安全保护提出了相关要求。

目前,可信AI该技术已在反欺诈、反洗钱、反赌博、企业联合风险控制、数据隐私保护等多种风险控制场景实施。

何小龙建议,推动开展可信人工智能前沿算法攻关,围绕人工智能在不同场景应用,制定相关行业规范和技术标准。

微众银行、深圳星云等数据安全问题应运而生Clustar、一批隐私计算服务企业,如洞见科技。“隐私计算等技术赋能可信度AI,可以促进数据价值的可信流动。”科技董事长兼CTO王爽说。

可信AI不是一成不变的。陶大成提到,就像手机的出现一样,一开始大家都觉得很方便,但后来发现手机占用了我们太多的时间。同样,可信技术也会随着时间和空间的变化而变化。

   
  • 评论列表:
  •  颜于橘亓
     发布于 2022-06-12 15:16:33  回复该评论
  • 蚂蚁集团也承诺在2030年实现净零排放。加强可信AI技术攻关各国都在积极采取措施应对人工智能安全的挑战。在中国,从顶层设计的角度来看,最新颁布的《数据安全法》将于9月1日正式实施,为规范数据处理活动和确保数据
  •  鹿岛辞取
     发布于 2022-06-12 11:18:59  回复该评论
  • 能力和算法的脆弱性,以及人工智能在应用中的鲁棒系统在异常和危险情况下的生存能力)、可解释性和公平性。当这些新技术与原始业务相结合时,它们可能会给原始业务或系统带来巨大的系统风险。”上海市网络信息办公室总工程师杨海军
  •  掩吻猫卆
     发布于 2022-06-12 10:29:00  回复该评论
  • 京东探索研究院院长陶大成曾做过一个实验:在道路交通卡上贴一个小广告,结果无人驾驶系统误判,“由于缺乏可解释性,人工智能的应用和赋能也受到限制”。这是“双面”一方面,利用机器学习等人工智能技术,可以实现数据识别保护、数据安全可追溯性等功能,提高数据安全保护能力;另一方面,人工智能也会带来过

发表评论:

Powered By

Copyright Your WebSite.Some Rights Reserved.