当前位置:首页 > 黑客教程 > 正文内容

欧美专家提议建立第三方机构以监管人工智能

访客56年前 (1970-01-01)黑客教程757

据英国《卫报》 *** 版近日报道,专家表示人工智能会做出严重影响人们正常生活的决定,因此应该建立一个第三方机构确保人工智能使用的透明度和公平性。人工智能的崛起已经导致计算机算法的数量出现爆发式增长,如今已被银行、警察局以及其他机构所广泛使用,但这些算法可以做出一些严重影响人们正常生活的决定。然而,由于科技公司向来对其算法的工作机制讳莫如深——避免其他公司抄袭——他们极少披露有关人工智能如何做出某些决定的详细信息。

人工智能的快速崛起

伦敦阿伦·图灵研究中心和牛津大学的一研究小组在最新报告中呼吁创建值得信赖的第三方机构,以便对人们认为做出错误判断的人工智能决定进行调查。根据现行法律,因人工智能失误而遭受损失的人可以提出挑战,但最新报告却发现这些法律并不能给人们带来有效保护。

根据英国《数据保护法案》规定,人们有权对人工智能做出的决定进行挑战。但与其他国家的企业一样,英国的企业无需公布他们认为属于商业机密的信息。在实践中,这意味着企业不必对人工智能的某个决定做出全面解释,只要描述计算机算法的具体工作机制就行了。例如,如果一个人申请信用卡被拒绝,他可能会被告知,算法充分考虑了他的信用记录、年龄和邮政编码,但此人仍然不清楚申请被拒的原因。

提高算法决策过程的透明度

2018 年欧盟成员国以及英国将施行一项新法规,对挑战人工智能决定的细则做出解释。《一般数据保护条例》草案以法律形式诠释了所谓的“解释权”,但最新报告作者认为,在去年获批的最终版本并未在法律上对这种权利做出任何保证。即便是建立了第三方人工智能监管机构,如何对算法的失误进行管理可能仍是一个难题。强制企业解释人工智能决策过程可能会引发 *** ,因为一些现代的人工智能 *** “基本上都像谜一样”,比如深度学习。

稿源:据 cnbeta 内容整理;封面与配图:百度搜索

扫描二维码推送至手机访问。

版权声明:本文由黑客技术发布,如需转载请注明出处。

本文链接:https://www.w-123.com/34892.html

“欧美专家提议建立第三方机构以监管人工智能” 的相关文章

SSLPing 开发者向广大用户致歉:服务积弊太久 已难起死回生

SSLPing 是一款相当实用的工具,在注册并添加了你的服务器后,它就会帮助检查证书、协议、密码和已知漏洞。从 SSL v3 到 TLS 1.2,对于一些大型服务提供商来说,如果未能在证书到期前妥善处理,后续的影响还是相当难以规避的。然而近日,这款免费工具的创作者正在发出寻求帮助的讯号。 (来自:...

美国在俄罗斯对乌克兰采取军事行动前已展开网络防御秘密任务

在俄罗斯对乌克兰采取军事行动的几个月前,一队美国人在乌克兰各地寻找一种非常特殊的威胁。据悉,其中一些小组成员是美国陆军网络司令部的士兵,其他人则是民用承包商和一些美国公司的雇员,他们帮助保护关键基础设施免受俄罗斯机构对乌克兰采取的网络攻击。 自2015年乌克兰电网遭遇网络攻击进而导致基辅部分地区停...

宜家加拿大分公司通报数据泄露事件 影响约 95000 名客户

当地时间5月6日,宜家(IKEA)加拿大公司表示已经将该公司大约9.5万名客户的个人信息数据泄露事件通报给加拿大的隐私监管机构。宜家(IKEA)加拿大公司在致受影响客户的一封信中表示,可能已被泄露的数据包括客户姓名、电子邮件地址、电话号码和邮政编码。 宜家加拿大公司已通知加拿大隐私专员,因为有95...

攻击者部署后门,窃取 Exchange 电子邮件

网络安全研究人员将该 APT 组织追踪为 UNC3524,并强调在某些情况下,该组织可以对受害者环境进行超过 18 个月的访问,展示了其 “先进 “的隐匿能力。 在每一个 UNC3524 受害者环境中,攻击者都会针对一个子集的邮箱,集中其注意力在执行团队和从事企业发展、兼并和收购的员工或 IT 安...

加密货币平台 Wormhole 遭黑客入侵 预估损失 3.22 亿美元

Wormhole Portal 刚刚遭遇了“桥梁”漏洞攻击,导致该加密货币平台损失了相当于 3.228 亿美元的 ETH 和 SOL 。问题源于以太坊区块链上的一个“智能合约”缺陷,别有用心的攻击者可借此将一款加密货币转换成另一种并跑路。 攻击后,失窃的加密货币资产已缩水至 2.94 亿美元。虽然...

FontOnLake Rootkit 恶意软件攻击 Linux 系统

网络安全研究人员详细介绍了一项新的黑客行动,该行动可能以东南亚的实体为目标,工具是一种以前未被识别的Linux恶意软件,该恶意软件被用于进行远程访问,此外还可以收集凭证和充当代理服务器。 该恶意软件家族被斯洛伐克网络安全公司ESET称为“FontOnLake”,据说具有“设计良好的模块”,可以不断升...

评论列表

语酌岁笙
3年前 (2022-06-19)

题。强制企业解释人工智能决策过程可能会引发抗议,因为一些现代的人工智能方法“基本上都像谜一样”,比如深度学习。稿源:据 cnbeta 内容整理;封面与配图:百度搜索

笙沉淤浪
3年前 (2022-06-19)

行调查。根据现行法律,因人工智能失误而遭受损失的人可以提出挑战,但最新报告却发现这些法律并不能给人们带来有效保护。根据英国《数据保护法案》规定,人们有权对人工智能做出的决定进行挑战。但与

慵吋邮友
3年前 (2022-06-19)

的具体工作机制就行了。例如,如果一个人申请信用卡被拒绝,他可能会被告知,算法充分考虑了他的信用记录、年龄和邮政编码,但此人仍然不清楚申请被拒的原因。提高算法决策过程的透明度2018 年欧盟成员国以及英国将施行一项新法规,对挑战人工智能决定的细则做出解释。《一般数据保护条例》草案以法律形式诠释了所

痴者欢烬
3年前 (2022-06-19)

“解释权”,但最新报告作者认为,在去年获批的最终版本并未在法律上对这种权利做出任何保证。即便是建立了第三方人工智能监管机构,如何对算法的失误进行管理可能仍是一个难题。强制企业解释人工智能决策过程可能

嘻友叙詓
3年前 (2022-06-19)

们有权对人工智能做出的决定进行挑战。但与其他国家的企业一样,英国的企业无需公布他们认为属于商业机密的信息。在实践中,这意味着企业不必对人工智能的某个决定做出全面解释,只要描述计

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。