来自GoogleBrain、Intel、OpenA I以及美国和欧洲顶级研究实验室的研究人员本周联合发布了该组织所称的将人工智能伦理原则付诸实践的工具箱。 创建人工智能模型的组织的工具包包括支付开发人员在人工智能中发现偏见的想法,类似于安全软件中提供的bug奖励。

这项建议和其他确保人工智能的想法是在公众信任和考虑到社会福祉的情况下提出的,详见本周出版的预印论文。 作者说,bug赏金狩猎社区可能太小,无法创造强有力的保证,但开发人员仍然可能发现比今天所采取的措施更多的偏见。

“偏见和安全奖金将扩大bug赏金概念到人工智能,并可以补充现有的努力,以更好地记录数据集和模型的性能限制和其他属性,”该文件阅读。 “我们将重点放在发现人工智能系统中的偏见和安全问题的奖金上,作为分析和实验的起点,但请注意,也可以探索其他属性的奖金(如安全、隐私保护或可解释性)。

本周三发表的题为“走向值得信赖的人工智能发展:支持可验证索赔的机制”的论文的作者还建议“红色命名”,以发现缺陷或漏洞,并将独立的第三方审计和政府政策联系起来,以建立一个监管市场,以及其他技术。

人工智能偏见的概念最初是由合著者JBRubinovitz在2018年提出的。 与此同时,仅谷歌一家就表示,它已经向安全漏洞发现者支付了$2100万美元,而HackerOne和Bugcrowd等bug赏金平台最近几个月已经筹集了资金。

前DARPA主任ReginaDugan还倡导红色游戏活动,以应对人工智能系统中的道德挑战。 一个主要由著名的谷歌人工智能伦理研究人员领导的团队发布了一个框架,供组织内部使用,以弥补他们认为的道德问责差距。