CSIRO在澳大利亚未来的指导方针中促进人工智能的道德使用
7月15日 乔了了投稿 英联邦科学和工业研究组织强调,澳大利亚的人工智能发展需要有一个充分的框架,以确保在没有适当的道德考虑的情况下,公民不受任何影响。
数据61,CSIRO的数字创新臂,发表了一篇讨论论文〔PDF〕,人工智能:澳大利亚的道德框架,关于大AI提出的关键问题,寻求答案,回答一些问题,这些问题预计将通知政府在澳大利亚的AI道德方针。
CSIRO强调的是将指导框架的八个核心原则:它产生净效益、无损害、符合监管和法律要求、适当考虑隐私、拥有公平、透明和易于解释、包含对机器作出的决策提出质疑的条款,以及存在问责线索。
澳大利亚的口语座右铭是人人享有的公平待遇。确保澳大利亚社会中许多不同群体的公平将是富有挑战性的,但这对道德爱的核心是正确的,CSIRO写道。
CSIRO说,虽然透明度和AI是一个复杂的问题,但透明度措施的最终目标是实现问责制,但一些AI技术的内部运作并不容易解释。
即使在这种情况下,仍有可能让算法开发人员和用户承担责任,它补充道。另一方面,当公众利益受到威胁时,AI‘黑匣子’将AI的内部工作隐藏在秘密之中,这是不可接受的。
人工智能与企业未来
机器学习、任务自动化和机器人技术已经广泛应用于商业领域。这些和其他人工智能技术即将成倍增长,我们将研究组织如何才能最好地利用它们。
读更多
考虑到与人工智能相关的法律和伦理问题的范围内没有任何适合的解决方案,CSIRO已经确定了九个工具,该工具可用于评估风险并确保法规遵从性和监督。
其中包括影响评估、审查、风险评估、最佳做法准则、行业标准、协作、监测和改进机制、申诉机制和协商。
考虑到数据在建设AI方面的重要性,CSIRO说,数据治理对于道德发展至关重要,并指出,发展人工智能技术的组织需要确保它们拥有强大的数据治理基础或其AI应用风险,违反隐私和或歧视法律,或被纳入不适当的数据。
它写道:AI提供了新的功能,但这些新功能也有可能以新的方式违反隐私条例。例如,如果人工智能能够识别匿名数据,这将对数据组织能够安全使用的数据产生影响。
因此,CSIRO说,组织应该不断在现有数据治理制度的基础上,考虑新的启用AI的功能,并确保它们的数据治理系统仍然具有相关性。
在确定与AI和道德操守有关的问题的一些关键方法时,CSIRO说,必须对自动决策进行加权的思考,并指出在自动决策系统设计阶段应采用以人为本的原则,还应考虑明确的问责链。
对于自动化系统做出的决定,必须有明确的责任链。问:谁负责系统做出的决定?它说。
在预测人类行为时,该框架强调,虽然AI不是由人的偏见驱动的,但它是由人类编程的,这可能会带来导致伦理难题的风险。
开发人员需要在编程AI时特别关注易受伤害、处境不利或受保护的群体,CSIRO说。完全透明有时是不可能的,也是不可取的(考虑隐私漏洞)。但总是有办法达到一定程度的透明度。
人力服务和数字转型部长迈克尔基南(MichaelKeenan)在一份声明中说,政府将利用该文件的调查结果和在咨询期间收到的反馈,制定一个国家人工智能伦理框架。
预计该框架将包括一套原则和实际措施,各组织和个人可利用这些原则和措施作为指南,确保其设计、开发和使用人工智能符合社区的期望。
另见:工党承诺人眼一旦当选,将监督自动化
联邦政府在四年内拨款2990万澳元用于人工智能和机器学习,并表示这将支持数字卫生、数字农业、网络安全、能源和采矿等领域的商业创新。
提交给CSIRO的报告截止于2019年5月31日。
为什么澳大利亚正在迅速发展一个以技术为基础的人权问题(TechRepublic)
人权倡导者呼吁澳大利亚政府在变革的时代保护所有人的权利,说科技应服务于人类,而不是排斥社会中最脆弱的成员。
Data61领导新的伦理人工智能研究所
非营利组织将研究如何解决人工智能系统显示的根深蒂固的偏见问题。
战场上的机器人:佐治亚理工学院教授认为人工智能可以发挥重要作用。
对RonaldCArkin教授来说,技术可以而且必须在尽量减少战争地区平民的附带损害方面发挥作用,但没有规定。
投诉 评论