美国提出国防部人工智能伦理使用的原则
2019年11月7日,美国国防创新委员会(DIB)发布了一份研究报告《人工智能原则:国防部对人工智能伦理使用的建议》,向美国国防部(DoD)提出了采用人工智能的原则清单,其中包含了用于作战和非作战目的的人工智能设计、开发和部署的伦理原则建议[1]。报告强调,需要增加对标准制定、劳动力计划和人工智能安全应用的投资。
报告指出,国防部使用人工智能系统的伦理原则应为:
1、负责。人类应进行适当的判断,并对国防部人工智能系统的开发、部署、使用和结果负责。
2、公平。国防部应采取深思熟虑的措施,避免在开发和部署作战或非作战人工智能系统时出现意外偏差,从而无意中对人员造成伤害。
3、可追踪。国防部的人工智能工程学科应足够先进,以便技术专家对其人工智能系统的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源、设计程序和文件。
4、可靠。国防部人工智能系统应该有一个定义明确的使用领域,并且这些系统的安全性和稳健性应该在其使用领域的整个生命周期内得到测试和保证。
5、可管理。国防部人工智能系统的设计和工程设计应满足其预期功能,同时具备检测和避免意外伤害或干扰的能力,并能实现显示意外升级或其他行为的部署系统的人工或自动脱离或停用。
在提出这些人工智能伦理原则的过程中,国防创新委员会已经确定了有助于阐明和实施这些拟议原则的有用行动。为支持国防部确定采用的确切原则,报告给出了12条建议:通过国防部官方渠道正式确定这些原则;建立国防部人工智能指导委员会;培育和发展人工智能工程领域;加强国防部培训和劳动力计划;加大对人工智能新安全方面研究的投入;加大对人工智能系统多机构再现性研究的投入;定义可靠基准;加强人工智能测试与评价技术;制定风险管理办法;确保人工智能伦理原则的正确实施;拓展研究以了解如何实施人工智能伦理原则;召开关于人工智能安全、保障和稳健性的年度会议。(高国庆)
[1] Defense Innovation Board Report on AI Features Ethics Principles Recommendations. https://www.ansi.org/news_publications/news_story?menuid=7&articleid=b102ad35-9ee3-471b-a2e9-daad3b8a420c