欧洲将严格监管高风险人工智能技术

2020-02-21 09:39 来源:和讯科技

科学日报北京2月20日电(记者刘霞)据美国杂志《科学》网站19日报道,欧盟委员会宣布一项新计划,将颁布法律严格规范高风险人工智能技术,更新欧盟2018年人工智能发展战略,并在未来投资数十亿美元用于人工智能研发,以进一步推动欧盟人工智能产业的发展。

委员会将起草新的法律来管理人工智能技术的高风险应用,比如医疗设备和自动驾驶汽车。尽管这些法律将比欧盟以前颁布的任何法律更加广泛和严格,但欧盟委员会主席乌尔苏拉·冯·德·莱恩表示,这些法律的目的是促进“信任,而不是恐惧”。

与美国相比,欧洲对人工智能持更加谨慎的态度。欧盟官员希望通过监管赢得消费者的信任,从而促进人工智能技术的广泛采用,帮助欧洲在国际人工智能技术竞争中脱颖而出。

欧盟委员会指出,有一套准则来确定某些应用程序是否属于“高风险”应用程序。例如,它是否会导致人员受伤,或者它是否会导致人员在机器人决策中没有发言权(例如,人工智能用于招募或警察活动)。欧盟委员会希望高风险应用需要人工监管。

法律还将决定谁对人工智能系统的行为负责:使用人工智能系统的公司还是设计人工智能系统的公司。高风险应用必须被证明符合法规,才能在欧盟广泛使用。

此外,这些法律还将管理用于培训人工智能系统的大型数据集,以确保它们是合法购买和采购的。欧盟委员会反垄断专员玛格丽特·维斯塔格(Margaret Vestager)表示:“人工智能系统的可靠基础是强大而精确的技术。”

欧盟委员会表示将“对欧洲的人脸识别人工智能系统进行广泛讨论”。尽管德国等欧盟国家宣布了部署这些系统的计划,但官员们表示,这些系统经常违反欧盟隐私法,包括警察工作的特别规定。

新的人工智能计划不仅涉及法律法规,而且欧盟委员会还将提出一项“行动计划”,将人工智能纳入交通和医疗等公共服务,并将更新欧盟2018年人工智能发展战略,该战略计划投资15亿欧元用于人工智能研究。此外,欧盟委员会呼吁加大研发力度,包括建立人工智能“卓越和测试中心”,以及投资数十亿美元建立新的人工智能行业伙伴关系。

在接下来的12周内,专家、游说团体和公众可以就此问题发表意见。然后,欧盟委员会开始起草具体的法律法规。最终的法律和法规需要得到欧洲议会和成员国政府的批准。预计今年不会完工。