难怪,人工智能使完成曾经被认为不在我们联盟范围内的任务成为可能。从控制交通到协助外科医生执行各种医疗程序,人工智能已经为自己开辟了一片天地。人工智能的监管方面一直是讨论的热门话题。就此而言,欧盟委员会最近通过了第一个关于人工智能的法律框架的决议。其目的是在许多领域对企业施加义务,包括生命科学(法规)。


根据该法规,人工智能被定义为“使用一种或多种[某些]方法和技术开发的软件,用于一组给定的人类定义的目的,包括内容、预测、建议或诸如可以产生输出的东西。影响他们与之互动的环境。”


最近出现的法律框架有一个明确的目标——确保对所提供的人工智能系统的信任程度。嗯,这还不是全部。还有更多。这 采用基于风险的方法。




 什么是基于风险的方法?

 基于风险的方法突出了不同的风险类别。 他们是 -




 > 不可接受的风险——这个词本身就很重要。 这是一种对个人的安全、生计或权利构成明显威胁的风险。 对这一切的威胁是非常不可接受的——因此得名。 如果发现一个系统对上述任何一项构成威胁,它就会被禁止。


 高风险 - 显然,风险因素很高。 就生命科学而言,某些情况确实如此——司法、安全组件和产品的类型、远程生物识别和人员分类等。 属于这一类别的所有 AI 系统都有一定的遵守义务。 他们之中有一些是 -


 1. 应向用户提供充分和明确的信息。


 2、采取必要的检查措施,减少误差。


 3. 检查密封性、安全性和准确性。


 4. 活动 通过登录跟踪结果。


 6.详尽详尽的文档。 进行充分的风险评估以更好地处理意外情况。 所有这些都适用于高风险人工智能系统的供应商以及包含高风险人工智能系统的产品制造商。 就分销商、进口商、用户和其他第三方而言,供应商应承担以下义务:




 1. 他们注册或修改现有系统


 2.他们在市场上有一个高风险的人工智能系统


 3. 他们以自己的名义将一个高风险的人工智能系统投入使用有限风险——这是人工智能系统非常清楚他们必须遵守的透明度义务的地方。 最小风险——这一类别是大多数人工智能应用程序的落脚点。 将其指定为最低风险的原因是应用程序对个人权利或安全造成的风险低于最低风险。 总之,监管一充分准备 在各个领域都有重要影响。 由于整个立法程序尚未完成,企业现在将不得不等待看看法规中如何规定这些原则。