人工智能给社会、组织和个人带来了巨大的好处,但也带来了风险。 为了从人工智能(AI)中获得最大可能的利益,而不有意或无意地伤害人类,出现了关于人工智能伦理概念以及人工智能使用和开发的约束性规则的问题。为此,欧盟自2018年以来一直在尝试制定人工智能法规。无论如何,该法规具有开创性,因为它有望成为全球首个此类范围内具有约束力的法规。 人工智能的机遇和风险 人工智能的机遇是显而易见的:简化技术的使用、自动化、效率和安全性只是因人工智能而发生重大变化并将继续变化的一些主题。特别是自从 ChatGPT 发布以来,关于人工智能的真正炒作已经兴起。然而,ChatGPT也暴露了AI系统的弱点。如果您设置 ChatGPT 例如B. 对于各种主题的问题,人工智能经常会产生“幻觉”,并生成听起来似乎有道理的答案,但内容根本不正确。使用人工智能模型时的具体风险包括未发现的偏差、难以理解的决策以及模型和训练数据缺乏透明度。 欧洲人工智能法案的制定 为了应对上述风险,欧盟于 2018 年委托成立了一个高级别专家组,即人工智能领域的专家组,为人工智能的开发和使用制定道德准则。该小组在接下来的几年里出版了多本出版物。根据这些出版物中提出的概念,欧盟委员会于 2021 年 4 月提出了第一版《人工智能法案》。
《人工智能法案》的核心是
HLEG 发布的七项核心要求: 人类行动和监督的优先事项 技术稳健性和安全性 隐私和数据质量 透明度和可解释性 公平和减少偏见 社会和生态兼容性 问责制和责任 人工智能的定义 《人工智能法案》范围内的规定自然需要讨论。最大的问题之一是人工智能的 手机号码库 定义。人工智能该如何定义,才能让监管全面覆盖具有智能属性的系统而不至于过度?最终,经合组织对人工智能的定义的一个变体占据了上风: “人工智能系统”(AI 系统)是一种设计为以不同程度的自主性运行的系统,可以出于明确或隐含的目的,产生影响物理或虚拟环境的预测、建议或决策等输出。 与经合组织的联系尤其令人兴奋,因为由于欧洲内部市场的规模,欧盟人工智能法案的影响也将波及到欧盟之外。 基于风险的监管方法 欧盟人工智能监管的核心策略是根据应用程序的风险对其进行评估。根据风险类别,系统适用不同的要求。具体来说,存在三个按层次排列的风险类别: 不可接受的风险 该组包括对人权、安全和/或福祉构成具体风险的系统,因此从根本上禁止将其投放市场。
此类系统的例子包括社会
评分、限制获得基本服务的系统以及未经人群或个人同意而对其进行监视。 高风险 高风险类别包括虽然会带来特定风险但原则上不应禁止的系统。该分类基于特定标准,例如应用程序类型、个人数据处理、对安全和基本权利的影响以及透明度和可控性。该法规附件三中还列出了高风险系统清单,欧盟委员会可以随时扩大该清单,并且不需要任何进一步的议 阿富汗电话号码列表 会决定。严格的要求适用于高风险系统,必须记录在合格评定程序中。 风险极小或无风险 满足以下标准的系统属于该风险类别: 不直接接触物理环境 没有重大影响的决定 不处理敏感数据 没有用于监控 此类系统的示例包括客户支持中的聊天机器人、用于排序的图像分类(例如包含汽车、房屋等)以及用于听写的语音识别软件。 生成式人工智能 在欧盟人工智能法案的制定过程中,生成式人工智能获得了广泛的欢迎。这些是人工智能,例如B. 生成图像、文本或音乐。为了公平对待此类人工智能,引入了透明度要求,特别是在训练数据方面。 进一步课程 该法规目前正处于试行阶段。谈判由理事会、委员会和议会进行。该法规预计将于 2026 年在全国生效。 自我评估 开发人员已经有机会检查人工智能应用程序的合规性。