(央视财经《天下财经》)当地时间21日,欧盟理事会正式批准了《人工智能法》,该法会根据不同风险等级的AI应用,制定针对性的监管标准。同样在21日,在韩国首尔,多家科技公司还就AI安全问题达成了一项国际协议。
当地时间周二,欧盟理事会正式批准了《人工智能法》。这是世界上第一部对人工智能领域进行全面监管的法律。比利时负责数字化的官员表示,《人工智能法》的通过对欧盟来说是一个重要的里程碑。
未来几天,《人工智能法》将在欧盟官方公报上公布,并在公布20天后生效。不过需要注意,法律中许多条例的生效还需要一定的时间。并且,目前市面上已有的生成式AI,例如OpenAI的ChatGPT、谷歌的双子座,以及微软的人工智能助手Copilot还将获得一个“过渡期”。从《人工智能法》生效之日算起,这些已有的生成式AI有36个月的时间来调整使其技术符合法律要求。
欧盟的《人工智能法》一大特点是侧重风险评估,这意味着它会首先评估某项AI技术对社会构成的威胁风险程度,风险程度越高,受到的监管会越严格。
并且《人工智能法》禁止那些被评估为不可接受的高风险AI应用,这一风险等级的AI技术通常会涉及汇总和分析公民数据,在工作和学校等场合对人群进行情感识别等等。
关于法律的影响,高盛接受CNBC采访时指出,目前的生成式AI技术,主要是由大型科技公司主导或者参与投资的项目,因此声誉风险对这些科技巨头非常重要。
美国高盛集团美国软件研究主管 卡什·兰根:企业会在技术的早期阶段就开始强调一些限制和监管措施,因为企业知道,如果违反了这些规定,产品将无法投入商业市场。
美国企业软件公司Appian的CEO还强调,现在大模型通常非常依赖数据进行训练,而新法则能帮助划清界限。
美国Appian软件公司首席执行官 马修·卡尔金斯:我认为现在是时候再次关注版权信息的合理使用问题了,确实需要一个明确的规则明确企业可以使用哪些数据。
值得关注的是,当地时间周二,在韩国首尔,多家科技巨头就AI安全问题还达成了一项国际协议。此次的人工智能首尔峰会由韩国和英国主办,包括微软、亚马逊、OpenAI等科技公司达成了国际协议,自愿承诺确保以安全的方式开发前沿的AI模型。
科技公司承诺,当触及到一些极端情况,例如自动网络攻击等情形时,如果不能降低风险,企业们就会主动叫停AI模型的开发。
免息配资炒股平台