pp电子(中国游)官方在线平台







咨询热线:021-80392549

pp电子(中国游)官方在线平台 QQ在(zài)线(xiàn) pp电子(中国游)官方在线平台 企业微信
pp电子(中国游)官方在线平台
pp电子(中国游)官方在线平台 资讯(xùn) > 人工智能 > 正文

人工智能法规陆续推出,约束AI走向正(zhèng)规化

2020/02/27399

最近,全球的一些人工智(zhì)能各企业都很(hěn)关(guān)注AI的法(fǎ)规(guī),欧(ōu)盟也出了《人工智能白(bái)皮书》来(lái)监管AI市场。人工智能法规的陆续推(tuī)出,约束AI进(jìn)一步走向正规化 ,规避一(yī)些不法分子在AI上的不好想法来获利(lì)。

科(kē)技是把双刃剑,当人工智能技术大规模应用于(yú)社会时(shí),我(wǒ)们必须考虑它所(suǒ)带来的负面效果。

现代是一个文明(míng)社会(huì),大众除了(le)道德限制还有法律对自身行为进行约束,但开发者进行应用开发时(shí),是否考虑到输(shū)入给机器的数据是否符合(hé)“法(fǎ)规”,特别是近年来人机交互的数量急剧增加,从而使得(dé)AI监管问题(tí)的讨论变得更为(wéi)热烈。

感官的欺骗

视觉与听觉是我们对外界(jiè)感知的重(chóng)要窗口,大众的观(guān)念中普(pǔ)遍(biàn)认为“人的第一印象很(hěn)重要”“眼见为实,耳听为虚”。

但面对信息错(cuò)综(zōng)复杂的世界,如今眼见也不一定为实,听到的则可能更为虚假。曾经被议论(lùn)的Deepfake换脸技术就属于(yú)罪魁祸首之一,其利用了(le)AI深度(dù)学习功能(néng),通过数以亿计的(de)自我学习、神经网络训(xùn)练,AI能够识(shí)别(bié)出画面中(zhōng)那些和周围场景格格(gé)不入的部分(fèn),同时将其(qí)移走和生成缺(quē)失的(de)像素(sù),最(zuì)后重绘出部分(fèn)像素(sù)进行画(huà)面填补。

谷歌公司也曾推出WaveNet软件(jiàn),可(kě)以利用(yòng)其神经网络系(xì)统对原始音频(pín)波形进行建模,生成带(dài)有不同语气音(yīn)节(jiē)和情感表达的人类自然语(yǔ)言的音频。

外媒曾报(bào)道过一例案件,不法(fǎ)分子就利用(yòng)了类(lèi)似的AI技术,成功模仿(fǎng)了英国(guó)某能(néng)源公司CEO的声音,诈骗了220,000欧元,执法当局认为此(cǐ)种类案件(jiàn)的调查(chá)取证更为困(kùn)难。

AI道(dào)德准则

2019年,我国首次将AI造假音视频列(liè)入(rù)法规,国家网(wǎng)信办出台《网络音(yīn)视(shì)频(pín)信(xìn)息(xī)服(fú)务管理规定》。

对于利(lì)用基于深度学习、虚拟现实等(děng)新技术新应用制作、发布、传播非(fēi)真实音(yīn)视频信息的网络音视频:,应(yīng)当以显著(zhe)方(fāng)式予(yǔ)以标识,不得利用其(qí)制作(zuò)、发布、传播虚假新闻信息;网络音视频信息(xī)服(fú)务提供者应当部署(shǔ)应用违法(fǎ)违规音视(shì)频以及非真实音视频鉴别(bié)技术,应当建立健全辟谣(yáo)机制(zhì)。

日(rì)前(qián),欧盟也相(xiàng)继出台《人工智能(néng)白皮书》,对人工智能领域的投资监管路径设立双重目标(biāo),旨在推动道德和可信赖人工(gōng)智能的发展。并通(tōng)过建设“卓(zhuó)越生态系统”和“信任(rèn)生态(tài)系统(tǒng)”双重系统,构建一个(gè)卓(zhuó)越的、可信赖(lài)的人工智能体系框(kuàng)架(jià)。

近(jìn)日(rì),面对人工智能的(de)伦理 “红线”,博世在“博世(shì)互联(lián)世界大会”上发布人(rén)工(gōng)智(zhì)能技术的指导(dǎo)方(fāng)针《AI道德准则》,博世认(rèn)为(wéi)人工(gōng)智能是服务于人类的工具,任何可能对人造成影(yǐng)响的人工智能决(jué)策都需要人类的监管。

准(zhǔn)则中包含了三(sān)种(zhǒng)机制,它(tā)们遵守着(zhe)一个(gè)共同的(de)原(yuán)则,即博(bó)世开发的人工智能产品中,人类必须保留对人工智能所做(zuò)决策的最(zuì)终控制权。

第一种(zhǒng)机制为人工控制(human-in-command),它适用于人(rén)工智能(néng)只作为支持(chí)工(gōng)具出现的情况(kuàng)。例(lì)如,在决策支持系统(tǒng)中(zhōng),人工智能帮助人(rén)们对物体(tǐ)或生物进行分类。

第二种机制(zhì)为使用阶段(duàn)的(de)人为干预(human-in-the-loop),适(shì)用于(yú)人工智能系统(tǒng)可以自主决策,但人类可以随时干预的情(qíng)况。例如,驾驶(shǐ)辅助系统,驶(shǐ)员可以直接介入停车辅(fǔ)助系统的决策等。

第(dì)三(sān)种机制为设计(jì)阶(jiē)段的人为干预(yù)(human-on-the-loop),适用(yòng)于(yú)紧(jǐn)急制动系统等应用。开发此(cǐ)类智能产品时,专(zhuān)家将定义参数作为人工智能(néng)决策的基础,而人类不参与决策,由人工智能进行(háng)。

但是(shì)工(gōng)程师可(kě)以随时追溯(sù)检(jiǎn)查机(jī)器(qì)是否遵守所设定的(de)参数进(jìn)行决(jué)策,必要(yào)情况下(xià)可以修改参数。

面临的困(kùn)难

人工智能在应用层面(miàn)有逐渐完善的法律法规进(jìn)行约束(shù),但在实际(jì)的技术开发中仍(réng)面临着许多难以确定的细(xì)则(zé)。

数据标定没(méi)有(yǒu)统一标准:在机器学(xué)习中训练数据前都会对数据进行清洗和标定(dìng)。有时为了满足业务进(jìn)度的要(yào)求,不会进行全量全(quán)分类的处(chù)理。

准确的说(shuō),无法对数(shù)据进行严格而(ér)准(zhǔn)确的分类。这也是有监督学习类算法的缺点,就是针对特殊业务往往要进(jìn)行专(zhuān)门的数(shù)据标定,同(tóng)时算(suàn)法设计者自身存在(zài)价值偏见也会导致人工智能系统(tǒng)无法正常运行。

数据(jù)分析难(nán)全面:在准备训练数(shù)据时应容(róng)扩各类发生(shēng)的情况,AI在数据错误的情况势必会造(zào)成BUG,除了(le)掌握各类情况,仍要(yào)调整好处理各(gè)种情况的参数或系(xì)数,包括算法模(mó)型存在的技术性缺(quē)陷可能(néng)导(dǎo)致人(rén)工(gōng)智能系统无法正(zhèng)常运行。

模型成长环(huán)境差异:AI算(suàn)法模型的训练环境(jìng)对算法结果(guǒ)有(yǒu)重大影响,假设机器(qì)训练环境变得没有(yǒu)边界,各类数据都(dōu)被(bèi)机(jī)器学习,这将很(hěn)难保证机器(qì)会往着人类预想的方向发展,以及因为算(suàn)法日趋“黑(hēi)箱化”可能导致(zhì)技术失控等问题(tí)。

无(wú)论在技术或应(yīng)用方向(xiàng),都应(yīng)该(gāi)通过政(zhèng)策和法律引导,开展人工智(zhì)能算法安全的评估检(jiǎn)测(cè);推动技术伦理的算法导入(rù),要(yào)求(qiú)人(rén)工智能开发(fā)者设计(jì)高可解释性的智能系统;同时,加强智能(néng)算(suàn)法的透明监督,人工智能(néng)企(qǐ)业、行业应建立相应的算法监管体制,保持与政(zhèng)府监管的协(xié)同。

相信在人工智能法规陆续出台监管的路上,AI市场会越来(lái)越规范,符合市场的需求。

关(guān)键词:




AI人工智能网声明(míng):

凡资(zī)讯来(lái)源注明为其他媒体来源(yuán)的信息,均(jun1)为(wéi)转(zhuǎn)载自其他媒体(tǐ),并不代表(biǎo)本网站赞同其观点,也不(bú)代表(biǎo)本网站(zhàn)对其真实性负(fù)责。您若对该文章内容有任(rèn)何疑问或质疑,请立(lì)即(jí)与网站(www.longnan.14842.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网站将迅速给您回应并做处理。


联系电话:021-31666777   新闻(wén)、技术(shù)文章投稿(gǎo)QQ:3267146135   投稿邮箱:syy@gongboshi.com

精选资讯更多

相关(guān)资讯更多

热门搜索

工博士(shì)人工智能网
pp电子(中国游)官方在线平台
扫(sǎo)描二维码关注微信
扫(sǎo)码反(fǎn)馈

扫一扫,反馈当(dāng)前页(yè)面

咨询反馈(kuì)
扫(sǎo)码关注

微信公众号

返回顶部

pp电子(中国游)官方在线平台

pp电子(中国游)官方在线平台