首頁 新聞 > 洞察 > 正文

人工智能向善需要邁過幾道坎?

日前,全國政協(xié)雙周協(xié)商座談會(huì)召開,關(guān)注人工智能發(fā)展中的科技倫理與法律規(guī)制——

引技術(shù)向善,馭智能之“火”

受新冠肺炎疫情影響,英國取消了A-levels考試(類似中國的高考)。英國教育部門同英國資格與考試監(jiān)督辦公室合作,決定使用算法自動(dòng)生成學(xué)生的A-levels成績。算法估分方案出臺之后,由于考生認(rèn)為所得分?jǐn)?shù)不公,最終英國政府不得不叫停了這一方案,回到由各校教師提供預(yù)估成績來評定的方案。

英國算法估分方案被叫停,可以說是一次影響廣泛的對“算法”的對抗,從一定程度上說明人工智能并非萬能,算法也會(huì)“失算”。

注重技術(shù)與倫理的平衡,通過多元協(xié)同治理確保“人工智能向善”,逐漸成為社會(huì)關(guān)注的焦點(diǎn)和人工智能產(chǎn)業(yè)健康可持續(xù)發(fā)展的關(guān)鍵。

人工智能向善需要邁過幾道坎?

據(jù)報(bào)道,有上班族反映,公司給員工發(fā)了一批智能坐墊,結(jié)果沒幾天自己就被公司的人事部門“盯”上了,被質(zhì)問為什么某個(gè)時(shí)間段不在工位上。沒想到坐墊上的數(shù)據(jù)不只員工自己手機(jī)可看,人事部門也看得一清二楚。有網(wǎng)友評論,“代入感太強(qiáng),已經(jīng)感到不適了”。

從公司智能坐墊、社區(qū)“刷臉”,到各類網(wǎng)站、手機(jī)App,個(gè)人信息泄露已經(jīng)成為普遍現(xiàn)象。雖然對此深惡痛絕,但個(gè)人想要切斷數(shù)據(jù)流,并沒那么容易。有人形容大數(shù)據(jù)時(shí)代的人為“有用的透明人”。人們每天有意無意地在互聯(lián)網(wǎng)上留下大量個(gè)人信息,人工智能技術(shù)將這些碎片化信息進(jìn)行整合,并在不同算法模型中調(diào)用這些信息,從而創(chuàng)造出價(jià)值。

“加強(qiáng)隱私保護(hù),應(yīng)當(dāng)是人工智能開發(fā)、應(yīng)用中的倫理道德底線。”重慶醫(yī)科大學(xué)校長黃愛龍說。上海眾人智能科技有限公司董事長談劍鋒提到,尤其需要保護(hù)的是不可再生性數(shù)據(jù),比如人臉、指紋、DNA等生物特征數(shù)據(jù),以及個(gè)人醫(yī)療檔案數(shù)據(jù)等。這些數(shù)據(jù)具有唯一性,是無法更改的,一旦被采集到不安全的網(wǎng)絡(luò)上,極有可能帶來災(zāi)難性后果。“必須提前設(shè)防,在使用規(guī)范上有更加嚴(yán)格的要求,防范各類風(fēng)險(xiǎn)。”

基于人工智能的發(fā)展特性,過于嚴(yán)苛的數(shù)據(jù)保護(hù)可能會(huì)阻礙其發(fā)展。如何兼顧數(shù)據(jù)保護(hù)和科技發(fā)展,是實(shí)現(xiàn)人工智能向善的第一道關(guān)卡。

人工智能的核心是數(shù)據(jù)與算法。眾所周知,算法正在以前所未有的速度滲透到我們的工作生活中,算法偏見、算法歧視也越來越被人們感受到。

算法偏見有其客觀原因,比如原始數(shù)據(jù)不完整或被污染;算法本身的局限性,有時(shí)算法過于復(fù)雜,難以及時(shí)發(fā)現(xiàn)其漏洞;設(shè)計(jì)者無意識的偏見或價(jià)值觀的偏差等。但算法的有意“歧視”更值得高度關(guān)注,比如那些進(jìn)行大數(shù)據(jù)“殺熟”的商家、傾向于給男性推薦高薪崗位的招聘網(wǎng)站等。由于算法的不透明和難以理解,有時(shí)候人們很難看出其中的歧視屬性。因此很多人在毫不知情的情況下,承受著各種微妙的歧視和精準(zhǔn)的不公。

如何通過技術(shù)升級和規(guī)范治理,最大程度消除算法偏見和歧視,是人工智能向善的又一道關(guān)卡。

除了數(shù)據(jù)保護(hù)和算法倫理,人工智能向善還應(yīng)考慮人工智能發(fā)展可能帶來或已帶來的社會(huì)問題,比如如何緩解人工智能可能加劇的不平等現(xiàn)象、如何平衡人工智能的發(fā)展與失業(yè)問題、如何防范人工智能犯罪、如何應(yīng)對人機(jī)交互式產(chǎn)品廣泛應(yīng)用對人類情感體驗(yàn)和家庭關(guān)系的沖擊等。

在中國社科院哲學(xué)所科學(xué)技術(shù)哲學(xué)研究室主任、研究員段偉文看來,對技術(shù)的倫理追問不應(yīng)僅關(guān)注已存在的價(jià)值沖突或被動(dòng)地等待倫理難題的出現(xiàn),而應(yīng)該積極地對其進(jìn)行前瞻性評估,全面權(quán)衡可能的倫理影響。技術(shù)倫理審度的關(guān)鍵在于揭示技術(shù)對世界、社會(huì)和未來的建構(gòu)中固有的不透明性,不斷提高洞察新技術(shù)及其運(yùn)作機(jī)制的能力,使其中可能存在的不確定性風(fēng)險(xiǎn)、不公正的情況乃至失控的危險(xiǎn)得以及時(shí)納入倫理辨析與考量之中。

“以技制技”成為共識

2020年,針對用戶反映強(qiáng)烈的App違規(guī)收集與使用用戶個(gè)人信息等突出問題,工信部累計(jì)巡查了4.8萬余款A(yù)pp,專項(xiàng)檢查了200余款A(yù)pp。目前巡查App采用的還是人工和技術(shù)結(jié)合的方式,巡查數(shù)量有限,且存在漏洞。App監(jiān)管需要?jiǎng)?chuàng)新治理方式,加強(qiáng)技管結(jié)合,持續(xù)提升App技術(shù)檢測能力。

據(jù)悉,工信部正加快推進(jìn)全國App技術(shù)檢測平臺建設(shè),通過線上線下、聯(lián)防聯(lián)控體系建設(shè),提升App自動(dòng)化檢測和處理能力。同時(shí),牽頭制定《App收集使用個(gè)人信息最小必要評估規(guī)范》等一系列標(biāo)準(zhǔn),為規(guī)范信息采集行為提供技術(shù)準(zhǔn)則。

在人工智能的治理與風(fēng)險(xiǎn)防范方面,法律規(guī)制必不可少,但實(shí)踐證明,光有法律不一定能起到應(yīng)有的效果。就個(gè)人信息保護(hù)來說,立法正在逐步推進(jìn),但由于違法成本低、監(jiān)管難度大、個(gè)人維權(quán)難等,個(gè)人信息泄露的問題并沒有得到有效的解決。

為此,黃愛龍?zhí)岢鰳?gòu)建“制度+科技”的治理機(jī)制。“以技制技”,以科技的力量助推人工智能治理,是專家學(xué)者和業(yè)界人士的共識。

新興技術(shù)一般具有高度專業(yè)化的特點(diǎn),人工智能更是如此。比如算法歧視的治理,最大的挑戰(zhàn)在于要搞懂算法并發(fā)現(xiàn)其潛在的歧視屬性。這就意味著,監(jiān)管部門需要提升理解、評估和治理算法歧視的能力,這對人才和技術(shù)都提出了很高的要求。

當(dāng)前我國人工智能技術(shù)的應(yīng)用已經(jīng)走在世界前列,傳統(tǒng)的事前監(jiān)管、行政命令等治理理念和方式已難以適應(yīng)技術(shù)的快速迭代,各類應(yīng)用場景快速涌現(xiàn),也增加了發(fā)展的不確定性。人工智能發(fā)展如何公平地服務(wù)于人類的公共利益,不侵害人類社會(huì)的公平與正義,需要不斷創(chuàng)新治理方式。業(yè)界呼吁敏捷靈活的治理措施,立法和監(jiān)管都應(yīng)把握合理的限度,要避免因矯枉過正而阻礙人工智能的創(chuàng)新發(fā)展。

不同國家之間人工智能相關(guān)標(biāo)準(zhǔn)的制定、開放平臺的搭建、合作共享框架的形成,對創(chuàng)新全球治理機(jī)制也提出了全新挑戰(zhàn)。全國政協(xié)社會(huì)和法制委員會(huì)副主任、公安部原副部長陳智敏認(rèn)為,我國應(yīng)立足先發(fā)優(yōu)勢,積極參與和引領(lǐng)人工智能治理國際規(guī)則制定,為構(gòu)建適應(yīng)人類命運(yùn)共同體安全發(fā)展需要的人工智能全球治理新規(guī)則新秩序新格局,貢獻(xiàn)中國智慧和中國方案。

用科技倫理確保人工智能正向應(yīng)用

科幻作家阿瑟·克拉克曾在小說中寫道:“任何足夠先進(jìn)的科技,都與魔法無異。”在人工智能技術(shù)高速發(fā)展的今天,我們的生活確實(shí)像被施了魔法一樣。但科技不是獨(dú)立于現(xiàn)實(shí)的烏托邦,科技能向善也能為惡。在全面增強(qiáng)人工智能技術(shù)創(chuàng)新能力的同時(shí),構(gòu)建多部門協(xié)同、多學(xué)科融合、多元主體參與的治理框架和工作體系,已經(jīng)是十分緊迫的問題。

深度合成技術(shù)可能引發(fā)政治風(fēng)險(xiǎn)、個(gè)人信息可能被竊取倒賣引發(fā)刑事犯罪、“數(shù)據(jù)投毒”會(huì)導(dǎo)致人工智能系統(tǒng)誤判……陳智敏指出,應(yīng)盡快建立數(shù)據(jù)安全保障、算法安全審查等制度,為人工智能發(fā)展形成正確價(jià)值導(dǎo)向和穩(wěn)定社會(huì)預(yù)期提供有力保障。

因人工智能的高度專業(yè)化、知識化和技術(shù)化,圈外人很難對其中的風(fēng)險(xiǎn)和不確定性進(jìn)行準(zhǔn)確判斷。為此,在科研人員中弘揚(yáng)“科技向善”理念顯得尤為重要。在諸多專家學(xué)者和業(yè)界人士看來,人工智能治理離不開科技共同體內(nèi)部的風(fēng)險(xiǎn)預(yù)警和自我反思。

我國人工智能治理目前已得到高度重視,取得可喜進(jìn)展。比如,成立由15個(gè)部門構(gòu)成的人工智能規(guī)劃推進(jìn)辦公室,統(tǒng)籌推進(jìn)包括人工智能治理在內(nèi)的任務(wù)落實(shí);在科技創(chuàng)新2030—“新一代人工智能”重大項(xiàng)目中,組織開展人工智能倫理和立法問題研究等。上海正積極建設(shè)人工智能綜合性研究機(jī)構(gòu),建設(shè)面向人工智能主流技術(shù)的算法評測標(biāo)準(zhǔn)體系和通用算法庫。同時(shí),加快制定醫(yī)療重點(diǎn)領(lǐng)域人工智能產(chǎn)品和服務(wù)責(zé)任認(rèn)定條例,開展人工智能產(chǎn)業(yè)發(fā)展監(jiān)管、人工智能數(shù)據(jù)安全等立法調(diào)研。

正如有網(wǎng)友寫道:“從鉆木取火的原始時(shí)代到計(jì)算機(jī)時(shí)代,人類一直走在學(xué)習(xí)科技、利用科技、掌控科技的路上,其間雖然走了一些彎路,但終究作出了一次次善的選擇,找到了正確的馭‘火’之術(shù)。”我們有理由相信,當(dāng)人工智能科技倫理得到越來越多的關(guān)注和討論,構(gòu)建出一套行之有效的人工智能治理規(guī)則將不再遙遠(yuǎn)。

關(guān)鍵詞: 人工智能 科技倫理

最近更新

關(guān)于本站 管理團(tuán)隊(duì) 版權(quán)申明 網(wǎng)站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2018 創(chuàng)投網(wǎng) - www.zzkede.cn All rights reserved
聯(lián)系我們:33 92 950@qq.com
豫ICP備2020035879號-12