本文來源:時代周報(bào) 作者:何珊珊

人工智能科技倫理治理,迎來進(jìn)一步的審查和服務(wù)辦法。日前,工信部、國家網(wǎng)信辦、科技部等十部門聯(lián)合印發(fā)《人工智能科技倫理審查與服務(wù)辦法(試行)》,并落地施行。這項(xiàng)國內(nèi)首個專門的全流程 AI 倫理審查新規(guī),為狂奔的人工智能產(chǎn)業(yè)系上 " 安全帶 "。
當(dāng)前人工智能技術(shù)快速發(fā)展,由此帶來的算法歧視、深度偽造等倫理風(fēng)險愈加凸顯。這早已不再是實(shí)驗(yàn)室里的理論探討,而是切切實(shí)實(shí)的社會治理難題。從此前多部門發(fā)布的倫理指引,到如今更具實(shí)操性的審查辦法,國內(nèi) AI 治理正從 " 軟倡議 " 向 " 硬辦法 " 實(shí)質(zhì)跨越。
對包括大模型在內(nèi)的 AI 業(yè)態(tài)而言,維系監(jiān)管底線與鼓勵創(chuàng)新發(fā)展是一體兩面。簡言之,新規(guī)并非遏制技術(shù)創(chuàng)新,而是校準(zhǔn)創(chuàng)新技術(shù)應(yīng)用的方向,進(jìn)而保障產(chǎn)業(yè)長遠(yuǎn)健康發(fā)展。
此次新規(guī)就明確提及,為降低企業(yè)合規(guī)成本,人工智能科技活動實(shí)行相關(guān)登記、備案、行政審批等監(jiān)管措施且將符合科技倫理要求作為審批條件、監(jiān)管內(nèi)容的,可不再開展專家復(fù)核。
為精準(zhǔn)破解當(dāng)前人工智能企業(yè)倫理治理中存在的技術(shù)手段不足、標(biāo)準(zhǔn)規(guī)范不完善、治理工具匱乏等問題,新規(guī)還強(qiáng)調(diào)要強(qiáng)化風(fēng)險監(jiān)測預(yù)警、檢測評估、認(rèn)證、咨詢等服務(wù)供給,加大對中小微企業(yè)的支持和服務(wù)力度。
不過,生成式 AI 的爆發(fā)式普及,在帶來生產(chǎn)力革命的同時,也打開了 " 潘多拉魔盒 ",潛藏風(fēng)險不容忽視。
過去一年,AI 倫理風(fēng)險呈現(xiàn)出多點(diǎn)爆發(fā)、快速蔓延的態(tài)勢,其危害程度和影響范圍遠(yuǎn)超預(yù)期。以算法歧視為例,AI 大模型在招聘、貸款審批的初篩中可能出現(xiàn)性別、地域的偏見;個人數(shù)據(jù)隱私泄露事件頻發(fā),一些企業(yè)未經(jīng)授權(quán)爬取海量個人信息用于模型訓(xùn)練,也嚴(yán)重侵犯公民合法權(quán)益。
更值得警惕的是,有大模型廠商在商業(yè)利益的驅(qū)動下,模糊化技術(shù)應(yīng)用的邊界。部分企業(yè)為追求流量和用戶增長,對生成式 AI 傳播虛假信息疏于管理、誘導(dǎo)非理性消費(fèi);訓(xùn)練數(shù)據(jù)版權(quán)爭議愈演愈烈,一些作品未經(jīng)作者許可被用于模型訓(xùn)練,知識產(chǎn)權(quán)保護(hù)體系在 AI 面前遭受挑戰(zhàn)。此前由于缺乏統(tǒng)一的強(qiáng)制性標(biāo)準(zhǔn)和嚴(yán)厲的懲戒機(jī)制,導(dǎo)致違法成本遠(yuǎn)低于違法收益,難以形成有效約束。
據(jù)國家網(wǎng)信辦相關(guān)公告,截至 2026 年 2 月底,全國累計(jì)有 796 款生成式人工智能服務(wù)完成備案。當(dāng) AI 技術(shù)的影響力滲透到社會生活的方方面面,當(dāng)單個企業(yè)的技術(shù)決策可能影響千萬人的切身利益,單純依靠市場自發(fā)調(diào)節(jié)和企業(yè)道德自覺,已經(jīng)無法守住安全底線。十部門出臺強(qiáng)制性倫理審查辦法,正是對社會關(guān)切的及時回應(yīng),也是補(bǔ)齊 AI 治理體系短板的必然之舉。
此次新規(guī)最鮮明的特點(diǎn),是構(gòu)建了覆蓋 AI 研發(fā)、訓(xùn)練、上線、運(yùn)營、迭代、專家復(fù)核、監(jiān)督等全生命周期的倫理審查體系,用剛性制度劃定了技術(shù)應(yīng)用不可逾越的紅線。
不同于以往事后追責(zé)的治理模式,新規(guī)將倫理審查前置到研發(fā)階段,要求企業(yè)在模型訓(xùn)練前就必須完成數(shù)據(jù)合規(guī)性審查,并明確要求,從事人工智能科技活動的高等學(xué)校、科研機(jī)構(gòu)、企業(yè)等都須設(shè)立獨(dú)立的倫理委員會,企業(yè)必須為自身的 AI 決策買單。
這意味著,監(jiān)管的尺子逐步明確了邊界。訓(xùn)練階段必須先過數(shù)據(jù)合規(guī)關(guān),未經(jīng)授權(quán)、非必要、侵犯隱私的個人信息不準(zhǔn) " 喂 " 給模型;算法、模型、系統(tǒng)的設(shè)計(jì)要避免偏見歧視、算法壓榨,保障資源分配、機(jī)會獲取、決策過程的客觀性與包容性;運(yùn)營期間也要建立常態(tài)化監(jiān)測機(jī)制,違規(guī)內(nèi)容必須第一時間攔截處置。相當(dāng)于給 AI 的每一次成長,都裝上了可追溯、可叫停的 " 安全剎車 "。
自 2023 年 AI 浪潮以來,大模型行業(yè)在狂飆階段曾陷入 " 拼參數(shù)、拼算力、拼燒錢 " 的野蠻生長模式,大量企業(yè)扎堆做通用大模型,卻忽視了技術(shù)落地的安全性和倫理問題。這種低水平重復(fù)建設(shè)不僅造成資源的巨大浪費(fèi),也讓行業(yè)積累大量風(fēng)險隱患。倫理審查新規(guī)的落地,將加速行業(yè)優(yōu)勝劣汰,那些只追求流量、不重視合規(guī)的企業(yè)將被淘汰出局,而真正專注于技術(shù)創(chuàng)新和負(fù)責(zé)任發(fā)展的企業(yè)將獲得更大的發(fā)展空間。
與此同時,近期港股科技企業(yè) IPO 持續(xù)升溫,倫理合規(guī)、數(shù)據(jù)安全、算法備案等逐步成為硬性合規(guī)門檻。這清晰地傳遞出一個信號:相關(guān)業(yè)務(wù)合規(guī)已經(jīng)不再是企業(yè)的加分項(xiàng),而是生存發(fā)展的必修課。
對月之暗面、智譜、Minimax 等頭部大模型廠商而言,這場合規(guī)大考既是挑戰(zhàn)也是機(jī)遇。而對于整個行業(yè)來說,倫理審查制度的建立,將推動大模型從野蠻生長轉(zhuǎn)向精細(xì)化發(fā)展,從追求速度、規(guī)模轉(zhuǎn)向追求質(zhì)量和安全。
人工智能行業(yè)競爭激烈,企業(yè)需要在追求創(chuàng)新與達(dá)成監(jiān)管要求中做到平衡。但強(qiáng)監(jiān)管并不等于高負(fù)擔(dān),真正長效的治理,從來不是一味加壓,而是劃定底線、簡化流程、做好服務(wù)、降低成本,提高企業(yè)主動合規(guī)的意愿,從而實(shí)現(xiàn)良性發(fā)展。
技術(shù)本身沒有善惡,但技術(shù)的應(yīng)用必須有邊界。此次 AI 科技倫理審查新規(guī)的出臺,不是要放慢 AI 發(fā)展的腳步,而是要讓技術(shù)走在正確的軌道上。只有每一家企業(yè)都扛起倫理責(zé)任,人工智能才能真正成為推動社會進(jìn)步的強(qiáng)大動力,而不是懸在人類頭頂?shù)倪_(dá)摩克利斯之劍。