摘要:天生式人工智能技巧的迅猛成長給監管者帶來了科林格里奇窘境。在窘境的風險正面,天生式人工智能技巧的風險日益具象化,表示為輸出層和暗藏層的個性風險與輸入層的特點風險,折射出行政監管與法令規制的需要性。在窘境的平安正面,過于追蹤關心平安的嚴苛式監管會反噬技巧立異的空間、傷害我國在進步前輩技巧範疇的國際競爭力。為了消解我國天生式人工智能技巧的科林格里奇窘境,應該確立靜態規制形式。起首,強化企業自治與行政監管都處於劣勢。后移并舉,以企業合規作為躲避技巧風險的第一道防地,行政監管退居第二道防地。其次,合規後果監管機制替換全流程行動監管,經由過程賞罰機制鼓勵與倒逼企業落實合規打算。最后,軟瑜伽場地法先行領導硬法完美,經由過程軟法的實驗性摸索為塑造我國體系性的人工智能法典奠基基本。
一、題目的提出
美國OpenAI公司發布的聊生成成預練習轉換器(ChatGPT,GPT是Generative Pretrained Transformer的縮寫),使天生式人工智能成為科技前沿。所謂天生式人工智能,是可以或許依據用戶的文本提醒(“輸出”)天生新的圖像、文本、錄像或其他內在的事務(“輸入”)的技巧。天生式人工智能曾經利用到各個範疇,包含司法行政治理、猜測公理、在線爭議處理、刑事司法(如“預防性警務”)。2024年2月16日,OpenAI發布Sora年夜模子,僅需經由過程文本即可主動天生錄像,這也是繼文本模子ChatGPT和圖片模子DallE之后,又一極具推翻性的年夜模子產物。與此同時,天生式人工智能技巧的負面消息也時見報道,如侵略隱私、過錯信息泛濫、損害版權和天生非自愿的圖像等。
天生式人工智能技巧立異價值和負面效應并存的實際,給監管者帶來了科林格里奇窘境。所謂科林格里奇窘境(Collingridge's Dilemma),是英國技巧哲學家年夜衛·科林格里奇在《技巧的社會把持》(1980年)一書中提出的命題,它是指對一項新興技巧假如過早地采用嚴苛監管辦法會障礙其立異成長,若任其自然或監管遲滯會使其走向掉控。天生式人工智能是草創技巧,且我國以後正處于技巧追逐階段,我國在該範疇有打破東方世界技巧封閉的大志壯志。這也意味著天生式人工智能技巧的科林格里奇窘境在我國以後階段更為顯明,詳細表示為兩個正面:一方面,若一味尋求技巧立異而聽任其成長,會疏忽此中的風險(風險正面);另一方面,若一味保護平安局勢而過度監管,會抹殺技巧立異的潛力(平安正面)。面臨此種兩難窘境,我國行政立法創設了《天生式人工智能辦事治理暫行措施》(2023年8月15日起實施,以下簡稱《人工智能措施》),若何精準實用該措施以打消科林格里奇窘境是我國以後需求直面的題目。換言之,尋覓法令規制天生式人工智能的限制尺度是本文所要處理的焦點題目。
二、科林格里奇窘境的風險正面:天生式人工智能技巧風險的類型化
科林格里奇窘境的風險正面表示為,假如過于尋求天生式人工智能技巧的立異價值而疏于監管,會招致技巧風險泛濫甚至是掉控。
(一)技巧運作流程與風險類型的聯繫關係性
天生式人工智宋微只好回道:「沒事,我就回來看看。」能技巧來源于機械進修實際,1956年圖靈描寫了智能推理和思想的存在,20世紀60年月構成機械進修實際,機械進修任務體系樹立于80年月至90年月。今朝對AI的界說是“可以或許介入類人經過歷程的盤算體系,如進修、順應、分解、自我校訂和應用數據來完成復雜的處置義務”。迷信家們應用盤算機不竭增加的才能和內在的事務,開闢出一系列軟件法式,人工智能在天生圖片、文本或音樂等才能方面可以與人類相媲美。天生式人工智能樹立在前述技巧基本之上,浮現出多模態特征(如語音+文本、圖像+文本、錄像+圖像+文本、圖像+語音+文本、錄像+語音+文本)。
“人工智能”現實上是進步前輩算法與“年夜數據”的耦合體,以及很多應用這些技巧的技巧。天生式人工智能利用法式樹立在年夜型說話模子(簡稱LLM)的基本之上,這些模子可以辨認、猜測、翻譯、總結和天生說話。LLM是天生式人工智能的一個子集,其特征是“真老大葉秋鎖:知識秀裡破壞她?作者是不是吃了年夜”,是練習模子進修說話規定所需的大批數據。數據是年夜模子競爭的要害要素,天生式人工智能的高度智能化恰是由於其接收海量數據的練習,所以其所衍生的風險均與數據相勾連。天生式人工智能的詳細運作浮現為“輸出數據→盤算數據→輸入家教信息”的流程,三個階段對應著法式運作的三個條理:(1)輸出層是數據被供給給模子的處所,此中的每個節點都具有被design用于接受輸出數據的單個元素的存儲器;(2)暗藏層(猜測)是利用法式中年夜部門處置產生的處所,該層之所以被稱為“暗藏層”,是由於在此中處置的數據不克不及直接從模子中輸出或輸入;(3)輸入層是將暗藏層得出的結論終極供給給用戶。如許的運作流程與風險密不成分,即技巧所攜帶的風險也浮現階段化。這種風險散布在天生式人工智能運轉的全性命周期,但分歧階段的風險表示情勢存在顯明差別。
(二)天生式人工智能技巧的個性風險
依照階段劃分的尺度,本文將天生式人工智能技巧分歧運作階段的風險類型分辨表述為輸出層風險、暗藏層風險和輸入層風險。此中,輸出層風險、暗藏層風險是古代智能科技的個性風險,而輸入層風險是天生式人工智能技巧的特性風險。
在輸出層,天生式人工智能技巧風險表示為數據泄露。歐洲議會全部會議于2024年3月13日經由過程了《人工智能法案》,該法案第3條規則,“風險”是指產生迫害的能夠性和迫害的嚴重性的組合。在輸出階段,天生式人工智能需求爬取和接收各類數據,風險重要表示為侵略小我信息、隱私和貿易機密。其一,小我信息權益會被損害。近年來,為維護小我信息權益,我國立法創設諸多新規定和新軌制。可是,相干規定并未詳細指涉天生式人工智能。從internet上抓取公然可用的信息是天生式人工智能模子的重要數據起源,一些科技公司也彙集公然可用的數據來構建年夜型數據庫。天生式人工智能經由過程抓取練習數據以天生有用信息內在的事務,被抓取的練習數據能夠包括敏理性和私密性的小我信息,如銀行卡賬號、生物辨認信息等,一些高頻用戶的敏感小我信息能夠會成為天生內在的事務呈現在用戶的對話框中。其二,國民隱私被侵略。天生式人工智能會接收用戶偏好、愛好、行動等信息,經由過程算法運作盤算出用戶的隱私,繼而成為企業精準投放市場行銷的根據。其三,貿易機密被泄露。歐盟2022年經由過程了《數據管理法》,該法引進了“數據利他主義”軌制,激勵企業為完成公共好處捐贈數據,以構成具有研討價值的數據池。但是,投喂至年夜模子并停止練習的數據一旦包括公司外部的貿易秘密信息,將能夠會給企業帶來沒頂之災。正因這般,中國付出清理協會發布了《關于付出行業從業職員謹嚴應用ChatGPT等東西的建議》,提示行業內的企業與從業職員謹嚴應用天生式人工智能。同時,韓國三星公司芯片秘密泄漏事務,再次證實這一風險已由隱患走向實際。概言之,輸出階段能夠構成數據泄露風險,這些數據不局限于小我信息、隱私和貿易機密,甚至國度機密數據都有能夠被泄露。
在暗藏層,天生式人工智能風險表示為算法濫用。暗藏層的風險也就是外部算法運作的風險,算法運作經過歷程具有隱秘性和不通明性。算法不通明會衍生算法黑箱,非專門研究人士要想知悉算法奧妙,需求仰賴算法說明。對于暗藏層的算法,假如沒有有用的監管和問責制就會存在算法濫用的風險。這就需求在天生式人工智能體系中植進品德代碼,將數個人空間字公理、數據倫理和數據權力等規范轉化為代碼并嵌進算法運作的監管流程。以機械進修算法為基本的天生式人工智能,因完善人類客觀同情心故自然存在公理疏忽戰爭等盲區。表示為算法的不公正、不公理或不品德,假如算法自己存在題目,就不難天生不合適主流價值不雅的迫害性信息,會固化社會成見與輕視。算法輕視所帶來的數字非公理和數字不公,是人工智能利用經過歷程中難以改變的技巧現實與個性題目,使實際世界的品德景況被毫無保存地轉移至數字世界。此外,算法不難被人把持,重要表示為信息繭房、引誘陷溺、算法抽剝、算法標簽以及算法回化。算法把持行動使得用戶成為算法的奴隸,飽受不良算法的踐踏糟踏和抽剝。現實上,算法損害風險包括算法妨礙和算法傷害損失,前者是基于風險或經過歷程的抽象性損害;后者是基于成果的詳細損害。算法風險的這般區分,現實上鑒戒了刑法上的風險犯與實害犯、行動無價值與成果無價值的劃分。
(三)天生式人工智能技巧的特性風險
在輸入階段,天生式人工智能為用戶供給特性化辦事,重要經由過程輸入信息的方法來知足用戶的需求。但是,過錯或誤導性的練習數據能夠會招致虛偽輸入,對輸出的荒誕呼應或不相干的輸出也會天生過錯信息,過錯信息的傳佈能夠會形成嚴重的后果。天生式人工智能會被歹意行動人用來假造事務、人物、談吐和消息,以到達闢謠、收集訛詐、訛詐和犯警宣揚的目標。是以,天生式人工智能技巧在輸入層重要表示為虛偽信息風險,這也是天生式人工智能技巧的特性風險。
天生式人工智能發生的虛偽信息案件在國外曾經產生多起,例如,ChatGPT天生澳年夜利亞赫伯恩郡郡長布萊恩·胡德(Brain Hood)的基礎信息時,過錯輸入其曾因接收行賄進獄的虛偽信息。又如,ChatGPT假造了美國喬治華盛頓年夜學法學傳授喬納森·特利(Jonathan Turley)曾性騷擾女先生的謊言。虛偽信息還能夠形成財富喪失,例如人工智能給出的過錯謎底直接招致投資公司Alphabet的股價蒸發了跨越1000億美元。今朝,據估量,OpenAI每月為ChatGPT破費約300萬美元來運營,這約為天天10舞蹈場地萬美元。
我國也產生了天生式人工智能發生虛偽信息的案件,2023年2月16日杭州某小區業主群會商C現在是五點五十,還有五分鐘下班時間。hatGPT,群內直播讓ChatGPT寫作杭州撤消路況限行的消息稿,被群內其他不明就里的業主截圖轉發,招致過錯信息傳佈。
面臨前述虛偽信息題目,天生式人工智能企業能夠會開闢一些防范或檢測虛偽信息的法式和軟件,但這些技巧手腕很不難被更換新的資料的技巧辦法攻破。現實表白,技巧辦法并不克不及徹底處理天生式人工智能的虛偽信息題目。技巧計劃只能作為幫助手腕,依然需求從法令層面塑造處理題目的系統性軌制。對此,我國行政立法嚴禁虛偽信息,除《人工智能措施》拒斥天生虛偽信息交流外,《收集音錄像信息辦事治理規則》和《internet信息辦事深度分解治理規則》均在相干條則中誇大辦事供給者不得應用新技巧新利用制作、發布、傳佈虛偽消息信息。此外,Sora等新型天生式人工智能產物的迭代更換新的資料,雖可以或許在必定水平上改良技巧,但也會加劇虛偽信息的風險。
由上可知,面臨天生式人工智能類型化風險,監管層面不宜一味尋求技巧立異而疏忽風險防控,不然會墮入科林格里奇窘境的風險正面。面臨實際,監管者、立法者和學者需求配合提出走出窘境的計劃。
三、科林格里奇窘境的平安正面:天生式人工智能技巧監管的過度化
科林格里奇窘境的平安正面表示為,若一味尋求天生式人工智能技巧應用經過歷程中的平安價值,監管者會采用過度監管辦法(甚至是禁令),如許會約束技巧成長和障礙技巧立異。當我們還在糾結應該采取何種監管辦法時,國外新型的天生式人工智能技巧產物能夠就已出生。這就意味著對具有推翻性立異價值的技巧,嚴苛監管形式能夠會障礙技巧立異。
(一)數據起源和變量設置天生式人工智能技巧監管形式的比擬法察看
以後列國均試圖尋覓規制天生式人工智能技巧風險的良方,但既有規制計劃不難走向兩個極端。
一方面,美國以激勵立異為焦點采用絕對寬松的監管計劃。在美國,人工智能技巧由詳細的行業停止細化監管,確保監管的相當性與順應性。固然美國當局偏向于采用增進立異的計劃,但技巧風險也被實際界與實務界普遍追蹤關心,兩方權勢彼此纏斗使得美國至今尚未公佈體系性、同一性的人工智能法令。今朝可以或許直接規制天生式人工智能技巧的規范是由美國總統拜登于2023年10月30日簽訂的《關于平安、靠得住和可托的AI行政號令》,該行政號令公佈的目標是確保美國在掌握AI的遠景和治理風險方面處于世界搶先位置。此行政號令吸納了美國總統之前公佈的行政號令中的規定,誇大付與企業更多的自治權,使當局行政監管退居幕后,包含促使15家領軍企業自愿許諾推進平安、靠得住和可托的AI成長的任務。該行政號令建立了八項目的,此中“增進立異和競爭”與“晉陞美國在海內的引導力”是最主要的兩項目的,凸顯美國激勵技巧立異的價值趨勢。美國事天生式人工智能技巧的領跑者,占據進步前輩技巧的搶先位置,在詳細個案中往往飾演著加害方的腳色。換言之,美國基于本身技巧的上風會成為風險的制造者和加害者,這就決議著美國作為技巧霸凌者,會加倍尋求技巧立異以掠奪更多的國際好處,而不會太器重防控技巧同化以削減給別人帶來風險和傷害損失。
另一方面,歐盟以著重平安為焦點采用較為嚴苛的監管計劃。歐盟采用的是強監管形式,經由過程制訂同一的人工智能法案以完成對人工智能利用的周全監管,意圖在歐盟層面樹立一個加大力度監視和履行的配合軌制。2023年4月,意年夜利宣布禁用ChatGPT,隨后多個歐友邦家跟進并與OpenAI公司溝通合規題目。歐盟《人工智能法案》于2024年3月13日經由過程,標志著歐盟在立法監管人工智能範疇邁出了堅實的一個步教學場地驟。該法案規則:“本條例的目標是改良外部市場的運作,特殊是為同盟內合適同盟價值不雅的人工智能體系的開闢、投放市場、供給辦事和加以應用制訂同一的法令框架,增聚會場地進以報酬本和值得信任的人工智能的利用,同時確保對安康、平安和《歐盟基礎權力憲章》所規則的基礎權力的高度維護,包含平易近主和法治以及周遭的狀況的維護,避免人工智能體系在同盟內發生無害的影響,并且支撐立異。”歐盟《人工智能法案》采取的是以風險分類法為基本的強監管形式,例如其第二編專門規則了“制止的人工智能實行”,第5條明白規則了制止應用人工智能的情況。強監管形式對天生式人工智能辦事供給者施加了絕對嚴厲的任務,企業需求投進宏大的本錢以完成合規營業。與美國比擬,歐盟的人工智能技巧成長絕對滯后,歐盟花費者應用的人工智能產物簡直均由美國企業開闢和發賣,在詳細個案中歐盟往往是人工智能技巧風險的接收者和受益方。例如,在小我數據的跨境活動範疇,歐盟花費者常常遭遇美國企業的損害,歐盟與美國的數據活動協定已停止屢次會談,從“平安港協定”到“隱私盾協定”甚至到最新的斡旋和會談,都缺乏以給歐盟大眾足夠的平安感。換言之,在天生式人工智能技巧範疇,歐盟處于絕對弱勢的一方,在技巧立異層面歐盟無法超出美國,且又要不時刻刻防備美國企業帶來的風險和傷害損失,這就使歐盟不得不選擇趨于平安的監管戰略。
其他國度或地域,在天生式人工智能技巧監管方面年夜多追隨歐盟形式。例如,2024年2月2日東盟數字部長會議時代,東盟發布了其AI管理框架《東盟人工智能管理和倫理指南》(ASEAN Guide on AI Governance and Ethics),該指南鑒戒了歐盟形式將人工智能風險劃分為低風險、中風險、高風險。再如,泰國于2022年發布關于AI辦事的律例草案,全體而言,泰國的AI律例草案與歐盟很是類似,都采用基于風險的方式。又如,巴西也鑒戒了歐盟形式。巴西參議院于2023年5月12日審議了2023年第2338號法案,該法案規則了巴西AI體系的運轉請求,包含請求此類體系接收供給商本身停止的初步評價,以斷定它們能否可以被回類為“高風險”或“過高風險”。今朝年夜多國度尚未制訂牽涉天生式人工智能技巧的專項法令,歐盟率先制訂了《人工智能法案》,該法案是全球首部人工智能範疇的周全監管法令。在天生式人工智能範疇,其他國度或地域的狀態和歐盟簡直分歧。一方面,在技巧立異上均難以超出美國;另一方面,城市遭遇來自美國的技巧霸凌和技巧風險。換言之,講座場地歐盟《人工智能法案》是防御美國技巧霸凌的范本,年夜多國度或地域在停止人工智能立法時多會以歐盟《人工智能法案》為參考底本,終極城市選擇絕對嚴苛的技巧監管形式,這一邏輯在小我信息的國際立法實行中已表現得極盡描摹。
(二)天生式人工智能技巧嚴苛式監管形式的檢視共享空間
以後國際社會對天生式人工智能技巧的監管趨于南北極化,我國應該采用哪一種監管形式是我國以後智能技巧成長必需要答覆的題目。我國《收集平安法》《數據平安法》和《小我信息維護法》等數字法令都有直接或直接規制人工智能技巧風險的規范,可是這些規范都絕對抽象和缺少針對性,只能作為塑造詳細規定的價值標的目的。就天生式人工智能技巧的詳細規范而言,我國《人工智能措施》第1條規則,制訂該措施是“為了增進天生式人工智能安康成長和規范利用,保護國度平安和社會公共好處,維護國民、法人和其他組織的符合法規權益”。前述法令規范配合指明,我法律王法公法律規制人工智能技巧的目標是在技巧立異與風險躲避之間尋覓均衡的標準。前述規范目標是由我國國情決議的家教,我國在天生式人工智能技巧範疇的際遇與美國、歐盟均不完整雷同。一方面,我國不會像美國那樣應用技巧上風踐行技巧霸權主義,但我國也需面臨美國的技巧霸凌及因其而生的技巧風險;另一方面,我國的人工智能技巧僅次于美國,歐盟形式是無法打破美國技巧霸凌和防控技巧風險的讓步成果,但我國有追逐和打破美國技巧“洽商”的才能和大志。換言之,我國不宜在歐盟形式和美國形式之間選邊站隊,而是要選擇加倍合適中國國情、更能推進中國爭奪國際技巧話語權的形式。我國的基礎國情和立法目標均請求我國在技巧立異與風險躲避之間追求均衡,不宜采用歐盟那種過于嚴苛的技巧監管形式。
起首,嚴苛式監管會吞噬技巧立異的空間。每一次技巧立異都是“摸著石頭過河”的實行,由於害怕風險而直接根絕風險產生機遇的思想并不合適構建立異型國度的需求,面臨科技立異的潛力,國度需求秉持過度寬容的立場。新興技巧的研發都是科研職員對未知世界的摸索,技巧所攜帶的風險在研發階段現實上無法被完整明白。每一次技巧提高都是研發者“與狼共舞”的成果,技巧應用者不克不及在風險的邊沿“猖狂摸索”,應用者和監管者均需求謹嚴看待新興技巧。假如對新興技巧的監管采用高壓態勢,技巧研發者和應用者面臨“達摩克利斯之劍”,會如履薄冰、畏手畏腳,在立異經過歷程中“如坐針氈”或佈滿“后顧之憂”,這種局勢會使技巧立異只能成為撲朔迷離和“烏托邦空想”。同時,嚴苛式監管形式會給社會大眾一種“天生式人工智能技巧等于風險集聚地”的錯覺,花費者或用戶會謝絕應用交互式年夜模子產物,這晦氣于年夜模子產物的利用與推行,終極會使新型人工智能技巧遭遇嚴重臭名化。新興技巧需在立異中監管,要賜與技巧立異過度的不受拘束空間,監管不宜走在立異的前端。監管者需對具有中立性的新興技巧堅持過度寬容,監管過度化或法令的提早參與會嚴重隔絕技巧立異的潛力。
其次,嚴苛式監管晦氣于教學我國打破技巧封閉的際遇。人類社會經由過程兩次產業反動進進了古代文明社會,現在信息技巧反動不竭深化,正促使人類生涯再次產生天翻地覆的變更。信息技巧反動的新階段是人工智能反動,人工智能技巧曾經成為國際社會競爭的新範疇。我國已經錯過第一次、第二次產業反動,招致清朝末年屢遭列強侵辱,我們深入貫通“落后就要挨打”的“森林法例”。換言之,我國比任何國家教度都要明白把握焦點技巧上風的主要性。在新一輪人工智能技巧反動的爭取中,我國顯然不克不及再錯過機會,不然再想個人空間“彎道超車”將幾無能夠,也無法打破東方國度的技巧封閉,甚至能夠自願面對新一輪的“技巧殖平易近”。應該明白,美國天生式人工智能技巧的迅猛成長,從年夜說話模子到多模態年夜模子直至Sora模子的技巧衝破,離不開美國絕對寬松的監管政策和寬容市場周遭的狀況的支持。我國雖不宜采用美國過于寬松的監管形式,但也確定不克不及採取歐盟過于嚴苛的監管形式。
最后,嚴苛式監管不合適構建中國自立數字法學常識系統的需求。假如我國直接移植歐盟形式抑或美國形式,能夠會約束技巧立異或許能夠面對“技巧霸凌”的際遇,更為嚴重的是能夠會使法令規制系統、監管形式和學術常識系統被“殖平易近化”。基于此,我國需求安身國情建構自立的監管形式、法令系統和學術系統。例如,我國粹者提出了數字法學的概念,構建數字法學就是為了回應我國數字社會轉型的成長需求。關于數字法學,實際上存在分歧稱呼,有“收集法學”“數據法學”“盤算法學”和“人工智能法學”等表述。本文以為,以“數字法學”統稱更為適合,其他稱呼反應了數字法學的某一正面,例如,盤算法學是誇大將盤算的思想、方式和技巧融進法學,它是在表達數字法學的方式論。同時,數字法學契合中國頂層軌制design的話語表述,有助于完成技巧話語與規范話語的同一,可以或許涵蓋法學研討牽涉技巧利用的全流程在夢中,葉被迫親眼目睹了整本書,內容主要是女主角。天生式年夜模子不竭更換新的資料表現了古代化社會的復雜性,我們不只需求改革社會管理軌制,更需求施展數字技巧對化解時光與空間復雜性題目的感化。同時,也應將現有法令概念和尺度嵌進到AI體系,法令應成為多智能體價值對齊的利用哲學。法令辦法與技巧辦法的融會是數字法學的焦點要義,對于天生式人工智能技巧的向善成長,要建構具有中國特點的監管形式、數字法令系統和學術系統。概言之,數字法學作為一種敘事話語新形狀,對于中國式古代化和人類文明配合體次序的重構具有主要意義。
四、科林格里奇窘境的消解方式:天生式人工智能技巧規制的靜態化
科林格里奇窘境是古代數字科技存在的個性題目,就天生式人工智能技巧而言,需求安身新佈景、新變量和新請求等,尋覓最合適的窘境消解方式。本文以為,天生式人工智能技巧具有草創性和前沿性,其迭代更換新的資料很是敏捷,所攜帶的風險具有易變性,對其應該選擇靜態化規制形式。
(一)天生式人工智能技巧的靜態化規制
與其他數字科技分歧的是,天生式人工智能技巧的迭代更換新的資料更為敏捷,在人們尚未完整把握某一代智能產物的效能和特徵的情形下,它就能夠曾經被最新一代的智能產物所代替,從ChatGPT到Sora,這種更換新的資料換代的頻率讓人們感觸感染很是深入。換言之,我們不克不及直接將規制既有技巧的計劃簡略套用至天生式人工智能技巧,需求確立具有場景性的和反應天生式人工智能技巧特徵的靜態化規制方式。
基于天生式人工智能技巧的易變性,法令監管應摒棄靜態思想,走向靜態形式。所謂“靜態化規制”重要包括三大體件:(1)在主體腳色上,搭建“后設規制”的基