世界正在被算法重塑,人工智能更以澎湃之勢催生一個復雜而鮮活的“算法紀元”。然而在技術(shù)的光芒之下,潛藏著關(guān)于社會變革、倫理邊界、法律公正與經(jīng)濟秩序的深刻命題。
4月20日至27日,三聯(lián)書店舉辦第七季“三聯(lián)·新知大會”,以“算法的尺度:智能時代的共生法則”為主題,帶領(lǐng)公眾深入理解算法背后的本質(zhì)及其對社會的多維影響。
始于2018年世界讀書日的三聯(lián)·新知大會,一直致力于推廣深度閱讀與知識普及。本季新知大會匯聚了計算機技術(shù)、應(yīng)用算法、社會學、法律、經(jīng)濟等領(lǐng)域的十三位頂尖專家,精心組織四場主題論壇,分享前沿研究成果與獨到見解。這一主題源自三聯(lián)書店即將出版的算法系列叢書,該系列將從算法的本質(zhì)、算法與社會、算法與法律、算法與經(jīng)濟四個維度解讀對日常生活的多元影響。
首場論壇題為“未來契約:AI時代的法律刻度”,中國社科院文化法制研究中心研究員周輝、北京大學法學院副教授戴昕、清華大學公共管理學院副教授陳天昊和對外經(jīng)濟貿(mào)易大學法學院教授張欣,四位法學專家剖析如何構(gòu)建一個既能促進創(chuàng)新又能守護人類核心價值的法律框架。
首場論壇現(xiàn)場
在算法決策的時代,法律如何定義邊界?當人機交互變得日益復雜時,責任歸屬該如何界定?從自動駕駛歸責到AIGC內(nèi)容風險,從個人隱私保護到算法公正透明,世人正在面對技術(shù)革命帶來的法律困境。據(jù)相關(guān)報告顯示,全球已有不少國家和地區(qū)發(fā)布了AI倫理準則或監(jiān)管框架。在技術(shù)快速發(fā)展的背景下,建構(gòu)合理法律邊界既要防止過度監(jiān)管阻礙創(chuàng)新,又要確保技術(shù)發(fā)展符合公共利益,對這一平衡的探討貫穿本季新知大會。
主持人葉彤在論壇開場白時表示:“我們希望通過專業(yè)而通俗的對話,幫助公眾理性看待技術(shù)變革,共同思考未來發(fā)展方向,而這也正體現(xiàn)了論壇知識普及的創(chuàng)辦初衷?!?/p>
“智法共生”
周輝在發(fā)言中首先回溯了算法的定義與演變。在他看來,算法是“為計算機解決問題設(shè)計的計算方法”,但在AI時代,其復雜性和社會影響遠超傳統(tǒng)算術(shù)工具?!拔覀兛梢钥匆幌滤惴ǖ臍v史演進,早期如公式計算是為了解決確定性數(shù)學問題;到了近代,算法與圖靈機、大數(shù)據(jù)結(jié)合,結(jié)果從‘確定性’轉(zhuǎn)向‘多樣性’,也引發(fā)了黑箱問題;在當前的生成式AI時代,算法與數(shù)據(jù)、算力構(gòu)成AI三大支柱,如DeepSeek的算法創(chuàng)新,直接影響到了社會資源的配置?!?/p>
中國社科院文化法制研究中心研究員周輝
談及算法的社會連接功能,周輝列出了商業(yè)場景和公共治理兩個方面:“前者如電商推薦、短視頻分發(fā),可以做到精準匹配用戶需求,但也可能導致‘信息繭房’;后者應(yīng)用于優(yōu)化應(yīng)急信息傳播、交通調(diào)度等,但也需警惕如‘大數(shù)據(jù)殺熟’等算法歧視?!?/p>
周輝認為,當前算法引發(fā)的四大法律問題突出表現(xiàn)在:“隱私保護,精準服務(wù)需收集用戶數(shù)據(jù),卻可能過度侵入隱私,比如大家都感受到了,‘關(guān)閉個性化推薦’選項的實際效果往往很有限;資源配置不公,算法可能基于商業(yè)目標,而非公平性原則分配資源,例如優(yōu)惠券規(guī)則復雜化導致用戶權(quán)益受損;‘信息繭房’與認知局限,長期依賴算法推薦會限制用戶信息接觸,但‘打破繭房’又需要權(quán)衡技術(shù)成本與社會效益;算法黑箱與透明度,復雜的算法往往如同黑箱,讓人難以捉摸其內(nèi)部邏輯。法律亟須在‘可解釋性’與技術(shù)創(chuàng)新間找到平衡。”
2021年通過施行的《中華人民共和國個人信息保護法》,首次界定“自動化決策”,要求透明化與用戶知情權(quán);2022年國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》正式施行,明確了如生成合成類、個性化推薦類等六類算法類型,要求平臺公示基本原理?!捌脚_作為算法治理的關(guān)鍵角色,需平衡技術(shù)創(chuàng)新與用戶權(quán)益保護,應(yīng)公開算法邏輯、保護數(shù)據(jù)安全,并承擔如過濾違法內(nèi)容等的‘守門人’責任。”
毋庸置疑,算法是一柄雙刃劍——既能提升效率,也可能固化社會偏見,法律則需劃定“技術(shù)中性”與“責任歸屬”的邊界。其中,平臺是治理的關(guān)鍵節(jié)點,亟待通過算法透明化、用戶參與治理等方式構(gòu)建起信任度。周輝在發(fā)言時強調(diào)AI技術(shù)迭代迅速,法律也應(yīng)保持靈活性,避免“一刀切”扼殺創(chuàng)新。“法律規(guī)范的出臺相應(yīng)而言總是滯后的,眼下如ChatGPT等帶來了版權(quán)歸屬、虛假信息生成等新問題,也要求動態(tài)調(diào)整法律。對于人工智能AI技術(shù)的發(fā)展,中國采取的是‘發(fā)展與安全并重’的治理思路,在總體國家安全觀的引領(lǐng)下,我主張在法制軌道上推動算法安全與創(chuàng)新協(xié)同。同時,算法治理也需展開跨國協(xié)作,對于數(shù)據(jù)跨境流動規(guī)則,實際上各國的監(jiān)管差異很大,我們也需探索出本土路徑。”
對外經(jīng)濟貿(mào)易大學法學院教授張欣
對于算法透明的迷思與制度建構(gòu),張欣在發(fā)言時對比了人類中如醫(yī)生、法官的決策,認為算法目前仍缺乏信譽機制和權(quán)力制衡,需要通過透明建立信任?!氨热纾绹糠种菔褂靡豢蠲麨镃ompas的算法來評估犯罪,但這種算法就存在種族歧視,由此也凸顯出算法解釋權(quán)的重要性。反歧視法律體系的不完善是算法歧視的深層原因,不能僅僅歸咎平臺。在以生成式人工智能為核心的大模型時代,技術(shù)的復雜性、商業(yè)秘密保護、數(shù)據(jù)隱私等問題使得透明度更難實現(xiàn),但仍是治理的基礎(chǔ)?!?/p>
智能趨勢下的AI對齊與治理
如何讓AI在司法、醫(yī)療等決策中與人類價值觀一致?陳天昊在發(fā)言時認為,當下的技術(shù)趨勢體現(xiàn)在小模型本地化部署、多模態(tài)交互、大模型與平臺深度融合等方面,但治理難點在于對齊的規(guī)則要由誰來制定?文化差異本身就會導致價值觀的沖突。怎么去緩解大家的悲觀,我們可以通過人監(jiān)督小模型,再由小模型監(jiān)督大模型來實現(xiàn)——人先用很好的道德規(guī)范數(shù)據(jù)訓練出一個小模型,再用小模型監(jiān)督大模型的日常運作,讓大模型始終處于人類可管控的范圍內(nèi)。
清華大學公共管理學院副教授陳天昊
談及未來法律制定和出臺的方向,陳天昊認為個人正在成為數(shù)據(jù)處理者,“對于平臺,我們可以通過很明確的合規(guī)義務(wù)來進行信息監(jiān)管,但目前對于個人則很難進行信息監(jiān)管,未來要劃定個人使用AI的行為底線。其次是要明確AI代理(Agent)的法律責任,Agent是我們物理世界和虛擬世界交互的中介。比如你開車,自動駕駛出了事故,這臺自動駕駛的車是一個Agent,那么事故的法律責任要誰來承擔,如何分配?”
德國社會學家烏爾里?!へ惪嗽?986年出版的成名之作《風險社會:朝向一種新的現(xiàn)代性》中,把“risk society”(風險社會)這一概念帶入學術(shù)界的中心話語地帶?!斑@本書的第一部分的標題就是‘在文明的火山上’。貝克認為生活在現(xiàn)代社會,就是生活在現(xiàn)代文明的火山口?,F(xiàn)代性就是一個巨大的火山,只是我們感覺不到而已,大家都在享受人工智能帶來的便利,但我們要明白這底下是不斷噴涌的巖漿,隨時可能造成火山噴發(fā)。怎么能盡可能地去規(guī)避風險,我相信這是所有治理學者的義務(wù)?!标愄礻徽f。
北京大學法學院副教授戴昕
談及AI治理中的價值考量與社會契約,戴昕認為這其實是經(jīng)典問題的一種延續(xù)。“AI并未帶來全新的問題,而是放大了隱私、歧視、虛假信息等傳統(tǒng)法律議題。算法偏見反映的其實也是社會問題,暴露矛盾反而可能推動解決。當人均成為‘創(chuàng)作者’或‘領(lǐng)導者’后,就需要重構(gòu)權(quán)利與義務(wù)的邊界。比如,自動駕駛的安全標準應(yīng)結(jié)合技術(shù)表現(xiàn)和社會需求,包括人們的風險接受度。在我看來,法律需從‘明確規(guī)則’轉(zhuǎn)向‘掌握分寸’,容忍分散化判斷以適應(yīng)技術(shù)復雜性和高速迭代。說到底,技術(shù)只是工具,治理的關(guān)鍵仍在于回歸到人的切實需求與社會的公平正義?!?/p>
做大蛋糕,更要實現(xiàn)“甜味均衡分配”
在隨后幾天舉行的“道法自然:人工智能背心后面的算法賦能”、“算法煉金術(shù):當代社會的隱形架構(gòu)師”、“算法引擎:數(shù)字智能與經(jīng)濟發(fā)展”三場論壇中,與會專家學者也不乏真知灼見。
本季新知大會共四場論壇
對于怎么看待AI時代人類的競爭力,香港科技大學廣州協(xié)理副校長熊輝認為當下我們應(yīng)盡快培養(yǎng)三種能力:以AI工具賦能本職工作的應(yīng)用能力;機器目前還不擅長的“可意會不可言傳”技能,凸顯出人類的差異化能力;大力提升提問、思辨和閉環(huán)執(zhí)行的創(chuàng)新能力。對于未成年人尤其要保護他們的好奇心,強化溝通與思辨能力,踐行“知行合一”。
算法作為“隱形架構(gòu)師”,已深度嵌入社會運行,其爭議本質(zhì)是技術(shù)與人性的博弈。中國人民大學新聞學院副教授董晨宇在發(fā)言中揭示了平臺創(chuàng)作者“流量密碼”的四大來源:基礎(chǔ)流,粉絲基數(shù)與黏性,“知識類博主黏性高于娛樂類”;算法流,用戶滿意度決定推薦權(quán)重,“伺候觀眾而非算法”;事件流,社會情緒與政策導向,“如‘三農(nóng)’、文旅賽道爆發(fā)”;投流,商業(yè)購買流量。
“‘信息繭房’的概念其實在學術(shù)界已經(jīng)過時,我們應(yīng)轉(zhuǎn)而研究算法的透明性。而網(wǎng)紅的本質(zhì)是社會情緒的‘踩點者’,算法并非核心,關(guān)鍵在于捕捉公共情緒。2024年的調(diào)研顯示,頭部創(chuàng)作者更關(guān)注社會心理而非算法規(guī)則。”董晨宇說。
中國社會科學院財經(jīng)戰(zhàn)略研究院的研究員李勇堅的演講以通俗生動的語言揭示了算法對經(jīng)濟發(fā)展的深層影響。在他看來,算法如同數(shù)字經(jīng)濟時代的“隱形基礎(chǔ)設(shè)施”,通過提升匹配效率(解決市場失靈)、釋放隱性供給(激活長尾)、重構(gòu)生產(chǎn)函數(shù)(創(chuàng)新業(yè)態(tài))三重機制驅(qū)動經(jīng)濟發(fā)展,“其真實貢獻遠超GDP的統(tǒng)計范疇。”
“對就業(yè)的影響則需動態(tài)看待,這里面涉及替代效應(yīng)與創(chuàng)造效應(yīng)間的對比。這方面,2024年諾貝爾經(jīng)濟學獎獲得者達龍·阿西莫格魯是悲觀派,在他和西蒙·約翰遜合著的《權(quán)力與進步:我們在技術(shù)與繁榮上的千年斗爭》一書中認為目前AI發(fā)展已誤入歧途,許多算法的設(shè)計是盡可能地取代人類。但我們也應(yīng)看到‘算法能洗衣服但不會疊衣服’。自動化也存在能力的邊界,這造成中等技能崗位最易受沖擊。麻省理工學院的大衛(wèi)·奧托教授則是樂觀派,他通過研究1940年至2018年的數(shù)據(jù)發(fā)現(xiàn),新增崗位數(shù)量實際上大于消失崗位,中等技能者可以通過學習進階為高技能者?!?/p>
“歷史表明,技術(shù)革命終將創(chuàng)造比摧毀更多的工作,但必須配套教育升級與社會保障以緩解轉(zhuǎn)型陣痛。未來的核心命題是如何讓算法不僅能做大蛋糕,更要實現(xiàn)‘甜味均衡分配’?!崩钣聢哉f。