以GPT3/4爲代表的(de)大(dà)型語言模型被業界宣傳爲“基礎性的(de)”, 是人(rén)工智能領域科學進步的(de)主要轉折點。這(zhè)類叙述忽略了(le)大(dà)規模的(de)人(rén)工智能模型主要由大(dà)科技公司控制,因爲它們需要巨大(dà)的(de)計算(suàn)和(hé)數據資源,并且還(hái)引發了(le)圍繞錯誤信息和(hé)歧視、隐私和(hé)安全漏洞以及負面環境影(yǐng)響等多(duō)方面的(de)擔憂。同時(shí),無論大(dà)型語言模型及其訓練數據集變得(de)多(duō)麽龐大(dà),它們永遠(yuǎn)無法像人(rén)類一樣學習(xí)和(hé)理(lǐ)解我們的(de)語言。在此情況下(xià),本文分(fēn)析了(le)大(dà)型語言模型的(de)四大(dà)發展趨勢,并指出,爲了(le)充分(fēn)了(le)解其範圍和(hé)力量,探索大(dà)型語言模型如何影(yǐng)響社會的(de)不同方面非常重要。特别是,大(dà)型語言模型将帶來(lái)人(rén)類交流的(de)困境,我們需要傳播理(lǐ)論和(hé)基于倫理(lǐ)的(de)傳播實踐的(de)更新,來(lái)确定下(xià)一代傳播研究的(de)面貌。 ” 引言 通(tōng)過交流,我們創造并改變了(le)我們生活的(de)世界——其中既包括我們的(de)價值觀,也(yě)包括我們的(de)工具。大(dà)型語言模型是強大(dà)的(de)工具,可(kě)以幫助我們自動化(huà)和(hé)簡化(huà)複雜(zá)的(de)任務,并有可(kě)能徹底改變我們與技術交互的(de)方式。然而,它們并非沒有限制和(hé)風險。 交流離不開語言。與其他(tā)人(rén)工智能應用(yòng)相比,語言是一個(gè)更加棘手的(de)問題,它的(de)風險也(yě)更高(gāo)。自然語言處理(lǐ)(NLP, natural language processing)與一些互聯網巨頭的(de)核心業務密切相關,例如谷歌(gē)的(de)搜索與Meta的(de)社交媒體參與。作爲一個(gè)社會,我們也(yě)許從未如此清醒的(de)意識到語言造成傷害和(hé)貶低的(de)危險,也(yě)從未如此清醒地意識到我們的(de)語言中微妙的(de)、結構性的(de)、往往是無意地将人(rén)予以他(tā)者化(huà)的(de)形式。 ChatGPT正在被過億用(yòng)戶使用(yòng),其中許多(duō)人(rén)沒有接受過任何關于如何合倫理(lǐ)地使用(yòng)這(zhè)樣的(de)系統,或如何确保系統不會造成傷害的(de)教育。除了(le)區(qū)分(fēn)人(rén)類和(hé)機器的(de)困難,我們也(yě)需要更多(duō)的(de)研究來(lái)幫助我們了(le)解人(rén)工智能将會怎樣影(yǐng)響我們與其他(tā)人(rén)的(de)互動。 這(zhè)一切将帶來(lái)一個(gè)全新的(de)交流環境。在一個(gè)日益由可(kě)以模仿人(rén)類自然語言能力的(de)人(rén)工智能工具主導的(de)世界中,真實和(hé)信任意味著(zhe)什(shén)麽?偏見和(hé)錯誤信息又将導緻什(shén)麽?很多(duō)問題超越了(le)技術範圍。傳播學者需要成爲有關人(rén)工智能技術發展的(de)對(duì)話(huà)的(de)中心。
大(dà)型語言模型成新寵 由于ChatGPT爆火的(de)緣故,大(dà)型語言模型(LLM, large language model)集萬千寵愛(ài)于一身。但它們是什(shén)麽呢(ne)?簡單地說,LLMs是一種計算(suàn)機系統,被設計用(yòng)來(lái)學習(xí)文本語料庫的(de)統計屬性,以生成模仿原始文本風格和(hé)内容的(de)新文本。換言之,LLMs能夠生成現實而較爲準确的(de)新文本,看起來(lái)像是由一個(gè)真實的(de)人(rén)撰寫的(de)。 LLMs的(de)核心基于一種強大(dà)的(de)機器學習(xí)技術,即深度學習(xí)。深度學習(xí)是人(rén)工智能的(de)一個(gè)子集,能夠自動學習(xí)數據中的(de)複雜(zá)模式。深度學習(xí)算(suàn)法的(de)靈感來(lái)自于大(dà)腦(nǎo)從經驗中學習(xí)的(de)能力,它們通(tōng)常使用(yòng)神經網絡來(lái)實現——計算(suàn)系統的(de)結構與大(dà)腦(nǎo)非常相似。事實上,如果不使用(yòng)先進的(de)水(shuǐ)印策略,就不可(kě)能準确區(qū)分(fēn)由人(rén)類頭腦(nǎo)所寫的(de)文本和(hé)由高(gāo)度可(kě)并行的(de)人(rén)工神經網絡所産生的(de)文本,後者的(de)神經連接數要少得(de)多(duō)。 傳統機器學習(xí)算(suàn)法和(hé)深度學習(xí)算(suàn)法之間的(de)一個(gè)關鍵區(qū)别是,深度學習(xí)算(suàn)法可(kě)以擴展到更大(dà)的(de)數據集,它們可(kě)以從非結構化(huà)或未标記的(de)數據中學習(xí)。這(zhè)使得(de)它們非常适合于自然語言處理(lǐ)等任務,這(zhè)也(yě)是LLMs的(de)用(yòng)途。大(dà)型語言模型現在被認爲是人(rén)工智能的(de)前沿,因其有可(kě)能執行需要創造力、推理(lǐ)和(hé)理(lǐ)解自然語言的(de)任務。 大(dà)型語言模型于2017年在谷歌(gē)大(dà)腦(nǎo)(Google Brain)開始使用(yòng),研究人(rén)員(yuán)推出了(le)transformer(轉換器)架構,它是自然語言處理(lǐ)中使用(yòng)的(de)一個(gè)基于深度學習(xí)模型的(de)神經網絡,訓練可(kě)以實現并行化(huà),這(zhè)爲訓練真正的(de)大(dà)模型首次提供了(le)機會。此後,大(dà)型語言和(hé)文本-圖像模型在領先的(de)技術公司中激增,包括谷歌(gē)(BERT、GLaM、LaMDA、Chinchilla、PaLM)、Facebook/Meta(OPT-175B、Galactica、BlenderBot、LLaMA)、英偉達和(hé)微軟(Megatron-Turing),當然還(hái)有OpenAI,微軟是主要的(de)投資者(GPT-3/4用(yòng)于文本,DALL-E2用(yòng)于圖像,Whisper用(yòng)于語音(yīn))。在線社區(qū),如Midjourney,以及Hugging Face等開源供應商,也(yě)創造了(le)生成模型。 新的(de)玩家還(hái)在不斷進場(chǎng)。2023年3月(yuè),彭博社推出BloombergGPT(Bloomberg Professional Services, 2023),系根據專有來(lái)源的(de)金融數據訓練的(de)LLM,“在金融任務上比現有的(de)模型有明(míng)顯的(de)優勢,而不影(yǐng)響一般LLM的(de)基準性能”(Wu, 2023)。4月(yuè),資助開發“穩定擴散”(Stable Diffusion)等開源生成式人(rén)工智能模型的(de)Stability AI宣布推出StableLM語言模型套件。在爲多(duō)個(gè)領域(包括圖像、音(yīn)頻(pín)、視頻(pín)、3D和(hé)生物(wù)學)開發模型之後,這(zhè)是該開發商首次加入目前由技術大(dà)腕主導的(de)語言模型遊戲(Dey, 2023)。同在4月(yuè),亞馬遜在AWS中推出Bedrock服務,在一個(gè)平台上提供多(duō)種生成式人(rén)工智能模型。例如,Stability AI的(de)Stable Diffusion圖像生成器,可(kě)以将文本變成圖像;AI21實驗室的(de)Jurassic-2模型是一個(gè)多(duō)語言LLM,可(kě)以生成德語、西班牙語、法語、葡萄牙語、荷蘭語和(hé)意大(dà)利語文本;Anthropic的(de)Claude是ChatGPT的(de)一個(gè)對(duì)手,可(kě)以使工作流程自動化(huà)、回答(dá)問題,并與用(yòng)戶進行交流。與微軟和(hé)Alphabet相比,亞馬遜可(kě)能看起來(lái)姗姗來(lái)遲,但它的(de)做(zuò)法相當精明(míng)。通(tōng)過Bedrock,亞馬遜不隻是提供對(duì)上述第三方平台的(de)訪問,也(yě)提供對(duì)其專有的(de)大(dà)型語言模型Titan的(de)訪問,這(zhè)可(kě)能使亞馬遜變成那些希望使用(yòng)LLMs并根據其需求構建應用(yòng)程序的(de)企業的(de)首選平台(Chauhan, 2023)。 時(shí)至今日,除了(le)蘋果之外,美(měi)國每家主要科技公司都宣布了(le)自己的(de)LLM。中國的(de)科技公司當然亦不甘落後:2023年3月(yuè),百度推出文心一言并在官宣後爲新浪财經、澎湃新聞、愛(ài)奇藝、美(měi)的(de)集團、東風日産等一系列企業提供接入服務;2022年,阿裏達摩院發布通(tōng)義大(dà)模型,并在2023年4月(yuè)正式推出通(tōng)義千問;再加上2022年騰訊對(duì)外披露的(de)混元大(dà)模型和(hé)2021年華爲發布的(de)盤古大(dà)模型等等,不一而足,人(rén)稱“萬模大(dà)戰”。在TB級文本數據上訓練的(de)大(dà)型語言模型成爲高(gāo)科技行業最熱(rè)門的(de)一角。 LLMs對(duì)大(dà)型科技公司很重要,因爲它們可(kě)以實現新的(de)産品和(hé)服務,從而吸引更多(duō)的(de)用(yòng)戶,産生更多(duō)的(de)收入,并創造更多(duō)的(de)價值。例如,LLMs可(kě)用(yòng)于改進搜索引擎、社交網絡、雲計算(suàn)、數字助理(lǐ)、電子商務、遊戲、教育、醫療保健等。此外,科技公司可(kě)以用(yòng)LLMs來(lái)改進企業的(de)現有産品線。例如,無論是語音(yīn)數字助理(lǐ)還(hái)是爲營銷人(rén)員(yuán)自動投放廣告,谷歌(gē)都将人(rén)工智能作爲未來(lái)的(de)突破性技術,使下(xià)一代服務和(hé)設備更加智能化(huà)、功能更強。 生成式模型的(de)重要價值之一是它們與生産力應用(yòng)程序的(de)整合。例如,微軟在企業Office套件市場(chǎng)中有明(míng)顯的(de)優勢,正在将生成式模型整合到Word、Outlook和(hé)Teams等應用(yòng)程序中。中國科技巨頭阿裏巴巴在生成式人(rén)工智能方面的(de)最新努力,在某種程度上讓人(rén)聯想到微軟,即通(tōng)過讓人(rén)們用(yòng)自然語言來(lái)描述他(tā)們想要建立的(de)東西,令各種應用(yòng)程序變得(de)更容易使用(yòng)。阿裏巴巴宣布,通(tōng)義千問将被整合到公司的(de)各項業務中,以改善用(yòng)戶體驗,客戶和(hé)開發人(rén)員(yuán)可(kě)以通(tōng)過利用(yòng)該模型創建定制的(de)人(rén)工智能功能。 同時(shí),人(rén)工智能初創企業經常以超過10億美(měi)元的(de)估值籌集資金。例如,6月(yuè)13日,英國人(rén)工智能初創公司Synthesia表示,它從風險投資公司Accel和(hé)Nvidia旗下(xià)NVentures牽頭的(de)一輪融資中籌集了(le)約9000萬美(měi)元,估值爲10億美(měi)元。該公司的(de)技術幫助包括亞馬遜在内的(de)5萬多(duō)家企業創建用(yòng)于教學和(hé)企業視頻(pín)的(de)定制AI化(huà)身。這(zhè)表明(míng),大(dà)量企業希望将傳統視頻(pín)制作轉變爲數字工作流程(Reuters, 2023)。Synthesia隻是一個(gè)人(rén)工智能初創企業快(kuài)速獲得(de)獨角獸地位的(de)例子。在利率上升和(hé)高(gāo)通(tōng)脹導緻的(de)更廣泛的(de)融資放緩中,人(rén)工智能初創企業已經成爲2023年投資的(de)一個(gè)亮點。 人(rén)工智能爲什(shén)麽非得(de)是大(dà)模型? 就這(zhè)樣,大(dà)型通(tōng)用(yòng)人(rén)工智能模型被業界宣傳爲“基礎性的(de)”,是該領域科學進步的(de)主要轉折點。這(zhè)類叙述分(fēn)散了(le)“規模病症”的(de)注意力,這(zhè)些病症每天都變得(de)更加根深蒂固:大(dà)規模的(de)人(rén)工智能模型主要由大(dà)科技公司控制,因爲它們需要巨大(dà)的(de)計算(suàn)和(hé)數據資源,并且還(hái)引發了(le)圍繞歧視、隐私和(hé)安全漏洞以及負面環境影(yǐng)響等多(duō)方面的(de)擔憂。 例如,GPT-3最初是在45TB的(de)數據上訓練的(de),并采用(yòng)了(le)1750億個(gè)參數來(lái)進行預測;GPT-3的(de)一次訓練就花費了(le)1200萬美(měi)元(Davenport, Mittal, 2022)。另據報道,OpenAI使用(yòng)1萬個(gè)英偉達GPU訓練ChatGPT(Goldman, 2023),而ChatGPT每天給OpenAI帶來(lái)70萬美(měi)元的(de)成本(Gardizy, Ma,2023)。而最新的(de)GPT-4的(de)訓練耗資超過1億美(měi)元(Knight, 2023)。大(dà)多(duō)數公司沒有數據中心能力或雲計算(suàn)預算(suàn)來(lái)從頭開始訓練這(zhè)類模型,許多(duō)現成的(de)、預訓練的(de)人(rén)工智能模型,作爲雲人(rén)工智能服務的(de)一部分(fēn)提供,而此市場(chǎng)本已集中在大(dà)科技公司手中,如AWS(亞馬遜)、GCP(谷歌(gē)雲平台)和(hé)Azure(微軟)。這(zhè)些雲供應商每年總共花費超過1000億美(měi)元的(de)資本,以确保擁有最全面、最可(kě)靠和(hé)最具成本競争力的(de)平台。特别是在生成式人(rén)工智能方面,它們也(yě)受益于供應限制,因爲它們可(kě)以優先獲得(de)稀缺的(de)硬件(如Nvidia A100和(hé)H100 GPU)(Bornstein, Appenzeller, Casado, 2023)。 大(dà)科技公司可(kě)能會保持先發優勢,因爲它們有時(shí)間和(hé)市場(chǎng)經驗來(lái)磨練基礎語言模型,并發展寶貴的(de)内部專業知識。因此,較小的(de)企業或初創公司可(kě)能難以成功進入這(zhè)一領域,從而使得(de)LLM的(de)巨大(dà)處理(lǐ)能力集中在少數幾家大(dà)科技公司手中。 2021年,埃米莉·本德(Emily M. Bender)博士、蒂姆尼特·蓋布魯(Timnit Gebru)博士、安吉麗娜·麥克米蘭-梅傑(Angelina McMillan-Major)和(hé)瑪格麗特·米切爾(Margaret Mitchell)博士在一篇題爲《論随機鹦鹉的(de)危險》的(de)論文中對(duì)LLM的(de)潛在成本和(hé)危害提出警告(Bender et al., 2021),這(zhè)篇論文導緻谷歌(gē)将蓋布魯和(hé)米切爾從人(rén)工智能倫理(lǐ)團隊的(de)共同領導位置上趕走(Metz, Wakabayashi, 2020;Metz, 2021)。該論文在确定困擾LLM的(de)規模病症方面有先見之明(míng)。當公衆討(tǎo)論被圍繞著(zhe)ChatGPT和(hé)其他(tā)LLMs的(de)令人(rén)窒息的(de)炒作所吞噬之際,這(zhè)項研究提出了(le)清醒的(de)警告:我們需要討(tǎo)論社會是否應該建立這(zhè)類技術,而不是如何建立,更不是不加批判地将其作爲進步的(de)同義詞而加以全盤接受。本德等人(rén)問道:“越來(lái)越大(dà)的(de)語言模型是不可(kě)避免的(de)還(hái)是必須的(de)?這(zhè)一研究方向有什(shén)麽成本,我們在追求它之前應該考慮什(shén)麽?” 擇其要者,大(dà)型語言模型可(kě)見的(de)成本就有: 環境和(hé)财務成本 LLMs的(de)訓練需要大(dà)量的(de)能源,并産生大(dà)量的(de)二氧化(huà)碳排放。在GPU上訓練一個(gè)BERT基礎模型所需的(de)能量與一次橫跨美(měi)國的(de)飛(fēi)行一樣多(duō)(Bender et al., 2021)。大(dà)多(duō)數雲計算(suàn)供應商的(de)能源不是來(lái)自可(kě)再生能源,而且世界上許多(duō)能源也(yě)不是碳中和(hé)的(de)。此外,哪怕是可(kě)再生能源,對(duì)環境來(lái)說仍然是昂貴的(de)。數據中心爲了(le)滿足越來(lái)越多(duō)的(de)計算(suàn)需求,占用(yòng)了(le)綠色能源的(de)其他(tā)潛在用(yòng)途,爲此,迫切需要節能型的(de)模型架構和(hé)訓練模式。 環境問題與種族問題的(de)交彙,意味著(zhe)被邊緣化(huà)的(de)人(rén)和(hé)來(lái)自多(duō)數世界/全球南(nán)方的(de)人(rén)更有可(kě)能體驗到能源消耗和(hé)二氧化(huà)碳排放增加所帶來(lái)的(de)傷害,盡管他(tā)們也(yě)是最不可(kě)能體驗到這(zhè)種模型的(de)好處的(de)一群。碳足迹将取決于能源的(de)使用(yòng)和(hé)正在使用(yòng)的(de)能源的(de)碳強度。不僅僅是LLMs有很大(dà)的(de)能源影(yǐng)響,而且其中的(de)碳影(yǐng)響将首先爲那些沒有從這(zhè)項技術中受益的(de)人(rén)帶來(lái)成本。所以,當我們做(zuò)成本效益分(fēn)析時(shí),重要的(de)是要考慮到誰在得(de)到好處,誰在支付成本,因爲兩者不是同一批人(rén)。 此外,進入和(hé)訓練這(zhè)些模型的(de)成本很高(gāo),這(zhè)意味著(zhe)隻有一小部分(fēn)全球精英能夠發展并受益于LLMs。由于其複雜(zá)的(de)性質,它們的(de)建立和(hé)維護可(kě)能是困難和(hé)昂貴的(de)。它們還(hái)需要大(dà)量的(de)訓練數據,而這(zhè)些數據可(kě)能很難獲得(de),處理(lǐ)起來(lái)也(yě)非常昂貴。由此,大(dà)規模算(suàn)力會将LLMs限制于隻有資源最豐富的(de)公司和(hé)研究者才能使用(yòng),而把小型開發商排除在外。所以,環境和(hé)财務成本應該成爲自然語言處理(lǐ)研究中的(de)首要考慮因素。 不負責任的(de)訓練數據 使用(yòng)大(dà)量未經整理(lǐ)的(de)訓練數據集有可(kě)能創造出鞏固主導性、霸權性觀點的(de)語言模型。這(zhè)些訓練數據集的(de)龐大(dà)規模并不能保證多(duō)樣性,因爲它們往往是從網站上抓取來(lái)的(de),而這(zhè)些網站由于互聯網接入不足、代表性不足、過濾或騷擾等問題而排除了(le)邊緣化(huà)人(rén)群的(de)聲音(yīn)。這(zhè)些數據集有“價值鎖定”的(de)風險,或許會将有害的(de)偏見編碼到難以徹底審計的(de)語言模型中。 如果模型是在過濾有限的(de)大(dà)量互聯網數據上訓練出來(lái)的(de),它們就會吸收事實和(hé)錯誤信息、有偏見的(de)内容和(hé)公平的(de)内容、有害的(de)材料和(hé)無害的(de)材料。如果沒有辦法在回答(dá)提示之前評估這(zhè)些标準,LLMs就有可(kě)能陷入複制、放大(dà)和(hé)傳播有問題的(de)内容和(hé)錯誤信息的(de)危險。 “随機鹦鹉”的(de)誕生 本德等人(rén)進一步警告說,對(duì)語言模型的(de)追求可(kě)能是一個(gè)誤導性的(de)研究方向。她們觀察到,語言模型就好比“随機鹦鹉”(stochastic parrot),“根據關于如何組合的(de)概率信息,胡亂地将它在龐大(dà)的(de)訓練數據中觀察到的(de)語言形式序列[縫合]在一起,但沒有任何對(duì)意義的(de)參考”(Weil, 2023)。也(yě)就是說,大(dà)型語言模型善于生成令人(rén)信服的(de)語言,但實際上并不理(lǐ)解它所處理(lǐ)的(de)語言的(de)含義。 “随機鹦鹉”的(de)比喻突出了(le)兩個(gè)重要的(de)局限性:第一,學習(xí)機器所作的(de)預測基本上是在重複數據的(de)内容,加上一些由模型的(de)限制造成的(de)噪音(yīn)(或随機性)。第二,機器學習(xí)算(suàn)法并不了(le)解它所學習(xí)的(de)問題。它無法得(de)知自己什(shén)麽時(shí)候在重複一些不正确的(de)、脫離上下(xià)文的(de)或令社會感覺不适的(de)東西。由于這(zhè)些局限性,學習(xí)機器可(kě)能會産生“危險的(de)錯誤”(Lindholm et al., 2022)。 ChatGPT的(de)不可(kě)靠性會給任何使用(yòng)它來(lái)生成相應文本的(de)機構帶來(lái)相當大(dà)的(de)法律、财務和(hé)聲譽風險。正如沃倫·巴菲特(Warren Buffett)所說:“建立聲譽需要20年,而毀掉聲譽隻需要5分(fēn)鐘(zhōng)。”如果LLM用(yòng)于重要任務,它可(kě)能會創建一種新的(de)職業(LLM事實檢查員(yuán))和(hé)一種新的(de)保險範圍(爲了(le)彌補LLM 錯誤)。 進一步地說,随機鹦鹉的(de)問題可(kě)以被看作是人(rén)工智能和(hé)機器學習(xí)的(de)一個(gè)更普遍的(de)挑戰:如何确保模型是真正的(de)學習(xí)和(hé)推理(lǐ),而不是僅僅去記憶數據當中的(de)模式?随著(zhe)模型的(de)規模和(hé)複雜(zá)性不斷增長(cháng),以及它們越來(lái)越多(duō)地被用(yòng)于醫療保健、金融和(hé)運輸等高(gāo)風險的(de)應用(yòng)中,這(zhè)一挑戰顯得(de)尤爲突出。 由此觀之,當模型過于依賴複制語言模式而并不真正理(lǐ)解其含義時(shí),随機鹦鹉問題就會出現。如果不加以控制,随機鹦鹉會對(duì)人(rén)工智能的(de)發展和(hé)部署,以及依賴這(zhè)些技術完成重要任務的(de)用(yòng)戶産生嚴重後果。這(zhè)凸顯了(le)通(tōng)過仔細的(de)模型設計、評估和(hé)持續監測來(lái)解決此問題的(de)重要性。 最終,我們需要問自己,爲什(shén)麽要把人(rén)工智能的(de)未來(lái)全部押注在大(dà)型語言模型一條路上?紐約大(dà)學教授兼Meta首席AI科學家楊樂(yuè)昆(Yann LeCun)就認爲LLM是“一條下(xià)坡路”,遠(yuǎn)離了(le)通(tōng)往更強大(dà)的(de)AI的(de)道路(The Economist, 2023)。“大(dà)型語言模型能有多(duō)聰明(míng),能有多(duō)準确,都是有限度的(de),因爲它們沒有現實世界的(de)經驗,而這(zhè)确實是語言的(de)基本現實”。他(tā)指出,人(rén)類所學的(de)大(dà)部分(fēn)内容都與語言無關。“我們學習(xí)如何投擲籃球,讓它穿過籃圈”,深度學習(xí)的(de)另一位先驅者傑弗裏·辛頓(Geoffrey Hinton)說:“我們根本不使用(yòng)語言來(lái)學習(xí)。我們從試驗和(hé)錯誤中學習(xí)。”(Smith, 2023) 就算(suàn)語言是發展人(rén)工智能的(de)重要途徑,事情也(yě)很明(míng)顯:無論LLMs及其訓練數據集變得(de)多(duō)麽龐大(dà),它們也(yě)永遠(yuǎn)無法像我們一樣學習(xí)和(hé)理(lǐ)解我們的(de)語言。吊詭的(de)是,語言模型的(de)限制導緻了(le)一種研究趨勢,即專注于研究這(zhè)類模型的(de)知識和(hé)行爲。換言之,人(rén)類正在學習(xí)LLMs的(de)語言,并尋找更好地與它們溝通(tōng)的(de)方法。 這(zhè)是因爲,語言模型是神經網絡,根據從網絡收集的(de)數據進行訓練。經過訓練後,模型可(kě)以接收提示并預測其後的(de)單詞。神經網絡越大(dà),模型的(de)學習(xí)能力就越強。數據集越大(dà),模型接觸不同單詞序列的(de)機會就越大(dà),生成文本時(shí)就越準确。 可(kě)問題是,人(rén)類語言不僅僅是文本。事實上,語言是一種将信息從一個(gè)大(dà)腦(nǎo)傳輸到另一個(gè)大(dà)腦(nǎo)的(de)壓縮方式。我們的(de)談話(huà)經常忽略共享知識,例如視覺和(hé)聽(tīng)覺信息、世界的(de)物(wù)理(lǐ)體驗、過去的(de)談話(huà)、我們對(duì)人(rén)和(hé)物(wù)體行爲的(de)理(lǐ)解、社會結構和(hé)規範等。 正如楊樂(yuè)昆和(hé)紐約大(dà)學計算(suàn)機科學系博士後雅各布·布朗甯(Jacob Browning)在最近的(de)一篇文章(zhāng)中所寫到的(de),“僅靠語言訓練的(de)系統永遠(yuǎn)不會接近人(rén)類智力,即使從現在開始訓練直到宇宙熱(rè)寂”。雖然兩位科學家也(yě)指出,如果我們停留在表面上,語言模型“無疑會接近(人(rén)類智能)。而且,在許多(duō)情況下(xià),表面就足夠了(le)”,但是我們絕不應該把LLMs擁有的(de)淺層理(lǐ)解與人(rén)類從觀察世界景象、探索世界、在世界中進行實驗以及與不同文化(huà)和(hé)其他(tā)人(rén)互動中獲得(de)的(de)深層理(lǐ)解相混淆(Browning, LeCun, 2022)。 所以,假如我們用(yòng)“語言的(de)統計模型”而不是“大(dà)型語言模型”來(lái)描述這(zhè)種人(rén)工智能技術,是否會帶來(lái)更清楚的(de)認知?這(zhè)樣會使我們認識到,統計推理(lǐ)肯定不是人(rén)類合作、創造、協調和(hé)競争的(de)全部故事。 所有人(rén)類的(de)知識最終都能被抓進機器的(de)說法是沒有意義的(de)。我們隻能把可(kě)以用(yòng)比特串表示的(de)知識放入機器。像體育、音(yīn)樂(yuè)、木(mù)匠(jiàng)大(dà)師或創意寫作這(zhè)樣的(de)技能是無法精确描述和(hé)記錄的(de),技能的(de)描述并不就能夠賦予表演的(de)能力。即使它們可(kě)以被代表,表演技能的(de)形式也(yě)是無法被記錄的(de)——它包括表演者的(de)想法和(hé)思考,他(tā)們的(de)神經元記憶狀态,以及他(tā)們的(de)神經肌肉化(huà)學模式。所有這(zhè)些沒有記錄的(de)和(hé)無法記錄的(de)信息的(de)數量遠(yuǎn)遠(yuǎn)超出了(le)可(kě)能存儲在機器數據庫中的(de)範圍。與人(rén)類的(de)能力相比,大(dà)型語言模型所能執行的(de)任何功能都是很小的(de)。 我們是否已經被大(dà)型語言模型迷住了(le),以至于沒有看到我們利用(yòng)語言所做(zuò)的(de)其他(tā)事情?我們建立關系。我們互相關照(zhào)。我們認識并駕馭我們的(de)情緒。我們建立并行使權力。我們做(zuò)出承諾,并貫徹執行。我們創建組織和(hé)社會。我們創造傳統和(hé)曆史。我們爲行動負責。我們打造信任。我們培養智慧。我們愛(ài)。我們想象以前從未想象過的(de)東西。所有這(zhè)些都不是統計學上的(de)。大(dà)型語言模型的(de)能力與人(rén)類的(de)能力之間存在著(zhe)巨大(dà)的(de)鴻溝。 大(dà)型語言模型的(de)四大(dà)發展趨勢 像LLMs這(zhè)樣的(de)大(dà)規模人(rén)工智能模型在過去一段時(shí)間裏中受到了(le)最多(duō)的(de)炒作,也(yě)帶來(lái)了(le)最大(dà)的(de)恐懼。圍繞這(zhè)些系統的(de)興奮和(hé)焦慮都有助于強化(huà)如下(xià)概念,即這(zhè)些模型是“基礎性的(de)”,盡管它們無法對(duì)人(rén)類提示作出有意義的(de)回應的(de)例子數不勝數。值得(de)注意的(de)是,這(zhè)些模型之所以作爲“基礎性”的(de)技術被引入,其實意是在将它們等同于無可(kě)置疑的(de)科學進步,成爲“通(tōng)用(yòng)人(rén)工智能”(這(zhè)是另一個(gè)模糊的(de)術語,讓人(rén)聯想起科幻小說中關于取代或超越人(rén)類智能的(de)概念)道路上的(de)踏腳石,從而使其被廣泛采用(yòng)成爲必然。 在最近的(de)一次采訪中,OpenAI首席執行官山姆·阿爾特曼(Sam Altman)說:“我認爲我們正處于巨大(dà)模型時(shí)代的(de)終結,我們将以其他(tā)方式讓模型變得(de)更好。”(Miller, 2023)言下(xià)之意是,未來(lái)的(de)進展不會來(lái)自于将模型做(zuò)得(de)更大(dà)。 而這(zhè)些“其他(tā)方式”是什(shén)麽?一個(gè)可(kě)能的(de)途徑是在更多(duō)的(de)高(gāo)質量數據上對(duì)模型進行微調,創造更好的(de)訓練技術。人(rén)工管策的(de)數據集可(kě)能是非常有價值的(de),但創建成本高(gāo),速度慢(màn)。根據大(dà)型語言模型的(de)現狀,筆者認爲,有四大(dà)發展趨勢值得(de)高(gāo)度關注: 第一,我們需要緻力于教會語言模型表達不确定性 在大(dà)多(duō)數情況下(xià),人(rén)類知道自身的(de)局限性(即使他(tā)們不直接承認)。他(tā)們可(kě)以表達不确定和(hé)懷疑,并讓對(duì)話(huà)者知道他(tā)們對(duì)自己所傳授的(de)知識有多(duō)自信。而與此相對(duì)照(zhào),語言模型總是對(duì)任何提示都給出現成的(de)答(dá)案,即使它們的(de)輸出是毫無意義的(de)。神經網絡通(tōng)常提供某個(gè)預測正确概率的(de)數值。然而就語言模型而言,這(zhè)些概率分(fēn)數并不代表模型對(duì)提示響應的(de)可(kě)靠性的(de)信心。 OpenAI和(hé)牛津大(dà)學的(de)研究人(rén)員(yuán)發表的(de)一篇論文表明(míng),可(kě)以通(tōng)過教LLMs“用(yòng)語言表達它們的(de)不确定性”來(lái)彌補這(zhè)一缺點。可(kě)對(duì) LLMs進行微調,以使用(yòng)自然語言表達認知上的(de)不确定性,研究者将之描述爲“語言化(huà)概率”(verbalized probability),即用(yòng)語言表達出來(lái)的(de)概率。這(zhè)是一個(gè)重要的(de)發展方向,尤其是在用(yòng)戶希望将語言模型的(de)輸出轉化(huà)爲某個(gè)動作的(de)應用(yòng)程序中。研究人(rén)員(yuán)建議(yì),表達不确定性可(kě)以令語言模型誠實。“如果一個(gè)誠實的(de)模型出現一個(gè)誤導或惡意的(de)内部狀态,那麽它可(kě)以将這(zhè)種狀态傳達給可(kě)采取相應行動的(de)人(rén)類”(Lin et al., 2022)。 第二,與其緻力于模型之大(dà),不如專攻特定模型 鑒于LLMs不理(lǐ)解它們所處理(lǐ)的(de)語言,也(yě)不理(lǐ)解所收到的(de)提示和(hé)自己的(de)回應,所以補救辦法一是靠規模的(de)力量,即訓練數據和(hé)模型參數的(de)巨大(dà)規模,二是靠專業的(de)力量,即在爲特定行業或領域(如醫療保健和(hé)醫學)定制開發更專門的(de)模型的(de)情況下(xià),有針對(duì)性地管策訓練數據,這(zhè)将有助于解決LLMs在涉及特定問題時(shí)的(de)某些局限性。 想象一下(xià),像ChatGPT這(zhè)樣的(de)LLM已經在最好的(de)醫學文獻上接受了(le)訓練,但訓練數據當中也(yě)有討(tǎo)論健康問題的(de)Reddit線程。人(rén)工智能有時(shí)可(kě)以通(tōng)過檢索和(hé)參考高(gāo)質量的(de)信息來(lái)回應,但其他(tā)時(shí)候它通(tōng)過使用(yòng)完全不可(kě)靠的(de)Reddit信息來(lái)回應。事實上,假如醫學文獻中沒有這(zhè)些信息(例如一種非常罕見的(de)疾病),它更有可(kě)能編造這(zhè)些信息(此即人(rén)工智能行業常說的(de)幻覺)。比爾·蓋茨(Bill Gates)曾預想過,ChatGPT或類似的(de)大(dà)型語言模型有一天可(kě)以爲沒有機會看醫生的(de)人(rén)提供醫療建議(yì)(Trang, 2023),然而你如何能相信一個(gè)容易産生幻覺的(de)機器的(de)建議(yì)? 所以我們需要通(tōng)過使用(yòng)較小和(hé)較高(gāo)質量的(de)數據集對(duì)特定的(de)知識領域進行訓練。例如,擁有數十億參數的(de)大(dà)型臨床語言模型可(kě)以利用(yòng)電子健康記錄中的(de)非結構化(huà)文本,幫助提取醫學概念和(hé)回答(dá)醫學問題,預測疾病或再入院風險,并總結臨床文本。而一個(gè)專門爲法律行業設計的(de)模型可(kě)以接受法律術語和(hé)行話(huà)的(de)訓練,使其更好地處理(lǐ)法律文件。 像BloombergGPT這(zhè)樣的(de)例子表明(míng),紮根于特定領域的(de)企業能夠使用(yòng)免費提供的(de)、現成的(de)人(rén)工智能方法,處理(lǐ)大(dà)量的(de)專有數據。與OpenAI的(de)GPT3/4這(zhè)樣的(de)“基礎性”模型不同,彭博社的(de)模型是爲特定任務而設計的(de)。它在公司多(duō)年來(lái)收集的(de)大(dà)量金融文本上專門訓練,爲的(de)是創建一個(gè)對(duì)金錢和(hé)商業能夠産生特别流利的(de)認知的(de)模型。在用(yòng)于創建彭博社模型的(de)數據中,約有一半來(lái)自網絡上的(de)非金融來(lái)源,包括GitHub、YouTube字幕和(hé)維基百科。但彭博社還(hái)爲自己的(de)模型添加了(le)1000多(duō)億單詞,來(lái)自一個(gè)名爲FinPile的(de)專有數據集,其中包括該公司在過去20年中積累的(de)金融數據,内含證券文件、企業新聞發布、彭博社新聞報道、其他(tā)出版物(wù)的(de)報道,以及專注于金融網頁的(de)網絡爬行等。事實證明(míng),添加特定的(de)培訓材料可(kě)以提高(gāo)金融任務的(de)準确性和(hé)性能。彭博社正計劃将其GPT整合到通(tōng)過公司終端産品訪問的(de)功能和(hé)服務中,盡管彭博社還(hái)未有計劃推出ChatGPT式聊天機器人(rén)(Leswing, 2023)。 第三,高(gāo)質量的(de)數據将成爲LLM稱霸的(de)新戰場(chǎng) 限制LLM持續改進的(de)最重要限制是可(kě)用(yòng)的(de)訓練數據量。《經濟學人(rén)》報道說,2022年10月(yuè)發表的(de)一篇論文得(de)出的(de)結論是,“高(gāo)質量語言數據的(de)存量将很快(kuài)耗盡,可(kě)能就在2026年之前”(The Economist, 2023)。肯定有更多(duō)可(kě)用(yòng)的(de)文本,但它們被一小塊一小塊地鎖定在公司數據庫或個(gè)人(rén)設備上,無法以Common Crawl允許的(de)規模和(hé)低成本加以訪問。這(zhè)種數據稀缺對(duì)LLM的(de)進一步發展提出了(le)挑戰。 2023年4月(yuè)18日,Reddit宣布,它将開始對(duì)其API的(de)訪問收費(Isaac, 2023)。這(zhè)一決定是在Twitter對(duì)其API實施類似限制之後做(zuò)出的(de)(Mehta,2023)。近年來(lái),Reddit的(de)系列聊天成爲谷歌(gē)、OpenAI和(hé)微軟等公司的(de)免費教具。這(zhè)些公司使用(yòng)Reddit的(de)對(duì)話(huà)來(lái)幫助開發巨型人(rén)工智能系統。然而現在,Reddit聯合創始人(rén)兼首席執行官史蒂夫·赫夫曼(Steve Huffman)稱:“我們不需要把所有這(zhè)些價值免費提供給世界上最大(dà)的(de)一些公司。” 随即,程序員(yuán)問答(dá)網站Stack Overflow也(yě)宣布将開始對(duì)其 API收費。首席執行官普拉桑斯·錢德拉塞卡爾(Prashanth Chandrasekar)表示:“我們非常支持 Reddit 的(de)做(zuò)法”,“爲LLM提供動力的(de)社區(qū)平台絕對(duì)應該因其貢獻而得(de)到補償,這(zhè)樣像我們這(zhè)樣的(de)公司就可(kě)以重新注資到社區(qū),讓其繼續蓬勃發展。”(Dave,2023) Reddit和(hé)Stack Overflow等平台爲微調LLM提供了(le)快(kuài)速訪問具體主題和(hé)問題的(de)寶貴數據,而這(zhè)些平台的(de)所有者正意識到它們所掌握的(de)數據的(de)價值。數據市場(chǎng)日益激烈的(de)競争可(kě)能推動行業走向更少的(de)共享和(hé)更多(duō)的(de)貨币化(huà)。不幸的(de)是,激進的(de)貨币化(huà)将進一步增強能夠負擔API成本的(de)大(dà)型科技公司的(de)能力。相應地,小型實驗室和(hé)資金緊張的(de)初創公司将不得(de)不處理(lǐ)手頭可(kě)用(yòng)的(de)低質量數據。 第四,開源模型可(kě)以成爲大(dà)科技公司封閉服務的(de)替代品 最先進的(de)LLM需要巨大(dà)的(de)計算(suàn)預算(suàn)和(hé)深厚的(de)機器學習(xí)專業知識,所以很少有機構能夠從頭開始訓練它們。然而,那些擁有資源和(hé)專業知識的(de)機構越來(lái)越多(duō)地不開放模型(無論是數據、源代碼或深度學習(xí)的(de)秘方——模型權重)供公衆監督,而是依靠API分(fēn)發。 這(zhè)就是開源人(rén)工智能可(kě)以介入的(de)地方,它使獲得(de)LLM的(de)機會民主化(huà)。各種社區(qū)平台正在努力創建開源的(de)模型,以替代大(dà)科技公司提供的(de)封閉的(de)專有服務。這(zhè)些努力是爲了(le)防止少數富有的(de)公司在快(kuài)速增長(cháng)的(de)生成式人(rén)工智能市場(chǎng)上擁有過多(duō)的(de)權力。 例如,我們開始看到Anthropic、Cohere和(hé)Character.ai等公司建立的(de)LLMs更接近OpenAI的(de)性能水(shuǐ)平,它們在類似的(de)數據集上訓練,并采用(yòng)類似的(de)模型架構。“穩定擴散”的(de)例子表明(míng),如果開源模型的(de)性能和(hé)社區(qū)支持達到了(le)足夠的(de)水(shuǐ)平,那些封閉的(de)大(dà)型模型未必能與其競争。 “穩定擴散”隻需較少的(de)計算(suàn)能力就可(kě)以工作。與在OpenAI強大(dà)的(de)服務器上運行的(de)DALL-E 2不同,穩定擴散可(kě)以在良好的(de)個(gè)人(rén)電腦(nǎo)上運行。創造力的(de)爆發和(hé)新應用(yòng)程序的(de)快(kuài)速發展在很大(dà)程度上是由于“穩定擴散”:既是開源的(de),程序員(yuán)可(kě)以自由地改變它,在它的(de)基礎上發展,并從中賺錢;又足夠輕巧,人(rén)們可(kě)以在家中運行。 谷歌(gē)的(de)一位高(gāo)級軟件工程師認爲,不管是OpenAI還(hái)是谷歌(gē),在人(rén)工智能競賽中都沒有勝算(suàn),構成威脅的(de)“第三派”将是開源社區(qū)。開源技術開發者沒有所有權,他(tā)們将自己的(de)作品發布給任何人(rén),讓他(tā)們根據自己的(de)需要使用(yòng)、改進或改編。開源的(de)曆史例子包括Linux操作系統和(hé)LibreOffice,這(zhè)是微軟Office的(de)替代品。 這(zhè)位谷歌(gē)工程師說,開源人(rén)工智能開發者“已經在搶占先機”,他(tā)舉出的(de)例子包括Meta公司開發的(de)大(dà)型開源語言模型LLaMA。2023年2月(yuè)底發布的(de)LLaMA因其優于GPT-3等模型的(de)性能而立即受到歡迎,盡管其參數隻有650億(Meta AI, 2023)。7 月(yuè) 18 日,LlaMa2發布包含了(le) 70 億、130 億和(hé) 700 億參數的(de)模型,它對(duì)于人(rén)工智能應用(yòng),就像安卓操作系統之于手機APP開發一樣,目的(de)就是讓應用(yòng)層開發者可(kě)以直接以最低成本獲得(de)大(dà)模型的(de)基礎設施使用(yòng)。有了(le)這(zhè)樣的(de)模型,從事人(rén)工智能模型的(de)門檻已經“從某一個(gè)主要研究機構的(de)總産出降至一個(gè)人(rén)、一個(gè)晚上和(hé)一台強大(dà)的(de)筆記本電腦(nǎo)”。一個(gè)LLM現在可(kě)以在幾個(gè)小時(shí)内以100美(měi)元的(de)價格進行微調。憑借其快(kuài)速移動、協作和(hé)低成本的(de)模式,開源模型有一些谷歌(gē)或OpenAI無法複制的(de)顯著優勢(Milmo, 2023)。而當免費的(de)或低價的(de)、不受限制的(de)替代品在質量上與封閉的(de)大(dà)型模式不相上下(xià)時(shí),人(rén)們不會爲一個(gè)設限的(de)人(rén)工智能模型付費。 當然,像任何事情一樣,這(zhè)同時(shí)具有積極和(hé)消極的(de)影(yǐng)響。從正面看,它使少數公司壟斷控制人(rén)工智能的(de)可(kě)能性大(dà)大(dà)降低,也(yě)将使獲得(de)人(rén)工智能的(de)成本大(dà)大(dà)降低,加速整個(gè)領域的(de)創新,并使研究人(rén)員(yuán)更容易分(fēn)析人(rén)工智能系統的(de)行爲(因其對(duì)專有模型的(de)訪問是有限的(de)),提高(gāo)透明(míng)度和(hé)安全性。但是,更容易獲得(de)人(rén)工智能,也(yě)意味著(zhe)不良行爲者将可(kě)以出于自身的(de)邪惡目的(de)而對(duì)系統進行微調,例如生産虛假信息。這(zhè)将使人(rén)工智能更難于監管,因爲精靈已經逃出了(le)瓶子。 大(dà)型語言模型的(de)社會後果 大(dà)型語言模型已經徹底改變了(le)我們與計算(suàn)機互動的(de)方式。它們能夠理(lǐ)解自然語言并對(duì)複雜(zá)的(de)問題做(zuò)出反應。随著(zhe)人(rén)工智能驅動的(de)LLMs(如ChatGPT)的(de)發展,它們已經變得(de)越來(lái)越有用(yòng)并走向通(tōng)用(yòng)。 然而,它們的(de)迅速進展也(yě)不是沒有争議(yì)的(de)。許多(duō)人(rén)擔心如此強大(dà)的(de)技術所帶來(lái)的(de)反響,憂慮這(zhè)些模型可(kě)能被用(yòng)來(lái)操縱信息或替代人(rén)類的(de)經驗。爲了(le)充分(fēn)了(le)解它們的(de)範圍和(hé)力量,探索LLMs如何影(yǐng)響社會的(de)不同方面非常重要。 鑒于這(zhè)些開創性的(de)模型的(de)廣泛采用(yòng)所帶來(lái)的(de)巨大(dà)可(kě)能性和(hé)潛在風險,社會已經對(duì)其使用(yòng)産生了(le)不同的(de)反應。例如,在開發和(hé)分(fēn)發這(zhè)些模型的(de)源代碼時(shí),是采取開源還(hái)是閉源方式? 總的(de)來(lái)說,開源是指任何人(rén)都可(kě)以免費使用(yòng)、修改和(hé)發布的(de)源代碼,而閉源是指不能在創造它的(de)機構之外修改或發布的(de)專有代碼。在GPT-3之前,大(dà)多(duō)數大(dà)型語言模型都是開源的(de),但目前,越來(lái)越多(duō)的(de)公司将他(tā)們的(de)模型變成閉源的(de),例如PaLM、LaMDA和(hé)GPT-4。在OpenAI宣布GPT-4模型的(de)文件中,該公司說它不會提供關于架構、模型大(dà)小、硬件、訓練計算(suàn)、數據構建或用(yòng)于開發GPT-4的(de)訓練方法的(de)細節,隻是指出它使用(yòng)了(le)從人(rén)類反饋中強化(huà)學習(xí)的(de)方法,聲稱這(zhè)是由于競争和(hé)安全方面的(de)考慮(AI Now Institute, 2023)。 同樣,出于大(dà)型語言模型的(de)競争格局和(hé)安全問題,OpenAI向客戶提供的(de)付費訪問,也(yě)有許多(duō)法律和(hé)技術限制。這(zhè)使得(de)學術研究人(rén)員(yuán)更難進行LLM訓練實驗。對(duì)研究界來(lái)說,最直接的(de)問題之一是缺乏透明(míng)度。ChatGPT及其前身的(de)基礎訓練集和(hé)LLMs是不公開的(de),科技公司可(kě)能會隐瞞其對(duì)話(huà)式AI的(de)内部運作。這(zhè)與透明(míng)度和(hé)開放科學的(de)趨勢背道而馳。在這(zhè)種情況下(xià),有關人(rén)工智能的(de)模型能力的(de)主張無法被其他(tā)人(rén)驗證或複制,客戶也(yě)不可(kě)能下(xià)載ChatGPT背後的(de)模型。 相比之下(xià),開源工作涉及創建一個(gè)模型,然後将其發布給任何人(rén),讓他(tā)們根據自己的(de)需要使用(yòng)、改進或改編。業界推動開源LLM的(de)工作,承諾多(duō)方合作和(hé)權力共享,而這(zhè)正是互聯網的(de)最初理(lǐ)想。它顯示了(le)不同的(de)社區(qū)如何能夠相互幫助,攜手推進大(dà)型語言模型的(de)下(xià)一步發展。 圍繞著(zhe)LLMs的(de)另一個(gè)關鍵問題是它們的(de)倫理(lǐ)含義。随著(zhe)這(zhè)些系統變得(de)越來(lái)越複雜(zá),有關操縱人(rén)類行爲或公衆輿論的(de)問題日益凸顯。此外,LLMs有可(kě)能被用(yòng)作惡意行爲者或組織獲取私人(rén)數據或傳播虛假信息的(de)工具。出于對(duì)偏見和(hé)準确性的(de)擔憂,人(rén)們也(yě)擔心它們在醫療診斷、法律決定甚至政府政策中的(de)使用(yòng)。 “深度僞造”(deepfake),由人(rén)工智能創造的(de)圖像和(hé)視頻(pín),已經在媒體、娛樂(yuè)和(hé)政治中出現了(le)。在此之前,創造深度僞造的(de)内容需要相當多(duō)的(de)計算(suàn)技能,然而,現在幾乎任何人(rén)都能創造它們。OpenAI已經試圖通(tōng)過在每張DALL-E 2的(de)圖像上“打上水(shuǐ)印”來(lái)控制虛假圖像,但未來(lái)可(kě)能需要更多(duō)的(de)控制手段——特别是當生成式視頻(pín)創作成爲主流時(shí)。 生成式人(rén)工智能還(hái)提出了(le)許多(duō)有關何爲原創和(hé)專有内容的(de)問題。由于創建的(de)文本和(hé)圖像與以前的(de)任何内容都不完全一樣,AI系統供應商認爲人(rén)工智能生成内容屬于提示的(de)創造者。但它們顯然是用(yòng)于訓練模型的(de)先前文本和(hé)圖像的(de)衍生品。不用(yòng)說,類似技術将在未來(lái)幾年爲知識産權律師提供大(dà)量工作。 在隐私方面,LLMs本質上是個(gè)人(rén)化(huà)的(de),它收集大(dà)量的(de)用(yòng)戶數據,以便能夠有效地預測對(duì)話(huà)的(de)長(cháng)度、主題和(hé)軌迹。此外,每次與 ChatGPT 這(zhè)樣的(de)工具的(de)互動都有一個(gè)唯一的(de)标識符——有使用(yòng)它的(de)人(rén)的(de)登錄軌迹。因此,個(gè)人(rén)對(duì) ChatGPT 的(de)使用(yòng)并非真正的(de)匿名,這(zhè)就引發了(le)有關 OpenAI 保留敏感數據的(de)問題。圍繞著(zhe)數據的(de)收集、存儲和(hé)使用(yòng),必須進行一系列的(de)深思熟慮,以便安全地使用(yòng)LLMs。 LLMs與其他(tā)人(rén)工智能技術一樣受到監管和(hé)合規框架的(de)約束,但随著(zhe)它們變得(de)越來(lái)越普遍,可(kě)能會提出新的(de)問題:如何以符合《通(tōng)用(yòng)數據保護條例》(GDPR)和(hé)其他(tā)法規的(de)方式使用(yòng)此類工具。由于 ChatGPT 處理(lǐ)用(yòng)戶數據以生成響應,OpenAI 或者出于自身目的(de)而依賴 ChatGPT 的(de)實體可(kě)能被視爲 GDPR 下(xià)的(de)數據控制者,這(zhè)意味著(zhe)它們應該獲得(de)處理(lǐ)用(yòng)戶個(gè)人(rén)數據的(de)合法依據(例如用(yòng)戶的(de)同意),并且必須告知用(yòng)戶它們在從事何種由ChatGPT支持的(de)數據處理(lǐ)活動。 所有這(zhè)些潛在的(de)問題強調了(le)爲什(shén)麽科學家、研究人(rén)員(yuán)和(hé)其他(tā)使用(yòng)LLMs的(de)人(rén)或組織在将其投入實際使用(yòng)之前,從多(duō)個(gè)角度積極審查大(dà)型語言模型的(de)影(yǐng)響是至關重要的(de)。如果深思熟慮地考量倫理(lǐ)方面的(de)影(yǐng)響,再加上嚴格的(de)安全措施,大(dà)型語言模型就可(kě)以成爲有價值的(de)工具,而不會破壞用(yòng)戶的(de)信任或損害完整性。 此外,雖然大(dà)型語言模型的(de)趨勢仍在繼續,但重要的(de)是要注意,更大(dà)并不總是意味著(zhe)更好。大(dà)型語言模型可(kě)以很好地進行随心所欲的(de)創造性互動,但過去十年的(de)發展告訴我們,大(dà)型深度學習(xí)模型是高(gāo)度不可(kě)預測的(de),使模型更大(dà)、更複雜(zá)并不能解決這(zhè)個(gè)問題。 像ChatGPT這(zhè)樣的(de)大(dà)型語言模型,具有與用(yòng)戶進行類似語言交流的(de)能力,有可(kě)能成爲交流和(hé)教育以及其他(tā)許多(duō)領域的(de)強大(dà)工具。然而,一方面其對(duì)社會的(de)影(yǐng)響是巨大(dà)的(de);另一方面其被濫用(yòng)的(de)可(kě)能性也(yě)是非常真實的(de)。因此,需要更多(duō)的(de)研究來(lái)認識大(dà)型語言模型的(de)社會後果及對(duì)我們生活的(de)影(yǐng)響。随著(zhe)人(rén)工智能和(hé)數據科學越來(lái)越多(duō)地融入日常生活中,重要的(de)是要加強這(zhè)類技術的(de)倫理(lǐ)考量,并尊重我們的(de)數據和(hé)隐私賦予我們的(de)個(gè)人(rén)權利。該領域的(de)領導者必須共同努力,确保大(dà)型語言模型的(de)使用(yòng)是負責任的(de),符合人(rén)類的(de)最佳利益。 大(dà)型語言模型帶來(lái)的(de)交流困境
ChatGPT和(hé)其他(tā)生成式人(rén)工智能工具正在将有關大(dà)型語言模型的(de)對(duì)話(huà)帶到公衆關注的(de)最前沿,并且帶著(zhe)一種前所未有的(de)緊迫感。現在,人(rén)們必須就人(rén)工智能的(de)未來(lái)是什(shén)麽樣子以及如何創造我們想要的(de)未來(lái)進行交流。
我們需要傳播理(lǐ)論、傳播研究和(hé)基于倫理(lǐ)的(de)傳播實踐來(lái)關注和(hé)指導這(zhè)樣的(de)對(duì)話(huà)。數字人(rén)文學者馬修·科申鮑姆(Matthew Kirschenbaum)預測,即将到來(lái)的(de)“文本末日”将導緻“文本海嘯”,“在任何數字環境中都無法可(kě)靠地進行交流”(Kirschenbaum, 2023)。
科申鮑姆所稱的(de)“文本末日”是指,我們與書(shū)面文字的(de)關系正在發生根本性的(de)變化(huà)。通(tōng)過ChatGPT等程序,所謂的(de)生成式人(rén)工智能已經成爲主流,這(zhè)些程序使用(yòng)大(dà)型語言模型來(lái)統計預測序列中的(de)下(xià)一個(gè)字母或單詞,從而生成模仿其所訓練的(de)文本内容的(de)句子和(hé)段落。它們爲整個(gè)互聯網帶來(lái)了(le)類似自動完成(autocomplete)的(de)功能。
目前,人(rén)們仍然在爲這(zhè)些程序輸入實際的(de)提示信息,同樣,這(zhè)些模型(大(dà)部分(fēn))仍然是根據人(rén)類散文而不是機器自制的(de)作品進行訓練的(de)。但情況可(kě)能會發生變化(huà)——OpenAI發布ChatGPT應用(yòng)程序接口就證明(míng)了(le)這(zhè)一點,它将允許該技術直接集成到社交媒體和(hé)在線購(gòu)物(wù)等網絡應用(yòng)中(Wiggers,2023)。不難想象,在這(zhè)種情況下(xià),機器可(kě)以促使其他(tā)機器無休止地發布文本,從而使互聯網充斥著(zhe)沒有人(rén)類的(de)能動性或意圖的(de)合成文本。
2022年6月(yuè)3日,人(rén)工智能研究者兼YouTuber揚尼克·基爾徹(Yannic Kilcher)發布了(le)一段視頻(pín),介紹他(tā)如何開發名爲“GPT-4chan”的(de)人(rén)工智能模型,然後部署機器人(rén)在著名留言闆4chan上僞裝成人(rén)類。4chan常被描述爲互聯網亞文化(huà)的(de)中心,其社區(qū)對(duì)知名互聯網模型的(de)形成和(hé)普及以及黑(hēi)客行動和(hé)政治運動具有相當大(dà)的(de)影(yǐng)響力。4chan經常作爲争議(yì)來(lái)源而受到媒體關注,包括協調組織針對(duì)某些網站和(hé)用(yòng)戶的(de)惡作劇和(hé)騷擾,以及發布非法和(hé)攻擊性内容。
GPT-4chan是一個(gè)大(dà)型語言模型,通(tōng)過使用(yòng)之前公開發布的(de)數據集對(duì)GPT-J進行微調來(lái)模拟4chan的(de)/pol/匿名留言闆用(yòng)戶而創建;其中許多(duō)用(yòng)戶經常表達種族主義、白人(rén)至上主義、反猶主義、反穆斯林(lín)、厭惡女(nǚ)性和(hé)反 LGBT的(de)觀點。基爾徹訓練機器人(rén)閱讀了(le)4Chan這(zhè)一臭名昭著的(de)“政治不正确”闆塊3年半時(shí)間内的(de)1.345億條帖子,很自然地,該模型學會了(le)輸出各種仇恨言論,導緻基爾徹稱其爲“互聯網上最可(kě)怕的(de)模型”,并在他(tā)的(de)視頻(pín)中這(zhè)樣說道:“這(zhè)個(gè)模型很好,但從一個(gè)可(kě)怕的(de)意義上來(lái)說……它完美(měi)概括了(le)/pol/上大(dà)多(duō)數帖子中滲透的(de)攻擊性、虛無主義、惡搞以及對(duì)任何信息的(de)深度不信任。”(Kilcher, 2022)
在訓練完成後,由該模型驅動的(de)10個(gè)機器人(rén)被部署在/pol/留言闆上,24小時(shí)内匿名發布了(le)1.5萬條基本上是有毒的(de)信息。雖說許多(duō)用(yòng)戶通(tōng)過留言闆上的(de)發帖頻(pín)率很快(kuài)認定這(zhè)是一個(gè)機器人(rén),而基爾徹也(yě)公布了(le)在服務器上運行模型所需的(de)代碼和(hé)已訓練的(de)模型實例,并表示人(rén)工智能研究人(rén)員(yuán)可(kě)以聯系他(tā)獲取機器人(rén)與4chan用(yòng)戶的(de)互動記錄,可(kě)是他(tā)的(de)做(zuò)法還(hái)是在人(rén)工智能研究者社區(qū)内引發了(le)較大(dà)争議(yì)。
GPT-4chan模型發布在Hugging Face上,這(zhè)是一個(gè)共享經過訓練的(de)AI模型的(de)中心。在該模型被下(xià)載了(le)1000餘次後,Hugging Space團隊首先“限制”了(le)對(duì)它的(de)訪問,此後不久,他(tā)們又完全删除了(le)對(duì)它的(de)訪問權限,其頁面現在刊有以下(xià)免責聲明(míng):“已禁用(yòng)對(duì)該模型的(de)訪問——鑒于其研究範圍,在所有禁止使用(yòng)機器人(rén)的(de)網站上故意使用(yòng)該模型生成有害内容(不完全示例包括:仇恨言論、垃圾郵件生成、假新聞、騷擾和(hé)辱罵、貶低和(hé)诽謗)被視爲對(duì)該模型的(de)濫用(yòng)。”(Kurenkov, 2022)
在人(rén)工智能研究界,有人(rén)認爲這(zhè)樣的(de)模型很可(kě)能造成傷害,特别是在面向青少年的(de)論壇中。讓機器人(rén)與 4chan 用(yòng)戶互動是不道德的(de),它加劇了(le)4chan本已有毒的(de)回聲室效應并進一步分(fēn)化(huà)了(le)用(yòng)戶群。阿德萊德大(dà)學的(de)人(rén)工智能安全研究員(yuán)勞倫·奧克登-雷納(Lauren Oakden-Rayner)在一條推文中指責基爾徹“在未告知用(yòng)戶、未經同意或監督的(de)情況下(xià)進行人(rén)類實驗”,她認爲這(zhè)違反了(le)人(rén)類研究倫理(lǐ)的(de)所有原則(Mellor, 2022)。
基爾徹在接受The Verge采訪時(shí)将該項目描述爲一個(gè)“惡作劇”,他(tā)認爲考慮到 4chan本身的(de)性質,這(zhè)種惡作劇幾乎沒有造成什(shén)麽有害影(yǐng)響。“/pol/上完全可(kě)以預料到會有機器人(rén)和(hé)非常粗魯的(de)言談”(Vincent, 2022)。并且,任何潛在的(de)危害也(yě)可(kě)以使用(yòng)其他(tā)現有模型來(lái)實現。
的(de)确,基爾徹不會是第一個(gè)、也(yě)不是唯一一個(gè)創建惡意的(de)微調模型的(de)人(rén)。所以,問題在于,如果出現更多(duō)的(de)微調模型,其内容指向在意識形态層面複制一種特定世界觀,會爲未來(lái)的(de)人(rén)類交流帶來(lái)什(shén)麽?
基爾徹創建的(de)機器人(rén)非常逼真。“它能對(duì)上下(xià)文做(zuò)出反應,并能連貫地講述在收集最後一次訓練數據很久之後發生的(de)事情和(hé)事件”,基爾徹在視頻(pín)中稱。以此類推,有人(rén)可(kě)以建立一個(gè)系統,讓ChatGPT這(zhè)樣的(de)程序反複向自己提問,并自動将輸出結果發布到網站或社交媒體上。這(zhè)樣無休止地叠代内容流,除了(le)在交流場(chǎng)域造成混亂,它還(hái)将被再次吸入大(dà)型語言模型的(de)訓練集,讓模型在互聯網上制造自己的(de)新内容。如果各路人(rén)馬——無論是出于廣告收入、政治或意識形态目的(de)還(hái)是惡作劇——都開始這(zhè)樣做(zuò),每天難以數計的(de)類似帖子充斥在開放的(de)互聯網上,與搜索結果混雜(zá)在一起,在社交媒體平台上傳播,滲透到維基百科詞條中,尤其是爲未來(lái)的(de)機器學習(xí)系統提供素材,那将會怎樣?
将基爾徹的(de)工作與過去最著名的(de)變壞了(le)的(de)機器人(rén)的(de)例子相比較是非常有趣的(de):微軟的(de)Tay。微軟于2016年在 Twitter上發布了(le)人(rén)工智能聊天機器人(rén),但在用(yòng)戶教導Tay重複各種種族主義和(hé)煽動性言論後,不到24小時(shí),微軟就被迫下(xià)線該項目(Vincent, 2016)。可(kě) 是在那時(shí),創建這(zhè)樣的(de)機器人(rén)專屬于大(dà)型科技公司的(de)領域,基爾徹現在的(de)做(zuò)法表明(míng),任何一人(rén)編碼團隊都可(kě)以使用(yòng)更先進的(de)人(rén)工智能工具達成同樣的(de)結果。至于說到人(rén)類研究倫理(lǐ)的(de)指責,如果基爾徹在大(dà)學工作,讓AI機器人(rén)在 4chan上自由活動可(kě)能是不道德的(de)。但基爾徹堅稱自己隻是一名YouTuber,這(zhè)暗示著(zhe)他(tā)認爲此處适用(yòng)不同的(de)倫理(lǐ)規則。
面對(duì)如此嚴峻的(de)局面,我們該如何應對(duì)?筆者認爲,傳播學可(kě)以發揮作用(yòng)的(de)領域包括:
讓開發者對(duì)人(rén)工智能偏見負責。像希瑟·伍茲(Heather S. Woods)和(hé)泰勒·莫蘭(Taylor C. Moran)這(zhè)樣的(de)傳播研究者已經發表了(le)關于人(rén)工智能虛拟助手(如Siri和(hé)Alexa)與性别和(hé)種族刻闆印象的(de)重要研究成果,顯示了(le)人(rén)工智能是如何反映并重新定義人(rén)類偏見和(hé)價值觀的(de)(Woods, 2018;Moran, 2021)。随著(zhe)生成式人(rén)工智能和(hé)新應用(yòng)的(de)引入,這(zhè)一領域還(hái)需要更多(duō)的(de)研究。研究的(de)目的(de)是喚醒公衆去追究那些生産強化(huà)此類偏見的(de)人(rén)工智能軟件組織的(de)責任。
具體就大(dà)型語言模型而言,一件重要的(de)事情是幫助制訂發布“基礎性”模型的(de)社區(qū)規範。斯坦福以人(rén)爲本人(rén)工智能研究院(HAI,Human-Centered AI Institute)和(hé)基礎模型研究中心(CRFM, Center for Research on Foundation Models)就提出,随著(zhe)基礎模型變得(de)更加強大(dà)和(hé)普遍,負責任發布的(de)問題變得(de)至關重要(Liang, 2022)。而“發布”一詞本身就有不同的(de)内涵:首先是研究訪問,即基礎模型開發者令外部研究人(rén)員(yuán)可(kě)以訪問數據、代碼和(hé)模型等資産;而部署到用(yòng)戶中開展測試和(hé)收集反饋,以及以産品形式部署到最終用(yòng)戶中,則構成了(le)更深入的(de)發布形式。
随著(zhe)AI技術變得(de)越來(lái)越強大(dà),每個(gè)基礎模型開發者獨立決定其發布政策的(de)問題凸顯出來(lái)。原因有二:首先,單個(gè)行爲者發布不安全、功能強大(dà)的(de)技術可(kě)能會對(duì)個(gè)人(rén)和(hé)社會造成重大(dà)傷害。即便認爲當今基礎模型的(de)風險還(hái)沒有嚴重到有理(lǐ)由限制相對(duì)開放的(de)發布,然而迅猛的(de)發展速度也(yě)給未來(lái)模型的(de)能力帶來(lái)了(le)相當大(dà)的(de)不确定性。其次,正因爲基礎模型風險的(de)嚴重性尚不明(míng)确,基礎模型開發者将從分(fēn)享最佳實踐中獲益,而無需每個(gè)組織都“重新發明(míng)輪子”,承擔重新發現某些危害的(de)經濟和(hé)社會成本。此外,加強合作和(hé)提高(gāo)透明(míng)度可(kě)以解決集體行動問題,即由于快(kuài)速行動的(de)強烈經濟動機,各組織通(tōng)常對(duì)負責任的(de)人(rén)工智能投資不足(Askell et al,2019;胡泳,朱政德,2023)。底線就是,需要社區(qū)規範來(lái)管理(lǐ)基礎模型的(de)發布。在向公衆發布人(rén)工智能代碼或模型時(shí),既要考慮這(zhè)樣做(zuò)的(de)直接影(yǐng)響,也(yě)要考慮其他(tā)人(rén)使用(yòng)這(zhè)些代碼或模型可(kě)能産生的(de)下(xià)遊影(yǐng)響。
完善把關機制,限制訪問或移除可(kě)能有害的(de)模型和(hé)數據集。随著(zhe)AI逐漸成爲各類信息和(hé)知識的(de)把關人(rén),爲AI系統設置把關人(rén)成爲迫切需要。例如,基爾徹使用(yòng)的(de)數據集過去和(hé)現在都是公開的(de),任何人(rén)都可(kě)以下(xià)載,因此可(kě)以想象,擁有人(rén)工智能技術的(de)人(rén)有可(kě)能會用(yòng)它來(lái)創建一個(gè)以傳播仇恨言論爲目的(de)的(de)機器人(rén)。一旦這(zhè)樣的(de)機器人(rén)公開發布,像本文中提到的(de)Hugging Face拔掉下(xià)載插頭的(de)把關行爲就是值得(de)稱許的(de)。
2020年7月(yuè),麻省理(lǐ)工學院下(xià)線了(le)一個(gè)龐大(dà)且被高(gāo)度引用(yòng)的(de)數據集,因爲兩名研究人(rén)員(yuán)發現該數據集使用(yòng)種族主義和(hé)厭惡女(nǚ)性的(de)術語來(lái)描述黑(hēi)人(rén)/亞洲人(rén)和(hé)女(nǚ)性的(de)圖像。這(zhè)一名爲“8000萬張小圖像”(80 Million Tiny Images)的(de)訓練集是在2008年創建的(de),目的(de)是開發先進的(de)物(wù)體檢測技術。它被用(yòng)來(lái)教授機器學習(xí)模型識别靜态圖像中的(de)人(rén)和(hé)物(wù)體(Quach, 2020)。在技術新聞網站The Register向大(dà)學發出警報後,麻省理(lǐ)工學院删除了(le)數據集,并敦促研究人(rén)員(yuán)和(hé)開發人(rén)員(yuán)停止使用(yòng)該訓練庫,并删除所有副本。大(dà)學還(hái)在其網站上發表了(le)官方聲明(míng)并道歉(Ustik, 2020)。
這(zhè)種道德上可(kě)疑的(de)數據集所造成的(de)損害遠(yuǎn)遠(yuǎn)超出了(le)不良品位;該數據集被輸入神經網絡,教導它們将圖像與單詞關聯起來(lái)。這(zhè)意味著(zhe)任何使用(yòng)此類數據集的(de)人(rén)工智能模型都在學習(xí)種族主義和(hé)性别歧視,而這(zhè)可(kě)能會導緻帶有性别歧視或種族主義的(de)聊天機器人(rén)、存在種族偏見的(de)軟件,甚至更糟的(de)社會後果,比如警方使用(yòng)人(rén)臉識别系統誤認某人(rén),并因其未曾犯下(xià)的(de)罪行而實施逮捕(Hill, 2020)。
部分(fēn)問題在于數據集是如何構建的(de)。“8000萬張小圖像”包含2006年根據 WordNet(一個(gè)用(yòng)于計算(suàn)語言學和(hé)自然語言處理(lǐ)的(de)英語單詞數據庫)的(de)查詢從互聯網上抓取的(de) 7930.2017 萬張圖像。據創建者介紹,他(tā)們直接從WordNet複制了(le) 5.3萬多(duō)個(gè)名詞,然後自動從各個(gè)搜索引擎下(xià)載與這(zhè)些名詞相對(duì)應的(de)圖像。由于WordNet包含貶義術語,用(yòng)戶最終會得(de)到無意中證實和(hé)強化(huà)刻闆印象及有害偏見的(de)結果(Song, 2020;Kurenkov, 2022)。
另一個(gè)有問題的(de)數據集是ImageNet。ImageNet是一個(gè)大(dà)型視覺數據庫,用(yòng)于視覺對(duì)象識别軟件研究。2019年,在一個(gè)名爲ImageNet Roulette的(de)藝術項目顯示數據集當中存在系統性偏見後,ImageNet也(yě)從其系統中删除了(le)60萬張照(zhào)片。不出所料,ImageNet也(yě)是基于WordNet構建的(de)(Ruiz, 2019)。這(zhè)表明(míng)了(le)對(duì)數據集實施把關的(de)必要性,如果不加以控制,它将繼續産生有偏見的(de)算(suàn)法,并爲使用(yòng)它作爲訓練集的(de)人(rén)工智能模型帶來(lái)偏見。就像計算(suàn)機科學領域的(de)一句著名習(xí)語所說的(de):垃圾進,垃圾出。
把關機制既包括Hugging Face這(zhè)樣的(de)神經語言編程代碼共享平台,也(yě)包括麻省理(lǐ)工學院這(zhè)樣的(de)精英大(dà)學,同時(shí)也(yě)需要The Register這(zhè)樣的(de)技術媒體進行社會監督。人(rén)工智能研究社區(qū)也(yě)要著(zhe)力培養包容性文化(huà),建立更符合倫理(lǐ)的(de)數據集,并規範自身的(de)程序。例如,避免使用(yòng)知識共享(Creative Commons)材料,獲得(de)明(míng)确的(de)數據采集同意,并在數據集中加入審計卡(audit card),允許數據集的(de)管理(lǐ)者公布目标、管理(lǐ)程序、已知缺陷和(hé)注意事項。
一個(gè)例證是,模型發布時(shí)應包含有關模型文檔的(de)模型卡(model card),它是記錄已發布的(de)人(rén)工智能模型的(de)預期用(yòng)途和(hé)局限性的(de)好方法,比如GPT-4chan的(de)模型卡就明(míng)确指出了(le)它的(de)仇恨言論傾向,并警告不要部署它。
重新思考内容的(de)生産與傳播。威廉·薩菲爾(William Safire)是20 世紀90年代末最早斷言“内容”(content)将作爲獨特的(de)互聯網類别而興起的(de)人(rén)之一(Safire,1998),或許也(yě)是第一個(gè)指出内容無需與真實性或準确性相關即可(kě)實現其基本功能的(de)人(rén)。這(zhè)一基本功能,簡單來(lái)說,就是存在;或者,如凱特·艾希霍恩(Kate Eichhorn)所指出的(de),内容可(kě)以不傳遞任何信息或知識,隻是爲了(le)流通(tōng)而流通(tōng)(Eichhorn, 2022)。
從ICP時(shí)代以來(lái),内容就被放置于社會文化(huà)和(hé)經濟發展中至關重要的(de)位置,在經曆了(le)PGC、UGC、PUGC這(zhè)些不同内容模式和(hé)内容經濟之後,内容已經成爲人(rén)們日常生活審美(měi)化(huà)、藝術化(huà)、商品化(huà)的(de)重要組成部分(fēn)。然而在如今風起雲湧的(de)AIGC浪潮中,主體和(hé)曆史雙雙迎來(lái)了(le)史無前例的(de)危機,因爲這(zhè)場(chǎng)生成式革命選擇将人(rén)類更深層次的(de)編碼能力和(hé)思維鏈能力通(tōng)過訓練交付給機器(胡泳,劉純懿,2023)。當代文化(huà)産業的(de)規範正在朝著(zhe)書(shū)面語言的(de)自動化(huà)和(hé)算(suàn)法優化(huà)方向發展。大(dà)量生産低質量文章(zhāng)以吸引廣告的(de)内容農場(chǎng)使用(yòng)了(le)這(zhè)些工具,但它們仍然依賴大(dà)量的(de)人(rén)力将字符串成适當的(de)單詞,将單詞串成清晰的(de)句子,将句子串成連貫的(de)段落。一旦自動化(huà)和(hé)擴大(dà)勞動規模成爲可(kě)能,會出現什(shén)麽動力來(lái)控制這(zhè)種生産呢(ne)?
長(cháng)期以來(lái),内容的(de)基本範式一直是所謂“讀寫網”(read-write web)。我們不僅消費内容,還(hái)可(kě)以生産内容,通(tōng)過編輯、評論和(hé)上傳參與網絡的(de)創建。然而我們現在正處于一種“自書(shū)寫網絡”(write-write web)的(de)邊緣:網絡不斷地書(shū)寫和(hé)重寫自身。畢竟,ChatGPT及其同類工具可(kě)以像寫文章(zhāng)一樣輕松地編寫代碼。
從本質上來(lái)說,我們将面臨一場(chǎng)永無止盡的(de)信息垃圾危機,由一種人(rén)類和(hé)機器作者的(de)脆弱融合體加以催生。從芬·布朗頓(Finn Brunton)的(de)《信息垃圾:互聯網的(de)影(yǐng)子曆史》(Spam:A Shadow History of the Internet,2013)一書(shū)中,我們可(kě)以了(le)解在互聯網上傳播虛假内容的(de)五花八門的(de)方法。例如“雙面”網站,即爲人(rén)類讀者設計的(de)網頁和(hé)爲搜索引擎中的(de)機器人(rén)爬蟲優化(huà)的(de)網頁同時(shí)并存;搭建整個(gè)由自主内容填充的(de)博客網,以驅動鏈接和(hé)流量;“算(suàn)法新聞”,通(tōng)過網絡發布自動報道;當然還(hái)有在2016年美(měi)國大(dà)選和(hé)英國脫歐期間聲名鵲起的(de)僵屍網(botnet)(Brunton, 2013)。形形色色、具有威脅性的(de)信息垃圾告訴我們,網絡的(de)自我書(shū)寫已經持續一段時(shí)間了(le)。今天,随著(zhe)生成式人(rén)工智能開始占據主導地位,可(kě)以預計,機器生産的(de)文本将堵塞服務器、通(tōng)信電纜和(hé)數據中心。
内容生産與傳播的(de)新亂象爲傳播學帶來(lái)了(le)大(dà)量富于挑戰的(de)課題:比如用(yòng)戶生成内容與有報酬(盡管常常報酬不足)的(de)工人(rén)制作的(de)内容的(de)區(qū)别;全球底層社會中的(de)隐形工人(rén),他(tā)們讓人(rén)工智能看起來(lái)很“聰明(míng)”,然而自身卻是受技術負面影(yǐng)響最大(dà)的(de)邊緣化(huà)群體;從藝術和(hé)文學到新聞和(hé)政治,這(zhè)些領域如何經受AIGC内容産業崛起的(de)考驗;是否存在某種“内容資本”,即藝術家、作家和(hé)表演者制作内容的(de)能力,并不關乎他(tā)們的(de)作品,而是和(hé)他(tā)們作爲創造者的(de)地位息息相關?
解決人(rén)工智能和(hé)傳播的(de)職業問題。喬舒亞·裏夫斯(Joshua Reeves)寫道:“面對(duì)機器冷(lěng)冰冰的(de)效率,人(rén)類似乎隻是潛在錯誤的(de)有機集合。”(Reeves, 2016)OpenAI的(de)研究預測,“80%的(de)美(měi)國勞動力可(kě)能至少有10%的(de)工作任務會受到LLM的(de)影(yǐng)響”。更糟糕的(de)是,“19%的(de)工作者可(kě)能會看到至少50%的(de)工作任務受到影(yǐng)響”(Eloundou et al, 2023)。公共關系專業人(rén)士、文案撰稿人(rén)、平面設計師、社交媒體營銷人(rén)員(yuán)——這(zhè)些都是本科主修傳播學的(de)人(rén)的(de)常見職業,也(yě)都可(kě)能受到快(kuài)速生成文本和(hé)圖像的(de)生成式人(rén)工智能的(de)威脅。傳播學需要研究如何在各種傳播工作環境中合乎倫理(lǐ)地使用(yòng)人(rén)工智能工具,也(yě)需要通(tōng)過專業主義的(de)倡導來(lái)保護這(zhè)些職業。
在研究、交流中和(hé)課堂上提升人(rén)工智能素養。奧特姆·愛(ài)德華茲(Autumn Edwards)和(hé)查德·愛(ài)德華茲(Chad Edwards)等傳播教育研究者試圖展示人(rén)工智能如何改變傳播教學的(de)本質(Edwards, Edwards, 2017)。此外,ChatGPT帶來(lái)的(de)有關考核方式和(hé)學術不誠實的(de)大(dà)量討(tǎo)論爲傳播學學者提供了(le)一個(gè)機會,調查和(hé)挑戰我們對(duì)教學和(hé)學習(xí)的(de)假設。我們還(hái)應該借鑒傳播學研究中将新媒體技術融入課堂的(de)悠久曆史,确定在哪些實踐中使用(yòng)人(rén)工智能将有利于促進學生學習(xí)和(hé)提高(gāo)教學質量。此外,就像社交媒體和(hé)假新聞的(de)興起要求發展更好的(de)媒介素養一樣,ChatGPT等工具要求人(rén)工智能素養的(de)培育,傳播學在這(zhè)方面責無旁貸。需要大(dà)力開展科學傳播,動員(yuán)人(rén)工智能社區(qū)中更多(duō)的(de)研究人(rén)員(yuán)扮演AI傳播者的(de)角色,讓更多(duō)的(de)公衆了(le)解AI技術的(de)能力和(hé)局限性。
最終,回到傳播學研究本身,是否需要對(duì)傳播學進行重新定位和(hé)重新概念化(huà),以适應日益智能的(de)機器、自主決策系統和(hé)智能設備帶來(lái)的(de)機遇和(hé)挑戰?從曆史上看,傳播學通(tōng)過将創新性突破轉化(huà)爲人(rén)類互動和(hé)信息交換的(de)媒介來(lái)适應新技術。随著(zhe)計算(suàn)機的(de)發展,20世紀下(xià)半葉出現了(le)以計算(suàn)機爲媒介的(de)交流(CMC)。在CMC研究中,計算(suàn)機被理(lǐ)解爲或多(duō)或少中立的(de)訊息傳輸渠道和(hé)人(rén)類交互工具。這(zhè)種形式化(huà)忽略了(le)這(zhè)樣一個(gè)事實:與以前的(de)技術進步不同,計算(suàn)機在今天開始占據交流交換參與者的(de)地位。人(rén)工智能科學中已經存在不少這(zhè)方面的(de)證據,所以,我們也(yě)許要問:CMC 範式雖然具有不可(kě)否認的(de)影(yǐng)響力,但是否存在重大(dà)不足,甚至不再站得(de)住腳?相應地,傳播學是否需要重新設計基本框架,以應對(duì)獨特的(de)技術挑戰及社會機遇?現在是傳播學認真對(duì)待這(zhè)些關鍵問題的(de)時(shí)候了(le)。
盡管人(rén)工智能有效地挑戰了(le)當前的(de)範式,将其正常功能置于某種危機之中,但構成新範式的(de)内容現在才剛剛開始出現。按照(zhào)科學史的(de)發展邏輯,這(zhè)些創新可(kě)能需要相當長(cháng)的(de)一段時(shí)間,才能被定型并編入下(xià)一次被視爲“正常科學”的(de)叠代中。然而,在當前這(zhè)個(gè)初步階段,我們可(kě)以開始确定,随著(zhe)人(rén)工智能技術的(de)進展,下(xià)一代傳播研究可(kě)能會是什(shén)麽樣子。
(胡泳:《超越ChatGPT:大(dà)型語言模型的(de)力量與人(rén)類交流的(de)困境》,2023年第8期,微信發布系節選,學術引用(yòng)請務必參考原文)