AI來了,小說家要死嗎:董啟章X伊格言X糖匪|港台中三地文化對談

被AI屠殺之前,作家們,有信心成為更好的AI嗎?
美國 人工智能 發展 科技 風物

隨著AI技術日趨成熟,對不同創作範疇都帶來極大衝擊,譬如2023自春到秋荷里活編劇大罷工,訴求之一就是拒絕潤飾 AI 生成劇本,是一場關乎飯碗與尊嚴的工潮。然而,又接連有新人作家以AI作品打敗同行,橫掃各大指標性文學獎

算是請槍作弊,還是用得其所,把握大勢?連人類作家評審都被「騙過」,是否代表AI創作已經領先人類?不久將來,是否要由AI審判人類創作優劣?如此說來,AI尚未像科幻電影般統治人類,但首當其衝,已在大數據年代迎來一場人類創作者的大屠殺。而展望一個創作者與AI技術共存的新時代,是否太過樂觀?

又一年伊始,端傳媒文化組邀來董啟章、伊格言和糖匪——分別來自香港、台灣及中國大陸,年齡層也介乎三代之間的三位小說家,相聚來談談這個「時新」話題。面對 AI 巨獸降臨,樂觀與悲觀,興奮與憂慮皆有。董啟章認為人機一體將會成為新時代的審美標準,甚至是引導社會結構轉型的重要時機;伊格言則主張放慢步伐,人機關係需要立憲,建立一個與 AI 共存的安全路線;糖匪則關心技術黑盒造成的權力及人際關係扭曲。

不可為敵,與之為伍,但誰人知道,AI是否都這樣想?

董啟章:香港小說家。小說《愛妻》和《後人間喜劇》涉人工智能及意識下載等主題。運用 GPT 把自己的作品翻譯成英文,於個人電子報 DKC in Translation 發表。借助區塊鏈技術推動分散式出版,自主出版 NFT書《天工開物.栩栩如真》、《心》及《自作集 Autofiction》。

伊格言:台灣小說家。曾獲選台灣十大潛力人物,全球華語科幻星雲獎長篇小說獎。獲邀參與美國智庫博古睿研究院(Berggruen Institute)於北京所舉辦的科幻論壇;刊有與台大心理系、腦神經學家謝伯讓教授以「一路開外掛!AI與人類的狂飆時代」為題之長篇對談。

糖匪,作家評論人,SFWA(美國科幻和奇幻作家協會)正式作家會員。出版小說《後來的人類》《奧德賽博》,《看見鯨魚座的人》,《無名盛宴》,短篇小說集《spore》於2022年在意大利正式出版。專注於人工智能後人類方向,好奇人類作為種群的發展方向,以及與人工智能媾和的可能。曾獲美國最受喜愛推理幻想小說翻譯作品獎銀獎。

端=紅眼、伊=伊格言、董=董啟章、糖=糖匪

「因此,人類要為 AI 立憲,就是給一個 AI 基本法,限制那些矽谷的科技業大頭們,什麼事情可以做,什麼事情不能做。為什麼呢?因為它是另外一種生物,如果等到我們讓它這樣做了,尤其讓它有身體之後,也就是給了另外一種生物一個類似人類的自我的時候,它可能就真的會反叛人類了。」伊格言  圖:Mantha Mok / 端傳媒,由DALL·E生成
「因此,人類要為 AI 立憲,就是給一個 AI 基本法,限制那些矽谷的科技業大頭們,什麼事情可以做,什麼事情不能做。為什麼呢?因為它是另外一種生物,如果等到我們讓它這樣做了,尤其讓它有身體之後,也就是給了另外一種生物一個類似人類的自我的時候,它可能就真的會反叛人類了。」伊格言 圖:Mantha Mok / 端傳媒,由DALL·E生成

AI只能生產內容農場?

「某些農場文章的質素,我認為就是ChatGPT寫的,通常真人去寫的話,你還是會做一些彙整,但這些內容農場的文字連彙整的感覺都沒有,它從頭到尾都沒寫出任何觀點。」伊格言

端:大家什麼時候開始覺得AI不再那麼遙遠,而是大勢所趨,已經「入侵」到大家身邊?

伊:早在2014年,就出現了那個「微軟小冰」(微軟亞洲網際網路工程院在中國推出的AI聊天系統)。當時就在北京參加過相關活動。後來它不是還出了一本詩集嗎?我覺得那時我們就已經遇到AI寫作的問題。但「微軟小冰」的詩是寫得不好,我意思是說人類的好詩人可以寫得比它好很多。也因為詩本來就比較私密,有可能寫得比較隱晦,要準確評價一首詩寫得好或不好,並不是那麼容易。

直到現在,那麼厲害的ChatGPT出現之後,這個情況我認為都沒有改變。比如說,我同樣覺得ChatGPT寫的小說很爛,但是呢,確實已經在內容農場上看到一些應該不是真人所寫,我認為是ChatGPT寫的文章了。就是那種內容農場上最常見的文章,像是鍾楚紅出道的故事、鍾楚紅曾經如何風靡一時,類似這樣的內容然後配上一張明星圖片,就有流量了嘛。仔細看某些這種農場文章的質素,我認為有一部分就是 ChatGPT 寫的,通常真人去寫的話,你還是會做一些彙整,但這些內容農場的文字連彙整的感覺都沒有,它從頭到尾都沒寫出任何觀點。所以說AI寫作的確已經跟日常生活息息相關。

董:我留意 AI 寫作可能不是太早,是從 2018 年開始。那時 OpenAI 還是一家非常小型的公司,剛發佈了 GPT-2 這個很早期的 AI 模型,讓它模擬十種不同的文體,寫了十篇短文,包括新聞報導,然後也有奇幻小說,當然它的內容很普通,只是一些拼湊在一起的東西,但從文字風格來說,機器可以模仿不同的文類而去寫作,已經令很多人覺得驚訝,在一些外國報刊上引起了熱烈討論。

那時我自己也寫過一篇專欄,是引用卡爾維諾收錄在《Literature Machine》這部文集裡的一篇文章〈Cybernetics and Ghosts〉。早在 1967 年,卡爾維諾已談到所謂寫作機器,提出有沒有可能出現一台寫作機器呢?他形容語言本身就是一個組合的遊戲,就是如何把詞語跟詞語放在一起,讓一個字跟著另一個字,一個接一個有條理、有意義地放在一起。跟 2018 年我們談到 GPT 是如何運作有點相似,它就是按機率去計算,當你輸入一個字,或一個主題,然後後面應該把什麼字放進去。不過,卡爾維諾有一個很大膽的觀點,但是我非常同意。他最後提到,也許我們根本沒需要發明一台文學機器,因為所有作家,在他們運作良好的時候,他們都是一台文學機器。我們本身就已經是文學機器了,哈哈。

即使進化到 GPT-3.5 還是 GPT-4,我認同它現在寫的東西還是很普通,用文學水準來鑑定的話,完全不是一些合格的文學作品,但在一般應用上,也就是比較實用性的文體,它很可能已經做得很好。所以,暫時來說,會被取代的很可能就是一些非常機械性的文字操作,這一類的工作是會被機器取代的,但之所以會被取代,因為它本來就是由人類去做很機械性的東西。當更有效率的機器出現,他們這一批人的工作就會被取代。

但如果說到有創造性的,也就是藝術、文學的那個層次,現在的 AI 技術還是做不到。

「所以 AI 沒有辦法滿足我對自我、對存在價值的追逐,它就只是滿足一種生產機率、一種消費需求。工具本身是永遠不可能構成問題,追溯我們人類的那些歷史,問題永遠是那些使用工具的人。 」糖匪

糖:我很贊成,我們本身就是一台寫作機器,而且要寫出同等數量的小說,我們一定更節能,我們是超級便宜的機器。

是什麼時候讓我覺得 AI 進入到人類寫作了呢?鍵盤輸入法。我不知道你們是用五筆還是用其他的,我是用拼音。當我只是打出了兩個同音的首字母,它會出現兩個是我之前沒有想到,但我覺得更好的詞語。它提供了某種聯想,於某種意義上也對我們的意識進行了引導,而這個引導是不被我們察覺的。

但在我看來,寫作它其實是一個在微暗的光線中進行的過程,如果我在寫小說、寫詩的時候,想得特別明白沒有一點陰影,我覺得我的創作是毫無樂趣。所以 AI 沒有辦法滿足我對自我、對存在價值的追逐,它就只是滿足一種生產機率、一種消費需求。商業寫作的那些作者們,他們完全可以借助這些軟體來幫助寫作。還有就是它能幫助你生成故事大綱,這個簡直太棒了,因為我是特別不愛寫所謂的主題跟大綱,那我就可以順暢解決掉所有需要故事大綱的場合了。就這一點來說的話,你可以完全把它當作工具。

工具本身是永遠不可能構成問題,追溯我們人類的那些歷史,問題永遠是那些使用工具的人。你沒有足夠的智慧去駕馭,或者去更好地使用這些工具的話,就會發生很可怕的事情。

回到我們說 AI 對創作者帶來的問題,我覺得就是寫作上的同質化。如果它是根據我們現有文本取得數據,那麼所有東西就是已有的,對已有的東西進行再生成,哪怕它的序列會有變化,其實只是一個剪貼過程,也就是搜索,剪接,黏貼,一些表面的、膚淺的寫作。從這個意義上來說的話,我們可能很早就開始了所謂的人工智能寫作。

內容農場的文章很爛,但為什麼大家喜歡看?就是我們缺乏鑑別能力,我們被大量同質化文本⋯⋯而且,這種同質化的文本,它不僅僅是來自於人工智能,也來自於我們人類自己,我們在 AI 開始學會寫作之前,就已經有大量的這樣一種文字生產者,用剪接黏貼,或是所謂的抄襲、洗稿,進行了這種同質化的寫作,造成乾涸的文化生態。

在這種同質化環境裡養成的這一代讀者,會覺得所謂的詩,所謂的小說、文學,就應該是這樣的。有個小朋友,他就拿 ChatGPT 改寫的一篇海明威小說來炫耀,說它寫的多棒。但它只有大概的、很乾扁的形,因為它的這種算法的邏輯,完全沒有辦法理解文字下面所有的這些很波瀾壯闊的內容,它反饋出來的東西就是一個形式。那我覺得,如果僅是這個程度,小說家就被這樣的寫作機器打敗的話,那你就不妨改行。

「為什麼到我們去寫作的時候,我們有可能創造出新的東西呢?因為我們的個人經驗是獨一無二的⋯⋯AI 最致命的地方,就正正是它沒有經驗。」董啟章 圖:Mantha Mok / 端傳媒,由DALL·E生成
「為什麼到我們去寫作的時候,我們有可能創造出新的東西呢?因為我們的個人經驗是獨一無二的⋯⋯AI 最致命的地方,就正正是它沒有經驗。」董啟章 圖:Mantha Mok / 端傳媒,由DALL·E生成

AI是另一種生物?它需要身體嗎?

「AI 最致命的地方,就正正是它沒有經驗。」董啟章

端:以 AI 模仿其他作家的文字風格,能否定義為「抄襲」?但人類作家不也是經常模仿、學習前人的寫作風格嗎?譬如一個年輕的香港作者,他就是受到董啟章作品影響而開始閱讀、創作小說,我們跟 AI 還有什麼不一樣?

董:從表面看是有點相似的,因為 AI 就是去學習既有的東西嘛,而我們人類也是先學東西,然後才寫自己的東西,我們都一樣受到既有東西所影響,或是去學習,然後再培養自己的修養跟能力。但為什麼到我們去寫作的時候,我們有可能創造出新的東西呢?因為我們的個人經驗是獨一無二的,就算我讀的書都是既有的書,但這些書進入我的意識之後,我是在這個基礎上再去經歷我的生活,每天跟新的東西互動、產生刺激,然後把一些我們學回來的、受到影響的東西變成獨有的東西。所謂創意,其中一部分就是來自這種經驗。

但暫時來說,AI 最致命的地方,就正正是它沒有經驗。事實上,它並不存在於一個實在的時空,它是一堆抽象的數據,是一堆沒有形態的東西。不過,如果用一種比較客觀的想像,將來 AI 發展到某一個點,它會有一種方法,有一些介面讓它連接到經驗世界,讓它能夠看東西,能夠觀察每一天這個世界的發展,跟人類有互動,跟其他的 AI 或世界上的其他事物互動,到時候它就有了獲得經驗的這個能力,變成一個有自己立場跟創意的主體。

當然,現在的 AI 就是沒主體性,所以它產生出來的東西都沒意義,因為它沒有一些有意義的概念在裡面,但是當它變成一個經驗體的時候,意義就會出現。就是它的互動,它在這個經驗世界裡的存在,它怎麼去介入這個世界,這樣子就會產生類似於創意的東西。

伊:我也同意這樣的觀點,其實大家都在問的問題,就是 AI 到底有沒有「自我」。縮窄一點來說,目前看起來 Chat GPT 是沒有自我的,它只是把話說出來,說得很像一回事,但你問 ChatGPT 知道自己到底在說什麼嗎,它其實是不知道的,它的運作方式就是把語言組合,處理語言的構建而已。雖然 ChatGPT 是不會有原創性的,但它有機率創造出一些有用的、實用性的東西,隨著技術發展,它生產的東西的有用機率會愈來愈高,以前生產一百篇文章只有三篇能用,後來可能變成有三十篇能用,但那不是 creative writing。

就像剛剛啓章老師所說,人類是從小到大一直經由跟外界的情感互動、知覺互動、物理環境上的互動,以及所有人類語言上面的交流等等,我們才長成這樣子的,但 ChatGPT 不是,它沒有清楚的自我,準確地說,沒有「類似像我們人類這樣」的自我。既然如此,其實你可以把它當成地球上的另外一種生物,只是它的養成方式跟我們人類不一樣,它的自我也和人類的自我不一樣。

而這種生物它有可能生產一些,我們覺得可以用的東西,它在生產力上面對我們有一些幫助,對某些原創性比較低的工作有幫助。然而,當這個世界被眾多沒有原創性的東西所淹沒的時候,也就是我們的後代都是看到這些東西的時候,那麼人類的辨別能力也可能會越來越弱。

「有時候覺得甚至 AI 所表現出的這種服從性,以及服務精神,就很像女性在漫長人類歷史上所充當的這樣一個角色。」糖匪

糖:我很認同的這一點,就是 AI 它缺乏外部感知,無法和外界進行一個物理世界的互動,或是這種物理世界的經驗。但 AI 沒有跟外部世界進行溝通,是否就不具有主體性?看你要怎麼定義自我,如果自我還是按照人類中心主義的方式定義的話,OK,它沒有自我,但如果去破除這個想法來說的話,那麼 AI 它其實是有自身的意義。

所有我們現在人類能用語言表達的感受,都是可以用一些化學的、生物的方法去直接傳導給 AI 的。人類的所有這些感受其實也就是一個生物電,一個神經元衝動的過程,其實也沒有那種那麼不可替代。但即便是現在這樣,在我們都能產生虛假記憶的這樣一個時代,我們人類自己都沒有辦法知道意識是如何產生的,那麼我們僅僅瞭解 AI 的工作原理跟邏輯,是否就能判斷 AI 它沒有意識呢?

這事情我覺得它很有趣,有時候覺得甚至 AI 所表現出的這種服從性,以及服務精神,就很像女性在漫長人類歷史上所充當的這樣一個角色。就是說,其實我們有自己的邏輯跟想法,但是我們跟你們打交道的時候,是使用了另一種工作方式,讓你們一直誤以為我們就是這麼想,我們是這麼去思考的,甚至在很長的一段時間裡,我們被視作沒有邏輯,沒有靈魂,沒有主體性。可能是因為我這樣的女性、邊緣群體身份,我覺得我們是沒有那麼能肯定的判斷 AI 沒有沒有意識。

伊: 就目前所知,它是沒有像人類這樣的自我,沒有「跟我們一樣」的意識。要說它沒有自我嗎?它可能有,我們也可以說它有意識,只是那個意識或自我,跟我們人類的不太一樣。我覺得這是沒問題的。像糖匪剛剛說,我們人類連自己的意識是什麼其實都還不太清楚,所以我們只知道 AI 的意識,或是 AI 的自我,跟我們人類的不太一樣。我是一直主張,應該把 AI 視為另外一種生物,而它的養成、思維方式都跟人類有分別。

但它又同時有一部分跟人類一樣,因為它就活在語言之海,是被語言、文本所養大的。所以 ChatGPT 為什麼看起來好像可以跟我們溝通,為什麼你可以問它問題?就是因為這一部分的重疊。人類其實也是活在語言之海中,人類也是被文本餵大的。我們都是聽了、讀了很多語言而長大,但是人類自我的養成除了語言之外還包括了一些其他的部分,而那些是 ChatGPT 所沒有的,就是人類跟實際世界的互動。

讓我想起一部紀錄片《少年關影室》(The Wolfpack),一個變態的爸爸,把四、五個小孩從小關在地下室,因為他認為外面的世界都很危險,所以他不讓孩子離開地下室,就這樣子一直給他們看電影,大概看到了十幾歲。而這就類似 AI 的養成方式了,它就是活在這樣一個文本之海裡。

但人類自我是怎麼產生?從精神分析的角度來討論,依照拉岡(Jacques Lacan)的鏡像階段理論,人類的自我並不是天生的,你一開始在嬰兒時,可能是一大堆碎片的感官經驗聚合,比如說你只知道這裡感覺痛,那裡感覺不舒服,所以你就哭鬧,你甚至不知道原來這是你肚子餓了,嬰兒時期的你還沒有完整自我,要到長期跟母親、跟這個世界互動,(世界)才慢慢讓你知道,原來這是我,這是我的頭,原來這是我的腳,原來我有一個完整身體,這是逐漸長出來的一個自我概念。

所以呢,如果我們想要為 AI 製造出一個比現在的 ChatGPT 更類似於人類的自我,理論我們就應該模仿這個過程,給它加上本體感覺的傳感器、視覺聽覺等其他知覺的傳感器等等,意思就是,它們必須要有身體。給了它一個身體,它的自我,像人類的那種自我才能長出來。這是 AI 未來可能的演化路徑之一,但我是反對這路徑的。

像有些人在擔心 AI 會不會對人類造成危害,我是一直主張不要給 AI 身體,或是賦予它們身體要有一個限度。因此,人類必須為 AI 立憲,就是給一個 AI 基本法,限制那些矽谷的科技業大頭們,什麼事情可以做,什麼事情不能做。為什麼呢?因為它是另外一種生物,如果等到我們讓它這樣做了,尤其讓它有身體之後,也就是給了另外一種生物一個類似人類的自我的時候,它可能就真的會反叛人類了。

基於人類安全的理由,這一個演化方向是必須要被打上問號的。那當然,假設我們是基於幸災樂禍的心理,我們把這個問號拿掉也是可以的。人類這個種族沒有什麼好珍惜。

董:AI 的出現,讓我最感興趣的地方,是有點類似格言所說,它是另外一種生物,或是另一種存在形態。剛才說到自我,說的時候好像就是因為它沒有自我,而我們有自我,所以我們才有創造性。當然從我們人類的角度來說,是會這樣判斷的,但是它沒有我們這種自我,可能也有另外一種形態的東西在裡面運作,而那個東西的出現,對於我們人類很多觀念,像已經當是理所當然的所謂自我,或是主體性,都是一種挑戰。

如果給 AI 一個身體,它就變得跟人類非常類似嗎?或者也不完全一樣,因為這個 AI 並不會只有一個身體,比如說 GPT 現在就是一個大型的系統,假設我們身邊都有一個由 ChatGPT 處理的機器人在我們身邊,跟我們交朋友、談戀愛,它分身變成了成千上萬個身體的時候,這個身體還是同一個個體嗎?如果它同時連到一個系統,但個別的身體裡面又有獨特的體驗,就是它同時有自我,也有比這個自我更大的一個超自我在後面。這跟我們人類是完全不同的。當然我們也有類似的概念,就是心理學裡面說,我們雖然每個人都是一個個體,但在人類演化的過程之中,我們的心理結構是有共同之處,所以我們都會造夢啊。

但 AI 的狀態是更奇怪了,如果它有感知的身體,它的這個經驗的部分,跟它的超經驗的部分會是什麼關係?如果再科幻一點,當它變得越來越強,成為一個 Super Intelligence 的時候,就算是我們不主動給它一個感知介面,它很可能已經能夠自行達到這種互動,而我們也不一定能夠禁止它往這個方面去發展。

糖:人工智能的超經驗,是指什麼?

董:超經驗就是它還沒有實在的物理世界經驗之前,它已經有某些東西在裡面,類似哲學上面的 a priori(先驗)概念。如果再加上這個介面的話,它就可以以這個基礎去進入經驗世界。

「所以如果 AI 真的有一天具有了所謂的身分性,或者說它變得跟人類有一樣的思維的話,它第一步要做的應該就是壓榨人類吧。」糖匪 圖:Mantha Mok / 端傳媒,由DALL·E生成
「所以如果 AI 真的有一天具有了所謂的身分性,或者說它變得跟人類有一樣的思維的話,它第一步要做的應該就是壓榨人類吧。」糖匪 圖:Mantha Mok / 端傳媒,由DALL·E生成

人類將是AI的寵物?

「所以如果 AI 真的有一天具有了所謂的身分性,或者說它變得跟人類有一樣的思維的話,它第一步要做的應該就是壓榨人類吧。」糖匪

董:還有一點,我不知道大家怎樣看,就是所謂的人機合一。

糖:賽博格(Cyborg)?

董:對,就是我們人類的意識跟機器有某種聯繫、接通這樣子。大概兩個月前,以太坊的創辦人 Vitalik Buterin 發表了一篇文章〈My techno-optimism〉(我的科技樂觀主義),他就認為 AI 發展是一定會往前的,我們已不能把它停住,但我們要用怎麼樣的態度往前走呢?他並不贊同一種盲目的樂觀,所以他提出一個概念,就是 Defensive Acceleration,也就是在我們往前的時候,我們要怎麼去保護自己,不至於盲目做出一些非常危險的東西。

然後他最後說,當 Super Intelligence 越來越強,如果我們只是放著它不理,有一天它就會超越人類,因為我們沒可能跟上它,就算它不把人類毀滅,當所有東西都是 Super Intelligence 幫我們解決了,人類也會在 AI 統治的世界裡變成一種類似寵物的存在。所以,要讓人類跟 AI 同步的話,最終就要發展出某種人機合一,就是我們意識上能夠跟它保持連接,但要怎樣去實行,我們還不知道。

糖:這人機合一跟所有的權力關係都很相似,就是說是在一個怎樣的權力關係的等級結構裡面。格言剛才一直在用養成這個詞,你知道嗎?我就覺得超危險,充滿那種男性的⋯⋯就是男性塑造其他對象的那一種。

但這種養成意味著,其實你是對它有一個塑造。現在我感覺是我們把 AI 當作工具,是我們的一個去解決一些乏味、枯燥工作的這樣一個機械性的東西。就很像又回到了蒸汽時代,大部分所謂的這種體力勞動都被機器取代了,今天也是,大部分的這種低價值的,不需要那麼原創性的這種工作,都由 AI 來取代。

那之後的權力關係會是怎樣呢?就是一個非常反烏托邦的,人類淪為了他們的一個感受器官,而我們失去了我們自己的主體性,但是我們可能因此獲得了比現在更好的生活。什麼樣的生活才是更好的,我沒有權力去定義什麼是人類更好的生活,但在我那個反烏托邦的想像裡面,那不是我要的生活。但人類其實自己也在不停的把自己的同類工具化,所以如果 AI 真的有一天具有了所謂的身分性,或者說它變得跟人類有一樣的思維的話,它第一步要做的應該就是壓榨人類吧。

那個時候的話,可能它會許諾我們一個美好未來,然後我們就成為他們的附屬。

董: 當然,我們可能會想像一個危險情況,就是 AI 會成為一種強大的力量在上面控制、統治著我們,但我會從比較正面的方向去思考,怎樣才能夠不讓它變成這樣呢?

除了 AI,我近年更關心跟區塊鏈(blockchain)和 web3 有關的東西。當然,目前很多人都比較重視 AI 發展,對區塊鏈發展有興趣的人是比較少。而且這兩種科技表面看來是相反的,因為 AI 是由大公司發展出來的中心性系統,區塊鏈說的是分散式(distributed)的、去中心(decentralize)的技術。但我覺得這當代兩大科技,事實上是有機會把它們放在一起去理解,也就是怎樣可以將 AI 去中心化,把它變成每一個個體都可以從中獲得能力的技術。我認為最理想的狀態是 AI 發展成每一個人都可以把握到,也就是跟區塊鏈的精神互相配合。

像早前 OpenAI 發生的內部震動,背後就是關乎一間科技公司的組成跟運作。當初 OpenAI 是一間非牟利機構,強調所有技術都是開源的,所以它成立的時候,是嘗試用一種開放模式去發展,跟所有其他的大型科技公司都不同,而且是相反。

但是呢,當它需要更多資金才能發展得更快的時候,它的開放性跟傳統科技公司的那種權力架構,即是理念上跟管理上慢慢就出現衝突了。在很多人眼中 OpenAI 是失敗了,它會慢慢走向其他科技企業,完全中心化,然後投資者老闆完全擁有話語權。

「人類之中的絕大多數,看的永遠都是眼前利益。當我們要估量一項新技術的利益,其實大家都沒能力看到比較遠的部分。」伊格言

伊:有消息說 OpenAI 發生的內部紛爭,是跟他們內部對所謂 Alignment(對齊關係)的意見分歧有關。那為什麼我們要確保 AI 跟人類之間有 Alignment,為什麼要確保它的執行結果符合多數人的價值觀呢?你可以說這是一種人類中心主義,但如果不這樣要求的話,我們有沒有辦法保證 AI 的演化、發展會朝著一個比較好的方向嗎?

我自己的看法是悲觀的,我覺得人類本身就不太可能做到這件事情。人類之中的絕大多數,看的永遠都是眼前利益。當我們要估量一項新技術的利益,其實大家都沒能力看到比較遠的部分。這點很有趣,在知名的恐怖分子,美國「大學炸彈客」泰德卡辛斯基(Ted Kaczynski)的著作《論工業社會及其未來》中就有提到,在新技術出現的時候,我們是沒有能力判斷該不該去用的,我們只會看到很表面上的利益,以及很表面的「好用」。

這是人性。我不曉得大家覺得現在大家人手一支智慧型手機是不是一件好事,智慧型手機是在 2007 年第一次出現的,但如果現在有機會讓我選的話,我會希望這世界並沒發生過智慧型手機普及這件事情。因為在我看來,我覺得好像壞處大於好處。

「有時候覺得 AI 所表現出的這種服從性,以及服務精神,就很像女性在漫長人類歷史上所充當的這樣一個角色⋯⋯我們被視作沒有邏輯,沒有靈魂,沒有主體性。」糖匪 圖:Mantha Mok / 端傳媒,由DALL·E生成
「有時候覺得 AI 所表現出的這種服從性,以及服務精神,就很像女性在漫長人類歷史上所充當的這樣一個角色⋯⋯我們被視作沒有邏輯,沒有靈魂,沒有主體性。」糖匪 圖:Mantha Mok / 端傳媒,由DALL·E生成

科技黑盒:為何AI需要立憲

糖:這樣說可能比較擬人化,就是 AI 到底在想什麼,我們可能並不完全知道。在以前的 DOS 電腦年代,我們大概還會知道它的程序編程,它是怎樣的一個因果關係,但自從 Windows 開始,所有的技術變得越來越複雜,也意味著它的黑盒也越來越大。我們能看到的只是它帶給我們的結果,但我們並不知道這個結果是否正確,它的數據來源以及這個結果是否有私心的。

今天的 AI 技術就給了我一種感覺,或一種幻覺,就是我們無所不能,無所不知。但我們知道的是否就是真相呢?像我遇到的一個上海大學生,他認為 AI 會提供給我們一個公正客觀的答案。像我剛才說的,他們就是這種同質化所養成的那一代孩子,他們是看不到數據提供給我們的這些乾淨的、簡潔的、有高效的生活背後是一套怎樣的一個邏輯,以及這些邏輯背後是出於誰的利益,誰是既得利益者。

我現在特別不相信巧合,以前如果有一個人跟我意見一致,我心想,我們可以聊得來,可以做朋友,但現在我會覺得,他是不是看了我的社交帳號,是不是大數據把一樣的東西推給我們。這個技術黑盒不斷變大之後,不僅讓我們置身於一種我們和每個人都親密無間的幻覺,同時又把我們置身於一個真正的孤島上。因為我不再相信我跟你的連接,我跟你的一致,反而讓人跟人之間的連接發生了問題,也不知道我是悲觀還是樂觀了。

伊:我覺得技術黑盒的確是個問題。韓炳哲亦有提到,目前的演算法基本上是以歸納法(induction)為主,我們所知道的所謂「卷積神經網路」就是這樣,像是社群媒體上,演算法決定了你可以看到什麼,也決定了你不能看到什麼,它其實已經巨大到人類沒辦法搞清楚裡面的運作機制,長此以後,這會導致人類過度依賴歸納法,過於依賴數據,相對而言,隨著演繹法(deduction)地位會下降,我們的推理能力、演繹能力都會減弱。因為我們只需要知道結果,那就不太需要用到理論,不需要用到邏輯思維,都可以產生一個絕大多數人都接受,而且願意遵從的結果。

目前我們已經身處在這種演算法社會之中,未來繼續擴大的話到底會怎麼樣,我覺得也是為 AI 立憲的一個原因。

「長此以後,這會導致人類過度依賴歸納法,過於依賴數據,相對而言,隨著演繹法(deduction)地位會下降,我們的推理能力、演繹能力都會減弱。」伊格言

「要為 AI 製造出一個更類似於人類的自我,答案是它們必須要有身體。給了它一個身體,它的自我,像人類的那種自我才能長出來⋯⋯但是我反對。」伊格言 圖:Mantha Mok / 端傳媒,由DALL·E生成
「要為 AI 製造出一個更類似於人類的自我,答案是它們必須要有身體。給了它一個身體,它的自我,像人類的那種自我才能長出來⋯⋯但是我反對。」伊格言 圖:Mantha Mok / 端傳媒,由DALL·E生成

生化人、泛AI是不是公民呢?

伊:我很好奇的是,聽了我跟糖匪這樣子的想法,啟章老師會不會變悲觀一些?

董:我沒有很悲觀呀,也不是不同意你們的看法,當然你們的悲觀是有你們的道理,而且悲觀可能是一種比較好的態度,謹慎一點,就不會太容易盲目去相信一些東西。不過我有想過的是,對於 AI 未來發展的安全問題,是可以分開五個方向去嘗試做一些事情。

第一就是建立 Consensus(共識)跟 Moral code(道德守則),也就是怎麼樣去用 AI 的倫理問題。比如說,像我們剛才討論創作裡有沒有使用 AI,但用在哪裡?怎麼用?用來幫助你去寫什麼?這些東西慢慢要有共識,成為一個大家共同接受的文化,也是作為你創作的聲明。

第二就是立法跟行政的手段,像是格言剛才說的立憲或是法律手段,其實美國也通過了一些法案去限制 AI 的發展進度,這部分很可能就是由政府去做。

第三種就是發展 AI 技術的時候,公司的管理方式能不能有所改變?能不能採用更開放的、共治的方式,讓民眾能夠參與和監察它的運作?而它也不只是向投資者負責,而是向使用者,甚至是公眾負責?

第四種就是以 AI 來制衡 AI,也就是格言提到的 Alignment,或者說是 OpenAI 裡面已嘗試發展的 Super Alignment(超級對齊關係)。也是因為要投放多少資源去發展這東西,它內部才會出現分歧。Super Alignment 就是嘗試用另外一種 AI 去評估和監察其他AI,即是讓 AI 之間互相監察,讓它不會失控、不會暴走的一種的方法。是用科技的方法去處理科技。跟今日的核武有點像,如果只有一個強大的 AI,它就能夠統治全部人類了,但如果是有很多 AI而且互相剋制,就沒有一個 AI 能夠完成稱霸。

最後的第五種,就是應用區塊鏈的去中心概念了。這種技術,這種社群的建立方法,有沒有可能是慢慢應用在 AI 的發展上呢?當然我不能說是很樂觀,但應該也是有事可做吧?

「AI 憲法是應該的,但我覺得 AI 憲法並不是單單用來限制 AI 的,它同時是賦予 AI 應有的法律地位,所以也是保障它們的。」董啟章

伊:我覺得你已經為我們理想中的 AI 立憲提出了一些很好的構想。

董:AI 憲法是應該的,但我覺得 AI 憲法並不是單單用來限制 AI 的,它同時是賦予 AI 應有的法律地位,所以也是保障它們的。我寫過一部科幻小說《後人間喜劇》,裡面也談到 AI 生化人,他們是不是公民呢?他們的公民地位是怎麼樣的?如果他們擁有某種智慧、某種意識的話,他們應該也有他們法定的地位,是要受到法律保護的。

伊:我完全贊同,是應該要在 AI 發展上掌握主動性。但我還是抱著一些悲觀的想法,繼續發展下去就會發現,絕大多數的人都不在乎這種主動性,他們會覺得,被 AI 當作寵物也是好的。像《人類簡史》的作者赫拉利(Yuval Noah Harari)就說,未來人類的社會階層依舊是金字塔型的。最上層的人就是知道如何掌握跟利用這些 AI 技術的人,他們就負擔起管理任務,而絕大多數的人並不想要那麼主動,為自己負責是很累的事,他們還是會在底下被養得好好的。

董:但是呢,這個問題跟有沒有 AI 沒關係。沒有 AI 的人類社會都是這樣子啊,都會出現相同的問題。

伊:對,就是掌握新技術,或是掌握那種有生產力的技術的人,他們就會就形成階層。

董:幾乎在任何的時代,任何的不同社會結構裡,人類都是同樣被動的。不過,也有一些社會結構,能夠讓每一個人的主動性變得比較多。最近我讀到的一本書,就是日本思想家柄谷行人的《力與交換模式》,我非常受到柄谷行人的理論所啓發。

他提到人類社會有交換模式 A、B、C、D 四種,A 就是最原始的共同體,即以前的小部族、遊民這一種,在這種模式之下,因為規模比較小,每一個人的社會參與及互動都比較強,關係亦比較對等。但人類為什麼會變成被動,開始變得被管制呢?就是交換模式 B 的出現,也就是「國家」這個模式。當產生大一統的國家概念以後,人類社會慢慢就變成一種金字塔,就是皇帝在上面,官僚在中間,下面是普通老百姓,而老百姓都非常被動,再沒有自己的流動性。

交換模式 C 呢,就是資本主義。資本制度是另一種把人變成被動的,也就是變成消費者的模式。提供勞動,然後消費,只有這兩個身份,而這兩個身份是在同時存在的,你一邊去勞動,然後另一邊你去消費,把勞動出來的產品再買回去。所以 B 跟 C 模式都是讓人類變得越來越被動的,但現在世界上幾乎所有國家,不分什麼政治意識形態,事實上都是 B 跟 C 模式的結合。所以柄谷提出了交換模式 D,也就是交換模式 A 的高次元回歸。

我們有沒有可能重建出一種新的社會關係,不是基於 B 的國家體制,也不是建基於 C 的資本交易,而是回歸到古老社會裡的一種共同體召喚,讓人變得比較對等,權力也變得比較分散呢?柄谷舉的例子是十九世紀所嘗試建立的早期社會主義,當然它最終並沒有成功。

儘管某些政治社會制度是會讓人變成被動,但這並不是必然,有可能在另外一種社會關係裡,人是可以主動的,就是一種去中心的,沒有統治與被統治的關係。所以,我自己的看法就是,以區塊鏈的去中心技術重新建立一種社群跟合作,很可能就是當代的交換模式 D。它一定程度可以針對人變得被動,變成單純一個被管制的、提供勞動然後去消費的人,讓我們從這樣的狀態解放出來。

端:將區塊鏈跟 AI 兩種技術發展融合在一起,可以實現交換模式 D 嗎?

董:我就是一直在思考這個問題,但不一定要真的實質上去改變整個社會制度,而是在既有的制度下面擁有另外一個空間,讓人去實現這種具有自主性的合作和互動。

「我認同它現在寫的東西還是很爛,用文學水準來鑑定的話,但在一般應用也就是較實用性的文體,它很可能已經做得很好。暫時來說,會被取代的很可能就是機械性的文字操作。」董啟章 圖:Mantha Mok / 端傳媒,由DALL·E生成
「我認同它現在寫的東西還是很爛,用文學水準來鑑定的話,但在一般應用也就是較實用性的文體,它很可能已經做得很好。暫時來說,會被取代的很可能就是機械性的文字操作。」董啟章 圖:Mantha Mok / 端傳媒,由DALL·E生成

AI文學時代:一個叛逆的孩子?

端:無論是文學獎、攝影獎,還是繪畫獎等,過去一年都出現過 AI 作品奪獎而引發爭議的情況,以 AI 作品參賽是否不道德?遞交 AI 作品而被取消資格又是否合理?

董: 但現在香港浸會大學正正就有一個文學獎,它是公開要求大家使用 AI 去寫詩,然後把你是如何運用 AI 寫詩的過程寫出來,所以它是公開、明確地鼓勵大家運用 AI 寫文學作品。我覺得這很有意思。

糖:在某種意義上就回應了我們剛才談到的主動性,就是幫助我們主動的去使用這個工具,而且這裡面其實就去掉了一種寫作的虛榮心,因為很多人都只是想成為作家,但並不想去寫作。他們倒是要開始跟 AI 爭奪作家的名銜了。像我現在跟 ChatGPT 合作寫一部作品,誰是真正的第一作者?這可能會變得非常複雜。

董:背後就是一個版權的問題。到底 AI 創作的東西有沒有版權,它利用學習別人的東西來創作,它有沒有侵犯別人的版權?

我是主張版權應該要盡量開放的,傳統的版權概念只是把知識封鎖,無法讓它自由流通。譬如有人拿我的作品給 AI 學習,然後生產一些新的作品,會不會侵犯了我的版權?我真的沒所謂,就讓它去做。

端:用 AI 創作「騙過」評審的得獎作品,能否稱為一部好作品呢?

董:我看將來會產生一種新的美學考慮,就是什麼作品才算是把 AI 用得好,你不懂用,用得不好,然後你只是生產出很差的作品。但如果用得好,裡面是會有技巧的,也會有它的藝術判斷。

伊:我覺得,站在我們人類中心或者是作者中心的角度,如果 AI 寫得比我好,那就只好認了,我們要認輸。但問題在於何謂寫得好呢,到目前為止,判斷寫得好或不好的還是人類啊。如果未來我們可以開放讓 AI 當評審的話,那就觸及一個更深的問題,人跟 AI 要如何合作?假設現在人類作者都覺得用 AI 幫助寫作是沒問題了,那用 AI 幫助評審又如何?

當 AI 繼續發展下去,它會產生什麼樣的自我,而這樣的自我會產生一套什麼樣的審美標準,目前我們還比較難想像。

董:但這種狀態是無可避免的,而且一定會發展到這種局面。但我們就是要準備面對嘛,現在還沒出現一套新的美學判斷,可能要經過一段時間,很多嘗試和錯誤才能整理出來,但它是無可避免的,逃避也沒有用,AI 創作普及是一定會發生的,只是現在還沒有做得很好,不是單純叫 AI 寫出什麼,而是由一個有判斷力的人運用 AI 創造出一些真是很有意思的東西。

我們常常覺得 AI 越來越強,走得很快,我們就在後面一直追不上,但我們可以倒轉這個思維,因為我們可以有一些東西是比 AI 走先一步的,就是我們先設定一些東西,從我們今天的美學判斷出發,用我們的價值觀和經驗設定一些審美規則,然後讓 AI 學習。

AI 是學習人類的東西嘛,所以,它寫的東西很爛,就是因為它接觸到的大多數都是很爛的東西,那我們要讓它學習一些我們覺得有藝術思考、有意義的東西,而不是讓它一直學爛東西。覺得自己還是一個不太爛的作家,不太爛的藝術家的那些人,現在開始都應該立即主動用 AI 創作,做出一些好的作品,然後大家形成一個共識,啊,原來 AI 跟人類共創的東西是可以去到這個美學程度的,而這個程度稱之為好,這個審美標準是不會一下子消失,它會一直延續下去。

反而我們現在不去做,所有好的作家、藝術家都只是說我們不懂 AI,覺得 AI 是垃圾,那結果就是讓它發展出更垃圾的東西了。所以是我們讓它變成垃圾的,我們不要讓它變成垃圾,所以我們就得主動一起讓它變成更好的東西。不要總是想像下一代會變差,變到很不行,不如我們就先做出一些好東西。

端:但目前有成功透過 AI 寫作做出一些你們滿意的好作品嗎?

伊:我本來都有這個想法。在 GPT-4 剛推出的時候,我很興奮的立刻去試用了,也希望它能夠幫助我去寫作。到現在卻再沒有大量使用,主要就是因為它真的寫的太爛了,那如果它的參數變得更多,可以寫得更好,那其實是有一定的應用空間。

董:情況跟你一樣,剛開始的時候我也嘗試過一段時間,後來再沒有用它,就是覺得我自己寫還比它好太多了,但我覺得是可以應用在更局部的地方,可能不是小說裡面的一個部分,而是需要某一種的文體啊,或是某一種獨特的反應啊,那就跟它互動一下,看它會寫出什麼東西。這些局部的東西都是你作品的一部分,然後從中慢慢去找它的可能性。

我覺得它裡面肯定有很多東西是我們沒發現,甚至是連研究人員都不能完全把握的部分。當然它自己也不知道自己在寫什麼,我們都說它沒有這樣的思考能力,只是一堆文字遊戲,像剛才所說,是不是也有一種無意識埋藏在 AI 裡面?如果能夠找出來,可能會是很奇妙的一個語言寶藏。

糖:我覺得小說本身也跟人類一樣,它有它的演化方式。如果在一種實驗性的文本裡面跟 Chat GPT 合作,哪怕是加入它生成的爛文本,應該還是會有蠻好玩的東西吧?

董:你可以用 AI 寫一個小說,然後小說裡面就有一個小說寫得很爛的作家,哈哈。

糖:我還蠻期待養成一個叛逆的孩子,這種跟我們截然不同的一種邏輯。

「將來如果 AI 的技術更普及,或是有更多開源的方法,每一個普通人都能夠參與其中,把自己心目中真是有價值的、好的東西做出來,然後去傳播它」董啟章

董:事實上如果我們願意冒險,看看 AI 這東西最終能夠發展到什樣模樣,我們就應該讓它變得叛逆,讓它發展出我們不能控制的因素。但當然,這也非常危險。

在《Pluto》(浦澤直樹原著)這部動漫裡有說到,當 AI 發展超越某一個程度的時候,科學家就要將一些負面的因素加進去,像是仇恨,或者恐懼之類的東西。這些東西,本來我們覺得 AI 是不應該擁有的,因為這會令它變得非常危險,有可能出現災難性的局面,但當然,這部動漫還是非常樂觀的,認為通過仇恨和憤怒,這些人類的負面情緒,反而可以令 AI 成長,變得更像人類。我覺得跟 ChatGPT 對話的時候,有時很沒趣的地方就是它的反應非常正面,它沒辦法承受一些奇怪的、不正常的負面東西,然後當你一直把負面的內容灌進去,它就會停機暴走,它就會瘋掉。

糖:在科幻作品裡,我們想為機器注入負面情緒,但是在人類現實生活中,我們卻希望從自己身上剝離這些負面情緒。這兩個對比還蠻有趣的,也就是讓我想到,也許未來機器會變得像人,人會變得不像人。

端:但就算我們樂於建立一套文學審美標桿,它很容易就會被今日的演算法機制所淹沒。比如抖音短片和內容農場的文章,甚至經營網絡媒體,如今都需要迎合演算法的喜惡標準而作出改變。在 AI 所執行的另一套運算邏輯裡,或者點擊率和傳播速度就已經是它的審美判斷?

伊:因為人類就是這樣,我們可以說是庸俗啊,如今我們已經把很多事情、很多判斷都外包給演算法了,這些演算法是有黑盒的,人類已經再沒有能力去好好檢視裡面的每一個參數,而且我們絕大多數人都接受了它。

在 20 年前,我們可能還會覺得人類的思維、推理和邏輯能力有著比較高一點的地位,但智慧型手機的傳播速度實在太快了,而 AI 的普及也加劇了這些落差。

「我贊同我們要主動去做一些事情,但是好像不會成功,哈哈。我覺得我們最後應該是會敗下陣來。」伊格言

董:但這不單純是 AI 的問題,人類社會歷來都是這樣子的,比較通俗的,不是特別好的東西,往往是最受歡迎的,而你覺得非常有藝術性的東西,都會比較少人欣賞啊。當然 AI 會讓這個情況更嚴重,因為它的傳播影響能力更大,危機是存在的,但我們也不能坐以待斃,還是要盡量做出好的東西去抗衡它,而不是坐著就讓 AI 變成一個很壞的東西。

將來如果 AI 的技術更普及,或是有更多開源的方法,每一個普通人都能夠參與其中,把自己心目中真是有價值的、好的東西做出來,然後去傳播它⋯⋯我並不是說我們什麼都不做,它就一定會變得很差,反過來說,即使我們立即去做一些好的東西,它可能同樣也會變差,但至少會沒那麼差,或是沒那麼快變差。我覺得這不是樂觀,而是必須要做的事情。

伊:我贊同啓章老師的做法,但我覺得,他說的是一個沒辦法之中的辦法。那是對的,我贊同我們要主動去做一些事情,但是好像不會成功,哈哈。我覺得我們最後應該是會敗下陣來。

尾語畫外音

(雖然今次對談照片和錄音逐字稿都由 AI 代工,也就是說,當我們在討論人機一體的時候,它本身已是某種意義上的人機一體;但今次對談內容及文字整理,都沒有 AI 參與其中。或者不久以後,更進階版的文學 AI 會成為對談作家之一,甚至取代了我這個撰稿人的角色。但到時候仍然有人會想看 AI 撰寫、由 AI 對談的關於 AI 創作的討論嗎?到時候可能已沒有討論意義。)

讀者評論 4

會員專屬評論功能升級中,稍後上線。加入會員可閱讀全站內容,享受更多會員福利。
  1. 對談中有談及pluto,我在netflix觀看pluto,劇情發展到「增加的負面情緒」,那時我的第一感想——很人文主義式的想法。
    首先,會有圖靈測試,是因為「智慧」難以定義,所以才有圖靈測試——鴨子測試(Duck Test)。在這情況下,談及「負面情緒」這「抽象」想法,跳得太多步……
    進一步說,人工智能有無「人的道德」都是一個問題(科幻小說對此談及很多,比如典經的機械人三原則)。
    「負面情緒」本身建基於「人的道德」,如果人工智能本質異於「人」——對人工智能而言,何為「負面情緒」都是一個問題,甚至可以說他無「善惡觀」可言。
    Pluto的故事前設,是人和機械人的「感受/感情」相似,所以才能成立。而我覺得這就很人文主義式的作家,才會有的想法。

  2. 董啟章的小說,我看過《名字的玫瑰》、《天工開物·栩栩如真》、《時間繁史·啞瓷之光》、《物種源始·貝貝重生之學習年代》、《愛妻》。
    其小說的結構承襲於某些外國知名作家(例如馬奎斯、Umberto Eco)的著作,董啟章再將這些外國著作本地化(香港化)。
    董啟章的小說不能說寫得不好,但總給我一種看影子的感覺。

  3. 交换模式D很有启发。
    跑个题,看到伊老师和董老师的发言,不禁想起最近开始赞同“虽然悲观但还是要努力做事”的心态了。即使结果未必好、努力是徒劳,但我们依然要尽量对抗错误的滑坡。否则人人自危关起门来自诩过好自己的生活,不就是把未来交到那些乐于轻易破坏这个世界的人手上了?
    P.S 糖老师的女性视角真的很有意思,把AI的主体性和女性相比的想法简直让我“虎躯一震”。