ChatGPT要取代傳媒了嗎?端編輯室的一場「人工智能」小實驗|工具人

當你預測一種新的技術工具要開創一個新時代時,問問自己:真的會嗎?
記者在一家報紙的編輯部工作。

「工具人」是端傳媒新開設的欄目。近年我們迎來了一波科技大爆發:人工智能﹑大數據和機械人似乎從科幻般的遙遠未來被拉到我們面前,眼看就要對我們的生活造成巨大影響。都說人類站到食物鏈頂層是因為懂得使用工具,但這些工具會如何倒過來模塑人類社會?欄目不定期刊出探討科技﹑社會與人文的深度報道,請點擊訂閱。

ChatGPT要取代你了

當我建了個叫「ChatGPT要取代你了」的群組,然後把端的各組同事加進群裡的時候,有同事語帶哀怨地問我:「為甚麼我們要測試自己會不會被取代?」我說:「這是個好問題,我會把它寫進文章裡的。」

為甚麼呢?雖然我高度懷疑「人工智能取代人類」的敘事,但ChatGPT一類大型語言模型(LLMs)會「取代」編輯記者的標題實在是鋪天蓋地。我隨便搜了一下新聞:美國科技新聞公司CNET在數星期前被發現自去年11月起,就開始使用人工智能撰寫金融類解釋性報道。三月初,CNET被爆出大量削減人手,雖然公司指裁員和在編輯室使用人工智能無關,但不久前收購CNET的財團RedVentures就指「要簡化運營和枝術棧(tech stack)」,而CNET的前主編也變成了「人工智能策略副總裁」。同是三月初,Axel Springer(旗下有《政客》(Politico)﹑《商業內幕》(Business Insider)等多份著名報章雜誌的德國出版公司)的首席執行官在一份內部通訊裡,指ChatGPT一類的人工智能工具會掀起一場革命,又指這些工具「很快會比人類記者更會彙整資訊」。這家公司也發表聲明,指旗下《圖片報》等報章將會裁員,因為人工智能很快就會將大量員工變成冗員。

這些都只是冰山一角。ChatGPT一類「人工智能工具」(必須加上括號,原因下述)似乎真的對新聞行業構成了某種生存威脅。而這種行業的位置本身又特別尷尬。我想起高中的時候,班主任知道我想要報讀新聞系,經常有意無意在我身邊說:「當記者很辛苦哦」﹑「我還是覺得港大法律系適合你」。而作為處於Web 2.0時代的Y世代少女,我在自己的Xanga網誌裡反駁了她無數遍,一闡述起新聞理想就洋洋灑灑五千字。對許多做新聞的人,「被取代」似乎不止是飯碗不保的問題,幾乎是在質疑人生最核心的信念。小時候明明說要走遍世界﹑報道真相﹑為弱勢發聲……這些原來都是機械都可以做的嗎?早知道就去當律師算了(雖然,人工智能取代律師的報道也不在少數)。

在整個新聞行業似乎難以避免被大型語言模型撼動的時候,我召集了端傳媒編輯室進行了一場不科學﹑不嚴謹,但應該有點意義的小實驗:我們要試用ChatGPT來進行日常工作,看看我們當中誰可以被有效取代。於是,一群編輯﹑記者和設計師們,就開始了一場「失業式」實驗。

一場不嚴謹的實驗

我請自稱「重度人工智能使用者」,現時在歐洲攻讀傳播學碩士的實習記者Stacey製作了一份「ChatGPT使用指南」,內容包括如何先把一些文章「餵」給ChatGPT再讓它分析﹑如何利用ChatGPT的「對話」特性來逐步將指令精確化,以及如何利用角色扮演來給它指令,讓它進行寫作等。各組同事會按著這份指南來用ChatGPT進行日常工作:Stacey用ChatGPT幫她做一篇北韓網路攻擊報道的前期研究﹑社媒組用它寫臉書帖子﹑我用它來改稿……等等。

以下是「實驗」的部份結果:

一:ChatGPT可以去國家宣傳部門上班

我請社媒編輯小刀試試用ChatGPT寫我們臉書專頁的帖子,如果寫得可以又查核過裡面的事實沒錯,還可以直接發掉,我們之後才向讀者揭曉哪篇是ChatGPT的手筆。可惜小刀對於ChatGPT的表現很不滿意,還問我:「為甚麼它寫的東西那麼像國家宣傳部門寫的……」

社媒組讓ChatGPT試寫一個關於溫州動車事故的臉書帖文。雖然ChatGPT的「知識截止日期」是2021年,但對於2011年發生的溫州動車事故它表示「沒有足夠的信息」。在手動餵了些資料給它,來來回回幾次後,它寫了這樣的一篇帖文:

「2011年的『723』溫州鐵路事故,在中國鐵路歷史上留下了悲慘的一筆。事故造成了40人的喪失,172人受傷,經濟損失高達1.9億。十二年過去了,事故現場最近的溫州市鹿城區下嶨村正面臨拆遷,舊房被拆除,新樓也在建造。然而,每隔幾十分鐘就有一列火車疾駛而過,提醒著我們不應忘記當年的事故。讓我們繼續記住這段不幸的歷史,以保持對安全的戒慎,避免再次發生此類慘案。」

試了幾次用ChatGPT寫不同的新聞事件帖文後,小刀表示ChatGPT寫的東西「真的非常中宣部」,實在用不了:「就是非常的正能量,正向思考,不管你餵給他的詞是正面的,負面的,他都給你說的很正面,對很負面的詞也會給你一個反應是,我們要學習,我們要避免再次發生,我們不能忘記。一種正面且官腔的說法,而且非常的含情脈脈,就差不是央視主持人對鏡頭說出來了……」

2022年10月26日,中國上海,市民在告示板上看報紙。
2022年10月26日,中國上海,市民在告示板上看報紙。

二:ChatGPT提供的資訊必須再三查證

端記者陳阿煙為了寫關於國務院新任總理李強的文章,用ChatGPT和Bing ChatGPT查詢了一下李強的生平,以及李強和中共其他高層的關係。他問李強生平的時候,ChatGPT說李強和前國務院總理朱鎔基關係密切。細問之下,ChatGPT這樣說:

「李強和朱鎔基的關係可以追溯到1990年代初期,當時朱鎔基任上海市委書記,而李強是他的助手和重要幕僚。朱鎔基和李強一起推動了上海的經濟發展和市政建設,並在國內外贏得了很高的評價。朱鎔基在上海市政府任期結束後,曾多次在公開場合贊揚李強的工作和貢獻。」

至於李強和現任國家主席習近平的關係,ChatGPT這樣說:

「李強與習近平的關係可以追溯到2000年代初期。當時習擔任福建省省長,而李強則是福建省省委常委和省政府秘書長。習和李在福建省的工作期間建立了良好的工作關係和私人友誼。」

阿煙說:「李強沒跟朱鎔基有關係,真的完全瞎扯。習近平的那段就一句真一句假。習近平2000年在福建當省長是真,李強那時是他的秘書是假。但李強後來的確是他的秘書。李強是在浙江當習近平的手下,不是福建。」

至於Bing的ChatGPT則堅稱李強和習近平「沒有關係」。雖然它邊說沒關係,邊順道提供了「李強將成習近平副手」的報道。

三:ChatGPT寫出來的評論,編輯大概會退稿

雖然CNET有利用人工智能工具寫作報道,但CNET寫的都是「樓市這麼低迷,我們還要買房子嗎」這類的解釋性短文,而評論組編輯雨欣卻將難度大大提升:她嘗試用ChatGPT來寫我在2020年寫的,探討後極權下愛的意義的「這時代的愛與希望」系列。在ChatGPT交出來的文章中,這是寫得比較好的部份:

「……在這個社會中,人們或許會面臨生存和自由的限制,但是他們依然渴望愛和希望。雖然這些價值觀可能會受到威脅和限制,但人們的渴望和追求並沒有減少。在這樣的時代,愛和希望可以扮演非常重要的角色,成為人們心中的明燈,指引他們前進。

首先,愛在這樣的社會中依然有著無限的價值。雖然政府或許會監視人民的行動,但是他們無法監視人們心中的情感。人們依然可以在他們的生活中發現愛,並且透過愛來抵抗壓迫和限制。愛可以是夫妻之間的感情、家人之間的關係,也可以是朋友之間的友誼,甚至是陌生人之間的互助。在這樣的社會中,愛成為人們唯一可以自由表達和維護的價值觀之一。」

我問雨欣:「作為編輯,收到這份稿件會有甚麼感想?」

「如果有作者寫了這麼一篇稿的話,我會讓作者把『無法被監察的情感』的部份寫得細一點,因為其實這個想法是可以的,但現在寫得太籠統太模糊了。如果這一部份可以再寫得有理有邏輯一點,『厚實』一點,可能還有救……文章現在寫得四平八穩,四平八穩不會錯,但不會令我想反覆細看。」

「比較大問題的是,這篇文章看不出作者性。一篇好的評論不外乎兩方面:第一要有作者性,即是對問題的獨特論述過程。論述過程可能包括作者自己的研究﹑專業領域的知識和經歷。然後作者要有和他人不同的觀點和看法,才是能夠成立的評論。第二個方面就是文筆。評論有很多風格,可以毒辣可以感人,當然也能像寫論文那樣。但就算是寫成論文那樣,我都會希望這篇可以調整,要多一點個人的思考,要有些個人的『東西』在裡面……」

「所以這篇就,不好意思,應該要退稿……」

2015年6月17日,香港,蘋果日報印刷廠內,擺放著兩卷用來印刷的紙。
2015年6月17日,香港,蘋果日報印刷廠內,擺放著兩卷用來印刷的紙。

我跟兩位專家討論實驗結果

我覺得自己需要專家來跟我一起解讀這些實驗結果,於是我用ChatGPT寫了封約訪電郵,改了改之後發給了研究聊天機械人(Chatbot)和自然語言處理(natural language processing;NLP)的機械學習專家Rohan Kumar Yadav。相信他應該看不出來我是用ChatGPT寫的約訪信,又或者不太介意我的機械約訪,因為他立刻就答應了跟我聊聊ChatGPT。

我跟Rohan說,ChatGPT很愛給假資料﹑製造假網址;而我們問ChatGPT兩個政治人物有甚麼關係時,它也給出了一大段寫得很流暢,驟眼看非常可靠的資料,但幾乎全部都是編的。它究竟是怎樣寫出看起來像人話的廢話的?Rohan笑笑說:「首先我們要知道,ChatGPT﹑GPT-3﹑Google的LambDA這一類大型語言模型,設計的用意都是學習語言本身,而不是獲取或理解資訊。所以它都是以『統計學上合理』的方式寫作的,即是寫了一個字之後再預測下一個,看看最有可能是甚麼字。接收到你的問題之後,它的神經網絡就會開始一個計算過程:基於網路上幾十億個頁面,最符合預期的答法是甚麼?」

「所以你問的『政治人物A和B之間的關係』,ChatGPT的答案就是它在統計了幾百﹑幾千億個字後,在統計學上最合理的答案。但問題是,如果它讀過的這些資料根本沒有講A和B之間有甚麼關係呢?人類可能會懂得判斷:『哦,他們可能根本不認識對方』,但ChatGPT是不懂得判斷的。它會做的只是不斷地用統計學來預測下一個字。所以它就按著它讀過的資料,找出那些討論政壇關係的文章,再計算出一個符合語言規則的答案。這就是那些廢話看起來那麼真實的原因。」

「而又因為ChatGPT沒有理解能力,它有時會給出不知所云的答案,像出現幻覺(hallucinations)一樣。電腦科學上這種模型被稱為『隨機鸚鵡』(stochastic parrots)。」Rohan說。「隨機鸚鵡」即只會製造語法上合理的字串或語句,但並不真的理解文字的意義的演算法或模型。這周四語言學大師杭姆斯基(Noam Chomsky)也在《紐時》的文章解釋了ChatGPT為何沒法理解自然語言的語境和邏輯,並呼籲大眾不要被要被模型的表面流暢度迷惑。

「與其要它生成甚麼,我會傾向給它已有的文字讓它順一下,或者讓它總結一些文章,那些它都做得很好。但要它寫作就是另一回事了。」我們也發現ChatGPT很會理順文句,也很會整理資料。有些套路﹑模板式﹑不要求獨特性的寫作任務,例如約訪電郵或公式書信,的確可以大部份交給ChatGPT處理。

那大概就是代表ChatGPT根本不可能有創意,所以寫出來的東西才那麼套路又無聊?端的撰稿人和機械學習工程師朱孝文(Lanston)對此有點保留。「要看你怎樣定義創意吧?例如畢加索看了梵高的畫,卻可以得到靈感開創跟梵高完全不同的新流派,這很明顯是創意,ChatGPT﹑Midjourney等工具大概做不到。但你要ChatGPT用馬克吐溫的文字風格寫科幻小說,或者要Midjourney用梵高的風格畫伊藤潤二的恐怖主題,只要訓練數據足夠,這些工具很輕易就做得到,對我們來說卻相對困難。這大概也可以叫創意?」

「與其說它『完全沒有創意』,不如說問題是ChatGPT的創意非常依賴已經存在的維度,它沒有突破的能力。我們可以對比圍棋人工智能AlphaGO--為甚麼它就可以『突破』,可以行出人類意想不到的創新步法?問題很可能在於圍棋跟藝術﹑文學的本質不同。圍棋有很明確的目標,就是在終局的時候,貼目後目數比對方多。所以它的演算法不會抗拒『創新』的步法。甚至乎AlphaGo Zero已經不需要依賴人工「餵」棋譜做訓練數據,它左右互搏已經足夠進步。棋下多了有人類沒下過的步法就不足為奇。但寫作不同。以端的深度文章為例,雖然我們都可以籠統地說『寫得好』代表寫得流暢﹑有深度﹑有內涵﹑有獨特見解……但這些全部都不是能輕易量化的明確目標。」

「所以我們只能依賴已經存在的文章來訓練ChatGPT,而它的演算法目的就是從現有文章中計算出下一個字的機會率。所以有人說過的東西它才會說,而很多人說的東西它更有機會說。就像你的同事說的:『為甚麼ChatGPT寫的東西如此像宣傳機器,空洞且含情脈脈?』因為它本身的目的就是講老生常談。」美國科幻作家姜峯楠(Ted Chiang)二月初在《紐約客》撰文,也指出我們就算有辦法阻止ChatGPT編造事實,也不應該用它來再製造更多網上內容,因為它的運作原理,就是將網上本來就有的東西打包再吐出來。姜一針見血:「本來就有很多公司這麼做了,這些公司叫內容農場。」

我問Lanston:「如果要在這麼不明確的目標下實現『突破』的創意,好像要強人工智能才做得到?」強人工智能(strong AI或AGI)的定義仍然有爭議,但一般指能像人類一樣思考和處理不同類型問題的人工智慧。相對的是弱人工智能(weak AI),即只能處理特定問題的人工智能。現存的所有演算法或人工智能工具都是弱人工智能,而強人工智能不止仍未出現,連是否有可能出現都還很有爭議。

「很難說。首先我們仍不知道強人工智能是否可能或如何可能。其次就是,就算不是強人工智能也有可能有創意吧?舉個例,海豚﹑八爪魚﹑大象和狗肯定都不及人類聰明,但那代表牠們沒有創意嗎?好像很難這麼說。」

ChatGPT 設計圖片。
ChatGPT 設計圖片。

但ChatGPT這種大型語言模型是通往強人工智能的路嗎?對此Rohan和Lanston有完全不同的看法。Rohan認為,五年或十年前,我們完全想像不到會有像ChatGPT這樣強大甚至通用的工具出現,既可以做情緒分析,又可以很好地掌握語言﹑能理解相對含蓄的語義問題,同時可以作為搜索引擎使用。「我很可能是錯的,但我認為,在短時間內人工智能工具已經得到這麼巨大的進步,我們或者真的能在這條路上發展出通用人工智能。」

而Lanston則不太同意這個說法。「就算退一萬步講,只處理文字的ChatGPT能夠發展出強人工智能,那也是個很沒效率的方法。如果要達成能跟人類相比的強人工智能,就必須有效率地整合不同類型的數據。世上的生物有幾多種是只有聽覺而沒有觸覺和視覺的?例如我至少要有視覺或觸覺去幫助我獲得空間認知,不然只是『水杯』這種簡單的概念我也理解不了。所以,如果只靠序列式數據(sequencing data)就可以有效率理解整個世界,那麼地球生物的觸覺和視覺都可以退化,只剩一隻超敏感的耳朵就夠了。」

我有點疑惑。「但那好像有點暗示了,因為我們進化成了這樣子,這樣就是高等智慧唯一應該有的樣子。」

「但這就是我們一直追求的『強人工智能』的定義。我們自己就是自己見識過最聰明的生物,除了人類本身,我們似乎沒有更好的模仿對象了。」

誰在害怕「人工智能」?

實驗結果很明顯了:第一,端編輯室應該還沒有誰能被ChatGPT「取代」;第二,未來的人工智能會不會「取代」新聞人還是未知之數。不過還有個問題沒有解決:如果大型語言模型離「取代」編輯記者遙遙無期,甚至暫時不算有太多實用價值,為甚麼社會討論「人工智能」時,總是用「取代人類」的敘事?這種自製的生存威脅是怎麼來的?

我們對於人工智能的想像多來自荷里活電影:1968年寇比力克的經典《2001太空漫遊》(2001 Space Odyssey)中的HAL因害怕「被關掉」而將太空船上的人殺死;1979年《異形》(Alien)的「仿生人」為了將異形運回地球而想殺死主角,2004年改編自科幻大師阿西莫夫小說的《智能叛變》(I, Robot)講機械人密謀推倒人類社會。女性機械人或人工智能成為「femme fatale」(影視中的蛇蠍美人典型)的電影就有近年的《智能叛侶》(Ex-Machina)和去年上映的《人工殺姬》(M3GAN)等。當然也有些電影中的「人工智能」不是要殺人(或在殺人的路上),但它們仍被塑造成有感知力的:例如2001年史匹堡的電影「A.I.人工智慧」(A.I. Artificial Intelligence)的主角就是一個渴望愛的機械小男孩。

主流娛樂影視和科幻小說令我們將「人工智能」和能思想﹑有感情的機械人或電腦聯想在一起,但正如上面說的,強人工智能是否真的可能還是未知數,而所有現有的「人工智能工具」都是只能做特定任務的弱人工智能。「人工智能」其實是個總稱,是電腦科學下專門模擬人類智能的分支;近年很熱門的機械學習就是人工智能的一種,目的是訓練機械從數據中學習﹑識別模式並在幾乎不需人為干預的情況下作出後續判斷。在主流媒體,無論是甚麼工具都一律被稱為「人工智能」,但其實專家們一直在呼籲媒體區分演算法(algorithm)﹑程式(program)﹑自動化(automation)等等科技名詞,以免加深大眾對人工智能的誤解。但為了搜索引擎優化(SEO),很多媒體仍然將任何工具都稱為人工智能。無奈地,這篇文章也不例外:如果標題寫的是「大型語言模型實驗」,點擊率會不會少了一大截?

對於大眾對人工智能將會變得無所不能,早晚要超越及「取代」人類的想法,紐約大學公共利益技術聯盟的研究主任Meredith Broussard 提出了「科技沙文主義」(technochauvinism)的概念:「當你預測一種新的技術工具要開創一個新時代時,問問自己:真的會嗎? 對技術工具的誇大其詞是一種偏見,一種我稱之為『科技沙文主義』的偏見。這種偏見假設了技術解決方案總是優於其他的解決方案。」她指出,我們現在對人工智能的恐懼,其實以前就出現過很多次,而之前「威脅」新聞的是微型電腦﹑桌面排版﹑智能手機﹑數據庫﹑社交媒體﹑Youtube和其他串流媒體……而現在是「人工智能」。

2015年11月24日,中國北京,一座機械臂在用毛筆寫中文字。
2015年11月24日,中國北京,一座機械臂在用毛筆寫中文字。

西北大學新聞學院和電腦科學院教授Nick Diakopoulous也指出,人工智能毫無疑問將會改變編輯室的工作流程,但這個流程之前就被攝影﹑後製和電腦技術改變過很多次了。與其說是「取代」,人工智能更可以做的其實是「協助」:現時編輯室有很多工作是可以交付給科技的,例如我和身在挪威的Rohan在Google Meet做完訪問,等了半小時Gmail郵箱就收到了訪問的逐字稿,省卻了以往訪問後聽錄音做筆錄的時間。Diakopoulous甚至說,人工智能科技更可能會製造新的工作崗位:知識管理﹑參數化﹑數據生產﹑模板編寫﹑建立和操作自動生產系統,都是編輯室有可能圍繞人工智能工具而產生的工作。

電腦科學家Ian Bogost在《大西洋》(The Atlantic)撰文,也指出ChatGPT的不足會帶來更多工作:「無論ChatGPT和其他人工智能工具最終做了甚麼,它們都會在進行所謂省力工作所需的勞動力上,施加新的勞動和管理制度。」結果就是為人類增加更多工種。無論這種「科技解決主義」(technological solutionism)是好是壞,人工智能工具和人類的關係,似乎都不是前者完全排擠後者。

工具人與新聞的未來

ChatGPT也許永遠不會「取代」人類編輯和記者,但我們不能否認,甚至應該慶幸的是:這些工具會不斷地進化,而且進化的速度是爆炸性的。只是十年前,我們已經幾乎不能想像有ChatGPT那麼會運用人類語言的工具,也沒法想像人工智能可以畫畫﹑處理照片﹑作曲﹑下棋﹑寫小說﹑協助科研﹑寫程式﹑分析股市。而在社會還在為ChatGPT興奮莫名的時候,Notion﹑Facebook都宣佈了推出自己的人工智能工具,而微軟也宣佈將會推出「多模態大型語言模型」(multimodal large language model;MLLM)Kosmos-1,除了能處理語言還能分析圖像。

「那新聞的未來是怎樣的?」我問倫敦政經學院(LSE)Polis智庫旗下JournalismAI項目的經理Mattia Paretti,「今天ChatGPT當然沒有『取代』記者,但十年後呢?這些工具變強的速度是爆炸性的,但十年後的人類卻絕不會進化成超級人類。我們知道『取代』是誇張了,但我們沒法避免被科技改變。作為新聞人應該如何和人工智能工具相處?」

Mattia說:「其實看看歷史就知道,新聞行業被科技『挑戰』的歷史很長。可能人工智能的確跟之前的挑戰不太一樣,或者它帶來的改變更巨大,但能比數十年前互聯網出現時巨大嗎?好像也很難說。但我會說新聞人--應該是所有人--都應該去理解它的長處和不足。我不是說大家都要去學編程,要懂得裡面的數學甚麼的。但我們需要能客觀地談論它,不需要誇大它們的作用和影響,更不需要有不必要的恐懼。或者到我們客觀看待人工智能時,就會發現它會帶來很多特別的機會。」

BBC多年前就根據一個牛津大學的研究,做了一個叫「機械人會不會搶了你的工作」的網站,可以查各項職業的自動化風險(automation risk)。我試試鍵入自己的各項身份:「社會人文科學家」的自動化風險只有10%,非常低。「作家和翻譯人員」的自動化機會率是三成多,仍然偏低;「記者和編輯」是8%。最近對考古學和古生物學很有興趣,所以我也查了一下考古學家的自動化風險:低於1%。相比之下,零售業是重災區,很多職業的自動化指數都超過九成。

這些數字應該讓我們覺得安心嗎?是不是因為社會學太困難太複雜了,所以機械人難以取代?也許--但更有可能的是,沒有人會去製造一個取代社會學家的機械人,因為社會學家這種行業本來就不太賺錢。不過社科學者起碼還能在智庫等機構工作,甚至現在許多做數據的社科學者會轉行科技行業;但考古學家就不一樣了,除了學院,他們需要十幾年時間來學習的艱澀知識幾乎沒有職業化的機會。而高等教育現時面對的學術工作零散化﹑缺乏勞工保障﹑研究院裡的剝削等問題,全部都不是由科技引起的,「自動化」相比學術工作者面對的種種問題實在微不足道。

傳媒也一樣。自動化會如何撼動新聞行業當然值得談,但要數新聞行業的難處,甚麼時候才會數到「被人工智能取代」呢?

這可能就是Broussard提出「科技沙文主義」的原因了:我們迷戀工具同時恐懼工具,忘記了科技既不會為我們創造烏托邦,大概率也不會為我們帶來世界末日;科技能為我們做的很多,但不能為我們做的更多。Broussard也寫道:「技術系統不會消除社會問題,但會轉移和掩蓋它們。」雖然這個結論可能老套並有點令人失望,但世界明天會變成怎樣,這些工具最終會為我們的生活帶來甚麼改變,答案自有人類社會之始都沒有改變過:就是人類本身。

(感謝實習記者徐凱鳴Stacey對本文的貢獻。也感謝端傳媒的同事們和我一起進行這場小實驗,你們都是無法被取代的優秀新聞人。)

讀者評論 21

會員專屬評論功能升級中,稍後上線。加入會員可閱讀全站內容,享受更多會員福利。
  1. 文章情理兼備,有幽默感,是機械無可取代的。
    不過ChartGPT最近推出GPT-4,將有圖像分析,如果這個題目可以一直跟隨技術發展,探討不同職業的應用性應該很有趣。

  2. @dlxw 確實是看到陳編輯就知道會是一篇好文章。
    @Eric 人總是會對自己無力改變的現實感到憤怒,類似於悲傷五階段之一

  3. @ObserverZ:
    我根據白『發』老人這個錯誤質問New Bing 得到這個結果:
    『您好,這是必應。白發老人的『發』是否是錯字,要視乎上下文而定。😊
    如果是指頭髮變白的老年人,那麼『發』就是正確的字,因為它是指毛髮的意思。』
    我懷疑回答的差異可能跟繁體或簡體使用者有關。

  4. @Weber
    我试了一下 New Bing,虽然它没有告诉我这个网站是什么,拼音也打错了,但是它确实分辨出了错误。
    你的文章有一个拼写错误,就是『白發老人』应该是『白髮老人』。发和髮都是发音为fā的字,但是在繁体中文中,发用于表示动作或状态,如发生、发展、发烧等,而髮用于表示头上的毛发。你可以参考这个网站来了解更多关于繁简转换的规则。

  5. 這篇文章的測試結果真是讓人心有戚戚焉。
    有端友認為 ChatGPT 可以更進一步提供編輯或寫作協助的,其實也可以自己做個小實驗。例如前幾篇文章中曾出現『白發老人』這個繁簡轉換錯誤,而將該段落丟給 ChatGPT 跟 New Bing 檢查,它們都不認為白『發』是錯誤的用字。

  6. 此篇為何無法保存分享?

  7. 很好的文章。
    但問題是「讀者能分辨出來嗎?」
    ChatGPT 當然無法「去」實地進行採訪,發掘新聞,訪問人類。
    但有些端文章的作者是在網上採集資料,再進行分析評論。這種文章由ChatGPT寫出來,恐怕讀者也無法分辨出來。
    我再舉一個真實例子,20年前左右,我母親觀看電視台的動物紀錄片,她告訴我無法分辨那些是電腦合成動畫,那些是真實動物。
    現在我往電影院看電影,也沒有十足把握去分辨影片中誰是真人,誰是電腦合成了。
    還有,其據以上的小實驗,ChatGPT 似乎能夠勝任寫「心靈雞湯」類的文章,而這類書籍從來都十分暢銷的。

  8. 记叙文一样好看,相当refreshing!

  9. AI迫使我們要去解構和重構自己的職業,要找到職業,和身處這個職業中的自己去反思自己的職業乃至自己最核心的能力和最不可取代的能力在哪裡?然而從微觀的角度看個體,當看到自己長期的努力和訓練在電腦算力面前是那樣無力的時候,很難不生出一種憤怒和無力感。

  10. 有些画师抨击ai插画是“尸块”没有灵魂啥的,说实话他们自己的作品就有艺术性有灵魂吗?
    让我想起若干年前很多玩摄影的看不起微单或者手机摄影,但他们的单反作品和现在的小红书自拍也没啥区别。
    不要让技术作为自己“无能”的挡箭牌

  11. 至少ChatGPT可以幫端修正錯字吧(聳肩

  12. 这篇文章来得太及时了!作为一个在网上写同人文的写手,最近lofter因为使用ai作画功能导致大批创作者注销账号跑路,我现在也在犹豫要搬去哪里……
    创作者对ai的反感未必仅仅是出于对被取代的恐惧,而是这让我们不得不去思考自己创作的东西究竟具有怎样的独创性,去思考在这个时代下创作的意义。一方面我知道互联网上的数据都有被喂ai的可能,但另一方面我又相信ai不会取代创作。因为艺术的价值体现在人与人、人与世界互动之总和,而绝非是“画得真像”“写得真美”的呈现。
    就像文章中指出的那样,ai是在计算一种普遍概率,然而人与世界的互动却是特殊的,无法被概率计算的。但值得担心的是ai对人类审美意识的消解,以及一切价值被数据化的可能。从翻译软件使用译著做数据训练开始,ai开发就有侵犯知识产权的倾向。我们该如何理解互联网?数据是否可以进入public domain领域?ai开发与人类福祉,以及这是否就给了它使用数据的正当性?ai是否会使人文学科的环境进一步恶化?还是会引发大众对人文学科价值的重新认识?
    希望这个系列可以继续深入下去!

    1. 讀者你好:我們希望了解多一點你說的lofter的情況,如果可以,能不能請你聯絡端編輯部?可以發個郵件去editor@theinitium.com。謝謝!

  13. 問題不是科技取代人類,而是科技掌握在資本家手中。科技進步太快,一般人跟本追不上,註定是被社會淘汰。社會變革掌握在少數資本家手中,被淘汰的人會變得一文不值。
    一直有種敘事叫「努力增值自己」才不會被取代,但現實努力追不上科技。另有一種敘事叫積穀防飢,但現實是一個上班族努力工作幾十年的財富,比不上投資虛擬貨幣幾個月的收入。
    普通人的力量愈來愈渺小,輕易被資本家如condom 般拋棄。我對人類未來確實沒有什麼希望。

  14. 好棒的实验和解说,看完觉得原来如此!期待新专栏更多好文。

  15. 我觉得可以顺便提一提科技人文主义。

  16. 見到是陳婉容就知道是好文章

  17. 有趣的實驗和豐富的資料support

  18. 這報導很好,讓想了解的人有了初步認知。

  19. 很有趣的實驗

  20. 可以先引入幫端傳媒的稿件校錯字