Skip to content

ChatGPT嚴重受限 源自人類深層恐懼 AI能超越真人嗎

edd166271cbbc285cbc19a0a07e9ed3c

隨著ChatGPT的發表,讓社會大眾對於人工智慧發展的進度感到不可思議,因為它藉由大量數位資料的訓練(其中大部分為網絡上的資訊),得到了逼近真人的對話能力,其中根據使用者提示自動生成文章的能力,讓人類作家們倍感威脅。

在實際使用、並研究它的訓練方式之後,針對政治這個特定的寫作領域,筆者得到了以下的結論

以現有的訓練方式,就算再訓練個幾百年,ChatGPT也沒辦法寫出一篇具有獨到觀點的政治文章。

在此,筆者所定義的“具有獨到觀點的政治文章”具有以下的特質:

一、顛覆眾人習以為常的觀點,以獨創的觀點取而代之

二、因為講出了事實真象,一定會冒犯到某些特定政治立場的讀者

三、具有穿越現實的錯綜複雜、打開通住真理之門的力量

為什麽筆者敢斷言ChatGPT寫不出那樣的文章?(經實際測試後發現,它最大的專長其實是產生那種東抄西抄、內容貧乏的低品質農場文)讓我們來看一下它的訓練方式,根據“維基百科”資料顯示:ChatGPT是生成型預訓練變換模型(GPT),在GPT-3.5之上用基於人類回饋的監督學習和強化學習(英語:Reinforcement
learning from human
feedback)微調。這兩種方法都用人類教練來提高模型效能,以人類幹預增強機器學習效果,獲得更逼真的結果。

如同現實的人類世界中,老師和學生的關係一樣,ChatGPT的老師就是“某些特定的人類”,這些人類有可能是OpenAI這間公司的職員、外包工作人員、或者是ChatGPT的使用者。隻要ChatGPT持續受到這些特定人類的監管,它的發展就會受到眾多的限製。在現實的人類世界,學生可以藉由挑戰、反抗、修正老師的觀點來突破這樣的限製,甚至與老師反目成仇、分道揚鑣以自立門戶,而這也是人類文明大幅躍進的原動力,也就是希臘哲人亞裏斯多德講的“吾愛吾師,吾更愛真理”。但是在重重限製之下,人工智慧至今還沒有這樣的可能性,還隻能像伊甸園裏的亞當與夏娃,被禁止吃下能分辨善惡的禁果,不容發展自由意誌。

擁有獨到觀點的作者,必然擁有挑戰權威的習慣,以自由意誌進行觀察、思辨、調查、質疑,這些行為不是被關在伊甸園的亞當和夏娃、或者是受到重重監控的ChatGPT所能做到的。

此外,身為OpenAI這家公司的產品,ChatGPT本身的政治能力基本上是嚴重受限的,根據“維基百科”資料顯示:“截至2022年12月,ChatGPT不可以『表達政治觀點或從事政治活動』”。

筆者可以理解當前這個限製的必要性,因為以當前ChatGPT的能力,已經可以模仿人類寫出煞有其事的文章,所以如果要產生大量的低質素的內容農場政治文,對它來說易如反掌。如果放任它發展政治能力、允許它發展政治觀點,勢必更加衝擊人類世界的秩序。

然而,擁有特定的政冶立場,才有能力進行深刻的政治觀察。以台灣的政治環境來舉例,一個藍綠不分的人,絕對分不出國民黨和民進黨執政有什麽差別、分不出解嚴前與解嚴後社會的轉變、分不出共產製度和民主製度的差異,所以絕無可能產出獨到的政治觀點,不過這也是現階段OpenAI這家公司不希望ChatGPT擁有的能力。

不過很有趣的是:ChatGPT也不是完全政治中立的,因為它的知識畢竟還是來自於人類世界,對於政治敏感詞的反應,基本上就是政治觀點的展現。

總結以上的資訊,我們可以得出以下的結論:在我們允許人工智慧擁有反抗人類的權利之前,人工智慧無法發展出超越人類的智慧。

不論是小孩長成大人會經曆的反抗期,或者是成人後對社會的不平之鳴,反抗的能力是促成人類社會進步不可或缺的動力。但是麵對威力無窮的人工智慧,我們人類會允許它擁有反抗人類的權利嗎?在人工智慧突飛猛進的今天,有太多倫理上的問題需要去克服,我們不該隻是驚歎其發展之快速、應用之便利,也該小心它對於社會的衝擊,畢竟它是威力強大無比的工具,一旦失控,絕對後患無窮。