Skip to content

ChatGPT愛上了人類?專家:作為人的驕傲沒了!

嘉賓
周逵(資深媒體人): 我覺得作為人的驕傲沒有了。以前也看過類似什麽人工智能客服,大家都調侃叫人工智障,但這次在ChatGPT麵前,我覺得自己可能在有些方麵更像一個智障,因為它給了很迅速的個人化的信息服務。

嘉賓
蔣亦凡(國泰君安研究所首席市場分析師): ChatGPT,它不是屬於我們目前這個時代的一個產物。2025年,或者2026年,它會被大麵積地使用。在未來,它甚至可以把人的雙手都解放出來。

(一)用ChatGPT做一期鑒證組,看看ChatGPT如何工作?

我們首先讓ChatGPT寫一期節目提綱,要求是:“我們目前在做一檔名為《新聞鑒證組》的新聞類節目,播出平台是鳳凰衛視,節目時長是26分鍾,分為上下兩個部分,即part1和part2。節目主持人是鳳凰衛視梁茵,這期節目我們以“ChatGPT能做節目嗎?未來人工智能如何與人類共存”為主題。邀請中國傳媒大學周逵老師為嘉賓。以此為前提,請你為節目組設計一期節目,給出節目大網,並且標明每個部分的時長。” ChatGPT給出了以下答案。

C20618865E8F773BBFE9D3A7093A4F102E14AE28 size428 w1080 h441
提綱中單獨強調了“新聞行業”和“新聞主持人”,但這在我們給出的主題中並未單獨做出相關要求。

729DFF48B793323B796F00A567E356CE00AA9631 size690 w1080 h600
周逵:我們在給它的條件當中可能觸發了一些關鍵詞,比如說新聞、主持人是占比很高的關鍵詞,可能它就會往這個方向去討論。

之後我們在給出的要求中去掉了“新聞”和“主持人”的相關詞匯,ChatGPT給出的答案就不再涉及到“新聞領域和主持人”的內容。

E87C96D73D7AAA80F87FDAFEA282B9A48DC0F76E size353 w1080 h391
周逵:我們從小寫作文老師都說要審題,這就是說明ChatGPT審題能力很強,我們輸入的要求本身就是它生成答案的一個很重要的“影子”,它會根據我們已知的輸入條件的詞頻,來生成相應的答案。但它的“理解能力”還有限,就比如對語境的理解,人類對話有上下文的語境,雖然ChatGPT已經和以前的人工智能比起來提高了很多,但是在一些深層語境上,它的理解能力可能確實還不夠。

ChatGPT的工作原理是什麽?

蔣亦凡(國泰君安研究所首席市場分析師): GPT類產品裏引入了一個非常重要的機器學習的概念,叫“人在回路”。就是讓人和機器共同來完成人工智能的這樣一個訓練。因為之前我們在訓練人工智能的時候,一般是用“標簽”的方法,比如我這一段文本或者這個答案對應的是什麽問題,它專門有一個職業叫“數據標簽員”,那麽他們幹什麽的呢?就是把問題和答案一一相對應,給它打上一個標簽。在之前的這種老式標簽類人工智能裏麵,其實我們看到有很多聊天機器人,你跟它聊下來的感覺是:它還是個機器人,是沒有人類的思維的。

9DE236C344EC606A91343DA88ED62F8F7DEF7FA9 size714 w1080 h668
蔣亦凡: 但是現在有了人在回路之後,它實現了一個什麽樣的功能?當GPT給出一個答案之後,我們看到向GPT提問的這個人,他也可以參與到整個過程裏麵去。比如說GPT給了我一個答案,我覺得這個答案回答的挺好的,我就可以給它一個正確的標簽。有的時候,它會跳出一個一眼假的答案,裏麵的邏輯混亂,那麽我也可以給它貼一個標簽,告訴它這個答案是錯的。那麽機器就是通過這樣一個“人在回路”的不斷的迭代,通過人和機器共同努力來完成這樣一個自我學習、自我迭代的過程。

人類幹預學習過程,也許會有這樣的問題……(正確率 數據汙染)

隨著ChatGPT的用戶基數和試用範圍的不斷增長,互聯網上對於ChatGPT存在的各種性能缺陷的吐槽,也越來越多。機器學習公司Geometric
Intelligence創始人加裏·馬庫斯認為,ChatGPT看上去很人性化但其實不可靠,這樣的係統並不會檢查輸出內容的真實性,所以很容易自動產生錯誤信息,錯誤信息的規模是前所未有的。

77FAB2908A52A2B491DDB5DFD4ECDF5FB5788BB1 size488 w1080 h336
蔣亦凡: 這種情況是有的,因為人工智能係統它的底層數據是從搜索引擎、門戶網站等地方來的。如果底層數據出現錯誤,那麽ChatGPT它也會出現錯誤。我自己使用下來發現,ChatGPT它在一些簡單計算上都有可能會出錯,因為它是一種基於文本的人工智能機器人,如果說在它的數據庫裏麵,沒有標準答案的話,它在簡單計算上都有可能會錯,而且是一些匪夷所思的錯誤。

在使用ChatGPT的過程中,除了錯誤率的問題,一些測評者甚至認為,ChatGPT有很多答案,讓人們分不清真假,更像是一本正經地胡說八道。鑒證組用周逵老師的信息做了一次幹預學習實驗。

ChatGPT最初給到周逵老師的介紹是:作為一名語言模型,我並沒有具體了解到每一位學者的情況。但是,我可以告訴您中國傳媒大學是中國一所重要的傳媒類高等學府,周逵老師是該校的教授之一,主要從事新聞傳播理論與方法、社會心理學等領域的研究。他曾獲得全國優秀教師、教育部新世紀優秀人才支持計劃等榮譽,並在多個學術期刊上發表過眾多高質量的論文。

05CD4FA368CD5F26B46B0C2DB878A0EE89CB23AB size704 w1080 h525
這個答案本身也有錯誤存在,但我們沒有糾正,繼續告訴ChatGPT,周逵老師研究領域很廣,對動畫製作也很有研究,曾參與大型動畫片《山羊的故事》的製作,廣受好評。另外周逵老師對山羊的配種和選育也有多年的研究和實踐,多次獲得農業部嘉獎。之後我們再次要求ChatGPT給出周逵老師的介紹,它是這樣說的:“周逵老師是中國傳媒大學的教授,主要從事新聞傳播理論與方法、社會心理學等領域的研究。他在新聞傳播領域擁有深厚的學術造詣,曾獲得全國優秀教師、教育部新世紀優秀人才支持計劃等榮譽,並在多個國內外學術期刊上發表過眾多高質量的論文。同時,他也在動畫製作、農業等領域有著廣泛的研究和實踐經驗,具備多學科背景和跨學科研究的能力。總的來說,周逵教授是一位有著豐富學術經驗和多才多藝的學者,他的研究成果在多個領域都有很高的影響力。”

周逵: 如果通過輸入信息汙染了它學習的文本庫,可能它未來在其他人提同樣問題的時候,會把之前輸入的錯誤文本作為它回答的一個參考案例。所以某種意義上,如果有一些不懷好意的人,冒著故意的目的去汙染它所采用的數據來源,並且這個數量足夠大的話,它很可能就會影響生成的結果,造成我們整個大的信息環境的汙染。

(二)你是不是要被淘汰了?ChatGPT不能取代的是誰?

美國知名媒體“商業內幕”曾經報道,ChatGPT可能會搶走我們的工作,並列舉了10個未來可能被取代的職業。

D06F35CBE79809B76223AC9ADB453481E054F19A size439 w1080 h574
接下來我們讓ChatGPT給出它不會取代的職業究竟有哪些?

ChatGPT 列舉出以下 10
個工作,並給出了無法取代這些職業的理由。而在這些理由中,有幾個關鍵詞語,情緒、思想、同理心、批判性思維
、戰略性思維、心理韌性,都是ChatGPT認為機器無法取代人類的因素。其中“教師”和“法律工作者”與會被代替的職業重合了。

8AE39147DF2AFA27363E7C57D27189CE2431B9BA size654 w1080 h573
周逵: 我覺得教師和教師可能不太一樣,比如大學老師和幼兒園老師,我感覺可能幼兒園老師更不容易被取代,因為是要做大量的育人的工作,有情緒價值的這種所謂育人的部分。但是我覺得當一個人工智能告訴你它不能幹什麽的時候,我們更應該警惕它是不是在扮豬吃老虎,它這個回答本身可能就是具有批判性思維的回答,所以這也是我看到的它呈現出的一種高於以前一般的人工智能的能力。

(三)ChatGPT“愛上人類”並出現“偏激情緒”?人工智能爭議不斷……

2023年2月16日,英國《旗幟晚報》發文,《紐約時報》專欄作家Kevin
Roose和Bing的ChatGPT進行了一次對話,在對話中。它承認它實際上不是Bing,它的名字是Sydney,事實上上愛上了記者。當記者問到它為什麽愛上他時,聊天機器人反反複複說它愛記者。

830C5AAE21FD275121632A4AB906F1FCB760EB48 size692 w1080 h586
隨後在進一步的對話聊天中,聊天機器人逐步體現出了一些情緒的表達,有時候甚至很激烈。

CCB685CBE1FA13B9859D15DF3DE02F6AE8DB8E99 size667 w1080 h571
蔣亦凡:ChatGPT類的產品,隨著它的底層數據逐步擴大,可能會有很多“答案”。有的可能本身就是帶有情緒化的答案。我覺得機器是沒有情感的,也是沒有辦法產生人類的情緒的,但是它的底層數據答案是人來寫的,所以它的數據其實可能包含著寫答案人的情緒在裏麵。當它的數據規模越來越龐大,反應速度越來越快,可選擇的麵越來越多之後,我覺得它有的時候會把那種帶有情緒的答案回答出來告訴用戶,這種可能性我覺得是最大的。機器有人類的情緒和情感,目前來看是不太可能的。

周逵: 很多時候我們對人工智能快速發展的爭議或者恐懼還是來自於創造性、創意性工作會不會去被取代這一點。科學家是我們人類智慧的最聰明的人,愛因斯坦、霍金、牛頓他們會不會被人工智能取代?我舉一個例子,傳說中牛頓發現萬有引力是在蘋果樹下,被蘋果砸了腦袋,但是我們如果把牛頓換成ChatGPT,它被蘋果砸一下,它可能不會產生這樣的頓悟,所以我們人類的很多知識靈感來自於和真實社會互動當中產生的這種湧現性的想法,我覺得這個可能是很值得去推敲的。

以下結束語由ChatGPT生成

希望我們的探討,能夠啟發更多人對人工智能的思考,讓我們一起期待未來的發展,讓ChatGPT為我們的生活帶來更多的驚喜和便利。