免费观看av在线网站网址_亚洲一级夜夜爽|_人成在线视频国产_亚洲αv在线精品糸列_在线看av一区二区三区

  • 歡迎光臨燃氣表信息網(wǎng)!
 
當前位置: 首頁 » 技術前沿 » 創(chuàng)新技術 » 正文

ChatGPT的這個弱點,說明人與人工智能沒有本質的區(qū)別

字體: 放大字體  縮小字體 發(fā)布日期:2023-04-20  來源:世界經(jīng)理人  瀏覽次數(shù):5528
 從鸚鵡,到烏鴉

1/6 人工智能不只是ChatGPT

(本文前半部分與上周末發(fā)在“思想鋼印”公眾號上的文章的前半部分相同,后半部分為新撰寫,討論的是本公眾號最感興趣的思維方式的內容)

ChatGPT火了之后,有一個段子,說:我們過去想象的人工智能是,我們寫詩畫畫編音樂,AI燒飯洗碗修電腦,沒想到,最后是AI寫詩畫畫編音樂,我們自己燒飯洗碗修電腦。

白領危機四伏,藍領暗自慶幸。

然而,ChatGPT實際上只是人工智能歷史上的第一個爆款應用,又是以一對一對話形式展開,效果又超出了我們的心理預期,很容易讓我們產生一個“人工智能能說會道”的錯覺,進而讓我們覺得,它未來可以取代很多白領的工作。

其實,ChatGPT底層的自然語言大模型GPT,只是眾多人工智能大模型中率先“涌現(xiàn)”的一個,它更傾向于生成文本的能力,所以看起來都是寫寫文章,說說話,畫畫畫,但并不是說人工智能就只能干這些,你總不能因為趙本山演小品,就以為東北人只會演小品吧?

所以說,哪有什么“只取代白領的工作”這么簡單的事啊,取代藍領工作的人工智能早晚也會來的。

僅就自然語言大模型而言,最有名的有兩種方向,除了GPT模型外,還有Google的BERT模型,兩者的核心區(qū)別在于目標不同,GPT更傾向于生成文本,而BERT 模型更傾向于理解文本,更不用說還有更多開發(fā)中的各種方向的人工智能模型。

這個區(qū)別可能人類無法理解,不理解文本怎么生成文本呢?

但這個問題對AI來說,并不存在。

本文就從這個話題開始,聊一聊ChatGPT跟人類的“思考方式”有什么不同。

2/6 文科的GPT和全科的BERT

在不理解的基礎上,如何生成內容?大家可以參考一部勵志日本電影《墊底辣妹》。

這部電影講述了一個年級倒數(shù)第一的差生,通過一年內復習考入日本一流名校慶應大學的真實故事,相當于在全國學生中的最后2%,進步到前2%。

這個神奇的故事之所以能實現(xiàn),是因為她只要考“英語、小論文、歷史”這三門強調記憶的科目,她不需要很深的理解,只需要記憶和“生成”,注意重點是——不考數(shù)學、物理等注重推理的科目。

而GPT模型的成功,就像“墊底辣妹”一樣,很大程度在于選擇了“語言生成”為目標的捷徑,從而讓它看上去的效果比它實際上的突破更明顯——這一點跟現(xiàn)實中一樣,一個能說會道的員工,總是比只會干實事的員工,看起來更能干。

GPT模型就像文科畢業(yè)生,由于其在生成文本方面的強大能力,畢業(yè)后最大的“就業(yè)去向”是自動生成文章類的“工作”、包括新聞、廣告文案、創(chuàng)意內容、法律文書、文秘、各類咨詢,等等;其次的“就業(yè)去向”是作為聊天機器人、虛擬助手、智能客服,等等,進行更加自然、流利的對話。

相比而言,BERT模型雖然也是一個文科生,但也要學習數(shù)學、物理這一類注重推理的課程,全面發(fā)展。BERT模型需要“理解”文本的內容,GPT模型則不一定。

兩者的區(qū)別在一開始訓練時就產生了,GPT的訓練目標是通過最大化下一個單詞的條件概率來預測下一個單詞,從而完成生成任務;而BERT的訓練目標是隨機掩蓋一些輸入詞匯并要求模型預測這些詞匯,強迫模型預測缺失的單詞,因此它的理解是到詞匯這個級別的。

在不理解的基礎上生成的文本,難免會發(fā)生胡說八道的情況,雖然大家已經(jīng)覺得GPT很神奇了,但如果真的大規(guī)模投入應用,在那些非生成內容為主的應用上,它還是有缺陷的。

比如你對AI助理說:“幫我在陸家嘴附近訂一個粵菜餐館,人均消費在500元左右,時間是明天晚上。”

對于這個句子,GPT模型的“理解”是從過去的語料訓練中,判斷“陸家嘴、粵菜、明天晚上、人均消費、500元”這些詞的組合而不是詞本身的意義,由此來判斷自己應該輸出什么樣的內容,它對于語言的最小理解單位是句子,而不是詞匯,會導致“模型產生幻覺,編造訓練中從未有過的數(shù)據(jù)”。所以我們有時看到GPT推薦必勝客等成都小吃的離譜結果,因為它并不理解“必勝客”的屬性,它還會把數(shù)學計算中的1995當成年代。

雖然GPT4中,這些現(xiàn)象已經(jīng)大大減少,但由于底層邏輯仍然是一個“文科生”,未來很難說在遇到更復雜的問題時,會不會出錯,很可能最后給你預訂了一個經(jīng)常與粵菜館一起出現(xiàn)的咖啡館。

由此看來,GPT模式不會是終點,AI代替人類的工作,文本類只是一個“開胃菜”。

很多人可能會想,GPT模型的進化速度如此之快,年底就要發(fā)布GPT-5了,那未來會不會真的“理解”人類的語言呢?

這就要涉及到,到底我們應該如何定義“理解”?人類又是如何“理解”的?

3/6 相關性不等于因果性……嗎?

熟悉邏輯學的讀者一定知道,它有一個著名的說法:相關性不代表因果性,相關性只是對現(xiàn)象的描述,因果性才是現(xiàn)象之間的內在聯(lián)系。

所以有人說,人類與人工智能的區(qū)別在于,人可以判斷因果關系,而人工智能只能判斷相關性。

這個觀點的后半段是正確的,目前所有的人工智能模型,都是通過學習數(shù)據(jù)中的相關性來進行預測和推理。

GPT模型完成任務的方法就是“猜猜下一個概率最大的詞是什么”,根據(jù)輸入的一段文本,預測下一個單詞出現(xiàn)的概率分布。比如給定前面的句子“我喜歡吃?”,模型可能預測下一個單詞為“蘋果”的概率是0.2,“香蕉”的概率是0.3,“披薩”的概率是0.1,等等,這些概率值的總和為1,代表了所有可能的下一個單詞的概率分布。

根據(jù)這個概率分布,選擇最有可能出現(xiàn)的單詞。所以ChatGPT都是一個字一個字地蹦出來的,跟剛剛學會說話的小孩子一樣。

BERT模型的復雜之處也在于概率判斷,它會考慮每一個單詞與前后文的關系,還要反向預測“喜歡吃蘋果?”,所以更準確,也更需要更多的訓練。

人類認為,自己的判斷靠的是因果關系,先學習各類事件之間的因果聯(lián)系,再去推斷出某個事件是另一個事件的原因或結果。所以,早期人工智能的方向是模仿人類的思維,去建立因果關系。

可當專家們想用計算機語言描述因果關系時,才發(fā)現(xiàn)此路不通——人類自以為嚴謹?shù)囊蚬P系,可能并不存在。

看過《三體》的讀者,都應該對其中哲學家羅素的“農場主假設”有深刻的印象,農場里有一只火雞科學家,通過長期觀察,發(fā)布了一個科學規(guī)律,每次農場主來,就會有食物,兩者之前存在因果聯(lián)系。結果復活節(jié)前,農場主帶來的不是食物而是屠刀。

不要以為“把相關性當成因果性”只是普通大眾缺乏科學常識導致,我們所認為的因果性,正是站在火雞科學家的角度,從科學的角度,想要證明兩件事之間存在嚴格的因果幾乎是不可能的。

抽煙與肺癌的因果關系,現(xiàn)在醫(yī)學已經(jīng)廣泛認可,但這只是“認可”,認為抽煙與肺癌存在高度的相關性,而不是“證明兩者之間存在因果關系”,因為你無論用什么方法,都無法嚴格證明。

哲學家大衛(wèi)·休謨早在300多年前就稱之為“因果關系幻覺”,他認為:“我們無從得知因果之間的關系,只能得知某些事物總是會連結在一起,而這些事物在過去的經(jīng)驗里又是從不曾分開過的。”

更糟糕的是,基于經(jīng)驗的因果判斷并不是人類獨有的能力,比如人工智能學家最喜歡研究的動物——烏鴉。

4/6 人工智能,從鸚鵡到烏鴉

烏鴉喜歡吃堅果,但它弄不開堅硬的外殼;烏鴉發(fā)現(xiàn)汽車可以幫它壓碎外殼,可行駛中的汽車又太危險了;烏鴉還觀察到,有一樣東西可以讓汽車停下來——紅綠燈。

于是烏鴉建立一個策略:叨著堅果在路邊等候,在紅燈時,把堅果丟在汽車輪子前,等綠燈能行后,汽車就可以將堅果壓碎,再等下一次紅燈,它們就可以吃到堅果了。

但我們知道,烏鴉不可能懂“因果律”,做不了數(shù)學題,它們只是像人類一樣,觀察到紅綠燈閃爍和汽車的運行,汽車開過與堅果破碎,這兩組現(xiàn)象之間存在著相關性。

2010年,人工智能專家約瑟夫·魏茲提出了烏鴉與鸚鵡的比喻,來描述人工智能未來的方向。他認為,鸚鵡是一種高度訓練的動物,它們可以通過反復模仿來掌握特定的技能,但是在新的情境下,它們就無法產生新的解決方案;而烏鴉是一種具有高度自適應和學習能力的動物,可以通過試錯的方式不斷學習,從而能夠在各種不同的情境下靈活應對。

于是人工智能科學家們產生了一個共識:相關性就是因果性,是一套描述因果關系的語言體系,它的單位是“概率”,因果關系不是0和100%,而是15%、60%、99%,等等。

于是就有了貝葉斯算法,有了聲音模擬信號變成數(shù)字信號,才有了手機通信,才有了郵件反垃圾系統(tǒng),以及更復雜的大數(shù)據(jù)推薦和人工智能算法。

人類之所以自詡“理解因果關系”,恐怕是因為數(shù)學,這是人類唯一掌握的建立在嚴格因果性上的方法,而計算機運作恰恰是基于嚴格邏輯推理,所以,過去的人工智能專家總是希望能基于這種嚴格的因果關系實現(xiàn)人工智能。

偏偏人工智能最終突破的方向,是基于貝葉斯概率的相關性,第一個爆款級人工智能應用ChatGPT最不擅長的就是做數(shù)學題,因為數(shù)學題的解題步驟和方法通常需要基于因果關系的邏輯推理,而GPT模型在生成文本時只是一種概率判斷,你變著法子問它同一個問題,它可能有十種不同的答案,這顯然不是數(shù)學的思維。

結果,還是概率戰(zhàn)勝了邏輯推理,相關性戰(zhàn)勝了因果性。

事實上,人類也是擅長概率判斷的,只不過,我們通常稱之為“經(jīng)驗”。

5/6 人類也會貝葉斯計算

如果你是一個非常有經(jīng)驗的售貨員,面對一位走進店鋪的客戶,你要時刻不停地根據(jù)客戶的舉動,判斷客戶的成交概率,才能決定花多長時間去向客戶推銷,有經(jīng)驗的銷售員從不會干巴巴地介紹產品,而是進一步詢問客戶的需求,選相應的推銷重點,并且決定給出多大的折扣把客戶拿下。

你判斷客戶成交概率的過程,與人工智能猜下一個單詞的貝葉斯算法,其實是一回事。

想象一下,一位中年男性走進你的店,你首先根據(jù)經(jīng)驗知道,所有進店的中年男性,有20%會買東西——這就是貝葉斯算法中的“先驗概率”。

你觀察到,他在店里看了一圈,超過10分鐘以上,此時你開始把成交概率修正到29%,并開始主動詢問。

你是如何修正成交概率的呢?實際上就是貝葉斯計算:

以往的經(jīng)驗告訴你一個條件概率:在所有最終買東西的人中,停留超過10分鐘以上的占50%;那些最終沒有買東西的人中,停留超過10分鐘以上的,僅占30%。

根據(jù)貝葉斯算法:此人成交概率為:20%*50%/(20%*50%+80%*30%)=29.4%(不知道怎么計算的,可以看我的文章《職場戀情成功的概率有多大?這個算法告訴》)

根據(jù)貝葉斯算法:此人成交概率為:20%*50%/(20%*50%+80%*30%)=29.4%

接下來,客戶開始咨詢,根據(jù)咨詢這個行為對應的條件概率,這個成交概率猛得上升到60%;

可此時,他接到了一個電話,不好,歷史證明這種情況下的成交概率會下降,于是降到了50%;

還好,這是一個垃圾電話,他掛掉電話,直接開始談價格,很好,根據(jù)談價格的行為,最終成交概率又上升到85%……

在這個過程中,雖然一開始你只有一個與實際結果相差很大的先驗概率,但通過掌握更多的信息,這個概率會越來越接近實際情況——0或100%,你就可以作出應對。

這些條件概率,都是在以往大量的銷售實踐中,漸漸總結出來的,并且始終不斷更新,比如今天的這個中年男人,在85%的成交概率下,最后竟然沒有買,這個經(jīng)驗就會改變你前面的那些先驗概率和后面的一系列條件概率。

所謂“有經(jīng)驗”,就是在某個專業(yè)方向,掌握了大量的條件概率。

很多人可能會說,可我根本不知道條件概率是什么,也不知道怎么進行貝葉斯計算,我只是憑感覺罷了。

那么,這個感覺又是什么呢?

6/6 人腦,也是一套特殊的算法模型

人類的學習方式中有一類特殊的隱藏學習,學習者并不知道自己在學習,也沒有人教,也不知道自己什么時候學會了,就算學會了,也無法總結其中的一些規(guī)律。

心理學家稱之為“內隱式學習”,最經(jīng)常被引用的例子是“母語學習”。母語學習都是在上學之前完成的,幾乎沒有正式的學習過程,習得后,也無法總結語言的一般規(guī)律。

這就是前面所說的“感覺”的來源,實際上就是大量的貝葉斯計算。

人際關系、情感關系處理的學習,育兒與親子關系的學習,欣賞品位的提升,等等,一切規(guī)則模糊領域的學習,都至少有一部分需要內隱式學習。

我們在上學前的學習方法,基本上是內隱式學習,上學后就變成了主動式學習,工作之后,內隱式學習的重要性又開始漸漸提升。

人到底是如何進行“內隱式學習”的呢?不知道,因為人腦是一個黑箱。

就像GPT的人工智能訓練過程,也是一個黑箱,都說它突然間就“涌現(xiàn)”了,就像兒童有一天忽然開口說話了、站起來走路了,其中到底發(fā)生了什么,沒有人知道。

人腦,也是一套特殊的算法模型,跟人工智能沒有本質的區(qū)別,只是復雜得多——黑箱設計出的黑箱,難怪馬斯克會擔心,不知道它在無數(shù)次迭代后,會出現(xiàn)什么。

當然,關于人腦與人工智能在認知上的區(qū)別,還有人提出一些標準,比如情感、自我意識、還有頓悟時刻,這些我以后有機會再分析。

 
免責聲明:
本站所提供的文章資訊、圖片、音頻、視頻來源于互聯(lián)網(wǎng)及公開渠道,僅供學習參考,版權歸原創(chuàng)者所有! 如有侵犯您的版權,請通知我們,我們會遵循相關法律法規(guī)采取措施刪除相關內容。


 
[ 技術前沿搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 關閉窗口 ]

 
 
 
一周資訊排行
圖文推薦