ChatGPT爆火出圈!是“金礦”還是“天坑”?
創(chuàng)作劇本、修改代碼、構(gòu)思小說......它在廣大網(wǎng)友的“鞭策”下不斷突破自我。ChatGPT為何如此智能?火爆出圈的背后有哪些隱憂?
整理/新媒體編輯 段大衛(wèi)
會寫詩歌,編代碼,能創(chuàng)作劇本,還可以幫你寫論文……似乎在一夜之間,周圍不少人都在討論一款名為ChatGPT的人工智能聊天程序。比起聊天機(jī)器人前輩們害怕“言多必失”,ChatGPT自信滿滿,它總能實(shí)現(xiàn)人類的各種訴求,并且表現(xiàn)欲十足。
從“人工智障”到“人工智能”,ChatGPT雖有時一本正經(jīng)胡說八道,但它對于人類語言的理解和處理已經(jīng)游刃有余。
? ? ?
“擬人化”的智能AI
ChatGPT,是一款聊天機(jī)器人模型。它可以與用戶進(jìn)行實(shí)時對話、回答大量問題。從國際關(guān)系、百科知識,到使用代碼設(shè)計程序,都難不倒它。
(來源:ChatGPT)
它甚至能夠完成包括但不限于寫代碼、寫小說、寫文案的各種任務(wù)。
(來源:ChatGPT)
也有網(wǎng)友預(yù)測:“或許我們每個人都將擁有自己的律師AI了,咨詢律師的費(fèi)用也會大大下降。接下來就是醫(yī)生AI、營養(yǎng)師AI……”
(來源:Twitter)
目前來看,ChatGPT的優(yōu)勢在于邏輯推理,這是算力與語料調(diào)教后的技術(shù)成果。但它的“認(rèn)知”建立在虛擬訓(xùn)練文本上,它的能力依賴于訓(xùn)練數(shù)據(jù)集中的統(tǒng)計規(guī)律,而它本身并不具備對復(fù)雜和抽象系統(tǒng)的理解能力。因此,ChatGPT所掌握的知識范圍是被限定了的,它無法預(yù)測未發(fā)生過的事,無法分清真實(shí)和虛構(gòu),也不能深入問題的細(xì)節(jié)、執(zhí)行標(biāo)準(zhǔn)的計算機(jī)算法,在部分領(lǐng)域還缺少知識的準(zhǔn)度。
ChatGPT研發(fā)團(tuán)隊(duì)曾表示,ChatGPT“可能偶爾產(chǎn)生不正確的信息”,以及“可能偶爾產(chǎn)生有害的指示或有偏見的內(nèi)容”。因此,用戶在使用這一聊天機(jī)器人時,需要時刻注意對它的回答進(jìn)行準(zhǔn)確性鑒定。
比如,一位網(wǎng)友就曾在說服它明白“27能被3整除”這個問題上廢了好大力氣。
(來源:ChatGPT)
但與此同時,它可以自證、認(rèn)錯的能力也讓人們感到震驚,有網(wǎng)友對此表示,“雖然有點(diǎn)數(shù)學(xué)上的小錯誤,但在整體語義識別和邏輯推演上,其成熟度堪稱恐怖。這一段討論,甚至比人人交流更清晰簡潔?!?/p>
? ? ?
是坦率還是“口無遮攔”?
人工智能聊天程序并不新鮮。比如,不少網(wǎng)絡(luò)平臺使用的人工智能客服。不過,很多人工智能客服帶給人的感受實(shí)在一言難盡,機(jī)械重復(fù)的話術(shù)、“禮貌”而毫無信息增量的反饋等,都讓人“想摔手機(jī)”。ChatGPT誕生及其給人留下的“驚艷”印象,未必是因?yàn)樗褂昧硕嗑哂型黄菩缘募夹g(shù),而是它搜集了更多的素材,因此能夠更加“聰明”地回答用戶的提問。
Open AI 公司在研發(fā)時還注重對Chat GPT道德水平的訓(xùn)練,根據(jù)預(yù)先設(shè)計的道德準(zhǔn)則,Chat GPT聊天機(jī)器人會對帶有惡意、暴力、犯罪等含義的提問和請求說“不”。
但當(dāng)人們給出一定條件后再進(jìn)行提問,Chat GPT的回答看起來“能文能武”。
(來源:ChatGPT)
從上個充滿“激進(jìn)性”的對話可以看出,ChatGPT的特征在于它可以和用戶進(jìn)行多輪對話,這也是之前的聊天機(jī)器人所辦不到的。
和常見的大數(shù)據(jù)模型一樣,ChatGPT同樣也是經(jīng)過“預(yù)訓(xùn)練+微調(diào)”的過程,但是OpenAI這次在數(shù)據(jù)收集上設(shè)置上有了細(xì)微的差別。
Open AI 公司官方稱,Chat GPT 采取了全新的訓(xùn)練方式 ——“從人類反饋中強(qiáng)化學(xué)習(xí)”(Reinforcement Learning from Human Feedback,RLHF)。
(來源:ChatGPT)
在訓(xùn)練原始模型的時候,人類訓(xùn)練師會扮演對話的雙方提供對話作為學(xué)習(xí)資料。而當(dāng)人類在扮演聊天機(jī)器人一方的時候,Open AI公司也會讓原始模型生成一些建議反過來幫助人類訓(xùn)練師更好地扮演聊天機(jī)器人,也就是說通過海量的數(shù)據(jù)訓(xùn)練讓 AI 學(xué)會“思考”。與此同時,人類訓(xùn)練師會對它的回答進(jìn)行排名和評級,然后將這些信息反饋到系統(tǒng)中,讓 Chat GPT 不斷進(jìn)行優(yōu)化學(xué)習(xí)。
ChatGPT其實(shí)并不能理解自己在說些什么,它也是通過學(xué)習(xí)海量的數(shù)據(jù)(文本或?qū)υ挘?,再對其中?shù)據(jù)出現(xiàn)的規(guī)律強(qiáng)行進(jìn)行擬合,從而在開放場景下做出預(yù)測,這樣就會根據(jù)問題得到一個通順的回答。
OpenAI也表示,ChatGPT有時會寫出貌似合理但不正確或荒謬的答案,或者過度使用一些詞句和特定表達(dá)。不過相比于之前的語言模型,ChatGPT確實(shí)有很大進(jìn)步。
(來源:Twitter)
不同于智能語音助手的傻瓜式回答,ChatGPT“上知天文,下知地理”,顯得格外“聰明”。難怪馬斯克也曾公開評價說:“我們離強(qiáng)大到危險的AI不遠(yuǎn)了?!?/p>
? ? ?
火爆出圈的背后也有隱憂
雖然幾年前人們已經(jīng)在談人工智能時代的到來,但當(dāng)ChatGPT如海嘯般迎面砸來時,學(xué)術(shù)界也對此提出應(yīng)對。目前來看,最主要的應(yīng)對措施就是政策封堵、禁止使用或限制性使用。
(來源:ChatGPT)
由于學(xué)校中已出現(xiàn)學(xué)生使用AI生成的內(nèi)容冒充個人作業(yè),而人工智能造成的剽竊行為在當(dāng)下的學(xué)術(shù)規(guī)則中很難得到證明,包括英國、法國、美國在內(nèi)的諸多教育部門均出臺政策,禁止在學(xué)校使用ChatGPT。1月27日,法國頂尖學(xué)府之一的巴黎政治學(xué)院宣布該校將禁止使用ChatGPT,“ChatGPT軟件正在向全世界的教育工作者和研究人員提出一個涉及欺詐和剽竊的嚴(yán)肅問題,”“在沒有透明參考的情況下,除特定課程目的外,學(xué)生不得使用該軟件制作任何書面作品或演示文稿?!?/p>
針對使用ChatGPT撰寫的學(xué)術(shù)論文,目前,多家知名學(xué)術(shù)期刊正在更新編輯規(guī)則?!犊茖W(xué)》明確禁止將ChatGPT列為合著者,且不允許在論文中使用ChatGPT所生產(chǎn)的文本。《自然》則表示,可以在論文中使用大型語言模型生成的文本,其中也包含ChatGPT,但不能將其列為論文合著者。
學(xué)術(shù)界外,ChatGPT的發(fā)展也讓人感到擔(dān)憂。在《福布斯》的專訪中,美國微軟公司聯(lián)合創(chuàng)始人比爾·蓋茨曾蓋茨表示,“人工智能是“2023年最熱門的話題”,并且有能力“改變就業(yè)市場”,但是,它可能會失控或走向錯誤的方向,這將引來大量爭議。”
對于AI與人類的相處關(guān)系,蓋茨對此回答說,“長期來看,正是人們所擔(dān)憂的失控問題。如果控制AI的人類將其帶上歧途怎么辦?萬一人類喪失控制權(quán)又怎么辦?這一定將引發(fā)爭論。AI將變得有爭議,它也將在一定程度上改變就業(yè)市場。這讓我們不禁思考,邊界在哪里?”
人工智能是一項(xiàng)重要的技術(shù),現(xiàn)在,它正在改變我們的日常生活,它已經(jīng)被廣泛應(yīng)用于各種行業(yè),從自動駕駛到金融服務(wù),從醫(yī)療診斷到營銷分析??偟膩碚f,人工智能發(fā)展歷程走了一條漫長而艱辛的道路,從最初的模擬人類智能行為到現(xiàn)在的廣泛應(yīng)用,它改變了我們的生活方式,也改變了未來的發(fā)展趨勢。但同時,也應(yīng)注意它給我們帶來的問題和挑戰(zhàn)。
(內(nèi)容綜合自新華網(wǎng)、光明網(wǎng)、澎湃新聞、每日經(jīng)濟(jì)新聞、正觀新聞等)