亚洲av高清在线观看一区二区_天天添夭天啪天天谢_黄色三级毛片在线_国产AV无码片毛片一级久

對話復旦大學副教授鄭驍慶:當前AI仍是“高級別模仿”,離AGI還有一段距離

  每經(jīng)記者 宋欣悅????每經(jīng)編輯 高 涵????

  近日,“推遲”“質(zhì)疑”“未達預期”這類詞語頻繁出現(xiàn)在人工智能(AI)行業(yè)的討論和報道中。被眾人期待“炸場”的OpenAI連續(xù)12天的AI發(fā)布會細細品來也少了些“革命性”的味道,更像是在已有成果上的修修補補。

  此前,OpenAI的聯(lián)合創(chuàng)始人伊爾亞·蘇茨克維就曾在多個場合提到,AI的進步并不是線性的,未來幾年內(nèi),盡管有大量資金和研究投入,技術(shù)突破的速度可能會有所放緩。

  AI發(fā)展速度真的在放緩嗎?AI發(fā)展面臨著哪些挑戰(zhàn)?我們距離通用人工智能(AGI)還有多遠?針對這些熱點問題,《每日經(jīng)濟新聞》記者(以下簡稱NBD)專訪了復旦大學計算機學院副教授、博士生導師鄭驍慶。

  鄭驍慶認為,從速度來講,AI發(fā)展并沒有放緩,但目前AI發(fā)展面臨著三大核心挑戰(zhàn):AI“幻覺”現(xiàn)象、數(shù)據(jù)隱私、算力和能源效率。在他看來,當前的AI技術(shù)依然處于“高級別模仿”的階段,離真正的AGI還有一段距離。“AGI不僅需要在認知能力、學習能力等方面超越現(xiàn)有技術(shù),還需在情感理解和自主決策等領域有所突破?!?/p>

  AI發(fā)展并未減速,但仍面臨三大挑戰(zhàn)

  NBD:在您看來,近期AI的發(fā)展速度相比過去兩年,有怎樣的變化?

  鄭驍慶:我認為,人工智能的發(fā)展速度并沒有放緩。

  新一輪生成式人工智能的標志性工作,實際上就是OpenAI在2022年底推出的ChatGPT。這樣一個突破性的事件,距今僅有兩年左右的時間。在這段時間里,ChatGPT的成功使得整個學術(shù)界和產(chǎn)學界投入了大量的人力和物力來推動生成式人工智能的發(fā)展。

  不能說當前人工智能技術(shù)的發(fā)展變慢了,實際上,它仍在加速前進。當然,在發(fā)展的過程中,我們不可避免地會遇到一些問題和新的挑戰(zhàn),這些都是目前確實存在的。

  NBD:目前人工智能面臨哪些重大挑戰(zhàn)?

  鄭驍慶:因為我的研究工作重要集中在自然語言處理和機器學習方面,所以我從這個領域來談。

  首先,當前大型語言模型面臨的一個主要問題是“幻覺”現(xiàn)象,即模型可能會生成看似正確但實際上錯誤的信息。因為許多用戶并不具備鑒別信息真?zhèn)蔚哪芰?,所以很容易被這種“幻覺”影響。特別是在醫(yī)學、法律、金融等高風險應用領域中,存在一定風險。

  其次,大模型高度依賴大數(shù)據(jù)。實際上,包括OpenAI在內(nèi)的AI公司,在訓練模型時,也并未透露其使用了哪些數(shù)據(jù)。因為這些數(shù)據(jù)多多少少會涉及版權(quán)或個人隱私。這種問題不僅存在于模型的構(gòu)建和訓練過程中,在用戶在使用大模型時,也可能泄露個人信息。因此,數(shù)據(jù)的隱私問題是另一個重大挑戰(zhàn)。

  最后,AI大模型的算力消耗巨大,資源成本高昂。如何降低使用門檻,讓更多用戶特別是中小企業(yè)能夠負擔得起人工智能技術(shù),是我們需要思考的問題。在巨大的計算和能源消耗情況下,如何實現(xiàn)更高效、更節(jié)能的AI系統(tǒng),可能成為未來的發(fā)展方向。

  數(shù)據(jù)最小化:只取所需,不要貪多

  NBD:您認為有哪些關(guān)鍵技術(shù)可能會去解決或者緩解這些挑戰(zhàn)呢?

  鄭驍慶:要緩解“幻覺”問題,一種策略是“對齊”。目前,較為成熟的技術(shù)手段是利用強化學習來實現(xiàn)與人類偏好的對齊。在對齊人類偏好的過程中,一個核心標準是“誠實性”,即模型必須提供真實信息,而非胡編亂造。

  另外,“檢索增強生成”(RAG)也是一項關(guān)鍵技術(shù)。在提問時先提供相關(guān)的背景資料,模型會通過檢索這些資料來輔助生成答案,這樣可以在一定程度上提高生成答案的準確性和可信度,緩解單純依賴模型內(nèi)部知識庫可能產(chǎn)生的“幻覺”問題。

  還有一種技術(shù)是答案生成的后續(xù)驗證。模型生成答案后,我們可以利用其他模型對答案中的關(guān)鍵觀點和要素進行驗證,以確保正確性。

  對于數(shù)據(jù)隱私問題,高質(zhì)量的數(shù)據(jù)是高質(zhì)量應用的基礎,我認為企業(yè)需要找到創(chuàng)新與數(shù)據(jù)隱私之間的平衡點。首先,企業(yè)需要遵循數(shù)據(jù)最小化原則,只收集和使用與目標任務直接相關(guān)的最少量的數(shù)據(jù),只取所需,而不要貪多。

  其次,企業(yè)一定要做好數(shù)據(jù)的加密和脫敏處理。尤其是在AI應用中,模型的訓練數(shù)據(jù)如果沒有保護好,攻擊者可能通過模型推測出隱私信息,進而對企業(yè)和用戶帶來巨大的安全隱患。

  我們還可以考慮使用新技術(shù)來解決這個問題,比如聯(lián)邦學習,它允許多個數(shù)據(jù)擁有者各自貢獻出模型所需的訓練數(shù)據(jù),在數(shù)據(jù)聯(lián)邦的情況下完成模型的訓練,而不會泄露數(shù)據(jù)擁有者的數(shù)據(jù)。

  AI處于“高級別模仿”階段 不具備“小樣本學習”能力

  NBD:近日,OpenAI首席執(zhí)行官薩姆·阿爾特曼在接受媒體采訪時表示,預計通用人工智能(AGI)將在2025年到來。在您看來,我們離AGI近了嗎?

  鄭驍慶:阿爾特曼作為OpenAI的首席執(zhí)行官,從商業(yè)的角度來說,他對于AGI的實現(xiàn)可能會比較樂觀。但對于我們研究者來講,我持一定的保留意見。

  當前的AI技術(shù),實質(zhì)上仍是一種高級別的模仿,與人類的智能完全不一樣。人類的智能,舉個例子,我們從小就能流利地使用語言,并產(chǎn)生語言的新表達。但實際上,我們在成長過程中接觸到語言環(huán)境的數(shù)據(jù)量,遠遠小于當前人工智能模型接觸到的數(shù)據(jù)量。也就是說,人類大腦具有一種強大的小樣本學習能力,即僅憑少量樣本,就能泛化到未見過的情境,而這是目前模型無法做到的。

  目前,關(guān)于AGI還存在一個爭議:AGI是要做仿真(按照人腦思路來做),還是按照實用主義的思路來做?具體而言,仿真路徑主張在深入理解和模擬人腦機制的基礎上構(gòu)建人工智能系統(tǒng);而實用主義路徑則更加注重結(jié)果,認為只要人工智能系統(tǒng)的輸出效果與人類相當,就可以認為其具備智能。

  現(xiàn)在的發(fā)展主要是在走實用主義的道路,而這條發(fā)展路徑面臨的最大的問題在于,盡管AI在某些單一任務上可能表現(xiàn)非常優(yōu)異,但要從一個任務遷移到另一個任務,尤其是面對全新任務時,往往需要大量的新數(shù)據(jù)重新進行訓練。比如,我們教會AI文字表達,它的語音處理能力可能就不理想;而教會它語音,它的文字表達能力又可能受到影響。因此,在處理涉及多種數(shù)據(jù)形式(如文本、圖像、音頻)的跨模態(tài)任務時,AI的表現(xiàn)仍然不夠出色。

  人類智能完全不同,人類能夠依靠在其他任務中積累的經(jīng)驗,在新任務上同樣表現(xiàn)出色。即使面對未知的任務,人類也能規(guī)劃出探索和研究的路徑,從而順利完成任務。因此,我認為通用人工智能必須具備通用性和遷移性。這種通用性遷移性意味著,一旦AI在某個任務上學會某項技能或知識,它應該能夠?qū)⑵溥w移到各種不同類型的任務上。

  另外一個值得探討的概念是,元學習(Meta Learning)。之所以提及元學習,是因為當前AI,包括ChatGPT在內(nèi),存在一個顯著的問題:推理能力不足。元學習是一種更高層次的學習方法,它關(guān)注的是“學會如何學習”(learning to learn),而不僅僅是學習什么。

  翻譯

  搜索

  復制

轉(zhuǎn)載原創(chuàng)文章請注明,轉(zhuǎn)載自資陽天行健機車配件有限公司,原文地址:http://dreamscapesoftheperverse.com/post/27228.html

上一篇:剛剛,華泰聯(lián)合證券遭警示!

下一篇:機構(gòu):2024第三季度全球NAND閃存產(chǎn)業(yè)營收增長4.8%

評論

◎歡迎參與討論,請在這里發(fā)表您的看法、交流您的觀點。