“我們從未與通用人工智能如此接近”,復旦黃萱菁解析ChatGPT |
發布時間:2023-03-14 文章來源:本站 瀏覽次數:2236 |
“我們歷來沒有覺得本人與通用人工智能如此接近,這是我從事人工智能研討這么多年以來興奮的時期,”在昨晚舉行的復旦科創先鋒論壇上,復旦大學計算機學院教授、博士生導師黃萱菁如此形容ChatGPT橫空出世后她的心情。作為國內早從事人工智能、自然言語處置和信息檢索的學者之一,她做出的判別是:AI可能會像工業反動和信息反動一樣,引領我們走向下一個時期。 活動現場,黃萱菁發表了主題為“邁向大范圍言語模型”的演講,她從言語模型的定義開端娓娓道來:“言語模型就是言語的規律。首先是語法,我們無論學習漢語還是英語等言語,都是從語法開端學起,但是光有語法,我們仍然很難捕捉客觀世界紛繁復雜的言語現象,由于言語并不會嚴厲依照語法去表達。這個時分,我們就需求運用到數學‘武器’——概率,在各種言語現象中間去尋覓規律。假如經過對句子停止概率剖析,我們就能曉得什么是正確的辨認結果。這個概率模型就稱為言語模型。” 由于句子在諸多情形下可能包含宏大的詞匯量,招致傳統概率言語模型所需的計算資源爆炸式增長。所謂大范圍言語模型就是含有巨量參數,可以承受很長一段時間窗口的言語文字。2017年開端呈現了一個模型叫做Transformer,成為如今預鍛煉模型的基石,也是大范圍言語模型的基石。 據黃萱菁引見,傳統的預鍛煉模型有兩種思緒,第一種思緒是以BERT為例的了解模型,另一種思緒是以ChatGPT的前身GPT為代表的產生式模型。當然也有一些工作嘗試把了解模型和產生式模型分離起來。曾經很長一段時間了解式的模型被運用的比擬多,而產生式模型則需求更高的算力和更長的窗口,不斷到有了GPT-3之后,大家才曉得它如此之強悍,而ChatGPT還具有了很強的了解人類上下文的才能。 “我們生活在一個飛速變化的時期,每個禮拜都有新的模型發布,預鍛煉+微調的方式是前ChatGPT時期的范式,諸如Google、Open AI這樣的大廠商將本身開發的大模型開源,供下游應用者在這些模型上停止參數的微調,以獲得優良的表現。”她表示,當言語模型變得更大的時分,一方面廠商出于商業緣由逐步舍棄開源,另一方面用戶也缺乏足夠的計算資源運用大模型,“這樣的狀況之下,一個新的范式終橫空出世:應用大范圍言語模型的涌現才能。當模型的參數范圍還不太大的時分,你看不到它的強大,當到達某一個臨界值時,這個模型就會十分強大。” 記者理解到,作為ChatGPT背后的中心技術,大言語模型能夠展示出強大的學習才能。而現有研討標明,模型范圍和數據量越大,性能越好。當模型和數據范圍到達一定水平時,模型將取得涌現才能。 具有強大才能后,ChatGPT終究會給我們帶來哪些改動?微軟CEO薩提亞·納德拉承受媒體采訪時曾說,內燃機帶來了低價的動力,互聯網技術減少了信息傳送的本錢,而ChatGPT會讓信息的整合、轉譯、流通變得愈加低價。 在黃萱菁看來,ChatGPT能夠視作是人工智能的基座,就像“大腦”一樣,“在肉眼可見的將來,善用AI的人將和不用AI的人在工作效率上會產生宏大差距,因而我鼓舞大家多去運用和熟習與AI停止溝通。在將來一段時間內,ChatGPT還缺乏以完整替代某一個崗位,但將大大促進各個范疇的消費效率,我們希望AI是協助人類的工具,而不是取代人類的機器。” 她同時表示,“我們發現ChatGPT才能如今的強大性能都是在現有的機器學習框架下能夠解釋的,并沒有一些很玄的東西,我置信今年除了OpenAI,國內外會有很多機構,包括大學和企業等,在ChatGPT模型方面會有大的打破。” |