尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️
全球最大規模人工智慧巨量模型不再是GPT-3,而是中國的「源1.0」,該AI模型已經把五年內所有中文互聯網上的內容都看了個遍。
9月28日,浪潮人工智慧研究院在北京發布「源1.0」,其單體模型參數量2457億,而曾經全球最大規模的AI巨量模型GPT-3(Generative Pre-Training,生成式預訓練)為1750億參數。一般情況下有一個普遍看法,即一個模型的參數越多,它能實現的任務就越龐雜。
這樣的巨量模型有一個很重要的特性,即強大的通用能力。浪潮人工智慧研究院首席研究員吳韶華表示,大模型最重要的優勢是表明進入了大規模可復制的工業落地階段,只需小樣本的學習也能達到比以前更好的能力,且模型參數規模越大這種優勢越明顯。不需要開發使用者再進行大規模的訓練,使用小樣本就可以訓練自己所需模型,能夠大大降低開發使用成本。
在算力層面,參數量為2457億的「源1.0」計算量為4095PD(PetaFlop/s-day),相較1750億參數而計算量為3640PD的GPT-3,「源1.0」的計算效率有了明顯提升。看完5年內的中文互聯網內容,「源1.0」只需要16天。
浪潮人工智慧研究院表示,「源1.0」將面向學術研究單位和產業實踐用戶進行開源、開放、共享,降低巨量模型研究和應用的門檻。
如何理解模型與機器學習之間的關係?
在最初對人工智慧的探索中有兩個迥然相異的思路:規則式(rule-based)方法和神經網路(neural network)方法。規則式人工智慧系統也稱專家系統(expert system),其思路本質是使用人類已有的經驗命名規則,「若A則B」。然而在非常龐雜的人類世界中,想以這樣的思路實現強人工智慧或者說通用人工智慧(具備與人類同等智慧,甚至超越人類)非常困難。
神經網路方法本質則在於模仿人腦結構,構建類似生物神經元網路的結構以處理資訊。它不會設定「若A則B」的規則,而是讓神經網路從輸入的數據中學習,發現規律。
著名人工智慧專家李開復在《AI·未來》一書中這樣解釋神經網路的運行邏輯:大量的樣本數據輸入系統,以「訓練」程序去辨別形態,計算機運算力則讓程序得以高速分析樣本數據。
全球最大規模人工智慧巨量模型不再是GPT-3,而是中國的「源1.0」,該AI模型已經把五年內所有中文互聯網上的內容都看了個遍。
9月28日,浪潮人工智慧研究院在北京發布「源1.0」,其單體模型參數量2457億,而曾經全球最大規模的AI巨量模型GPT-3(Generative Pre-Training,生成式預訓練)為1750億參數。一般情況下有一個普遍看法,即一個模型的參數越多,它能實現的任務就越龐雜。
這樣的巨量模型有一個很重要的特性,即強大的通用能力。浪潮人工智慧研究院首席研究員吳韶華表示,大模型最重要的優勢是表明進入了大規模可復制的工業落地階段,只需小樣本的學習也能達到比以前更好的能力,且模型參數規模越大這種優勢越明顯。不需要開發使用者再進行大規模的訓練,使用小樣本就可以訓練自己所需模型,能夠大大降低開發使用成本。
在算力層面,參數量為2457億的「源1.0」計算量為4095PD(PetaFlop/s-day),相較1750億參數而計算量為3640PD的GPT-3,「源1.0」的計算效率有了明顯提升。看完5年內的中文互聯網內容,「源1.0」只需要16天。
浪潮人工智慧研究院表示,「源1.0」將面向學術研究單位和產業實踐用戶進行開源、開放、共享,降低巨量模型研究和應用的門檻。
如何理解模型與機器學習之間的關係?
在最初對人工智慧的探索中有兩個迥然相異的思路:規則式(rule-based)方法和神經網路(neural network)方法。規則式人工智慧系統也稱專家系統(expert system),其思路本質是使用人類已有的經驗命名規則,「若A則B」。然而在非常龐雜的人類世界中,想以這樣的思路實現強人工智慧或者說通用人工智慧(具備與人類同等智慧,甚至超越人類)非常困難。
神經網路方法本質則在於模仿人腦結構,構建類似生物神經元網路的結構以處理資訊。它不會設定「若A則B」的規則,而是讓神經網路從輸入的數據中學習,發現規律。
著名人工智慧專家李開復在《AI·未來》一書中這樣解釋神經網路的運行邏輯:大量的樣本數據輸入系統,以「訓練」程序去辨別形態,計算機運算力則讓程序得以高速分析樣本數據。