Meta 宣稱,LLaMA 規(guī)模僅為競爭對手 ChatGPT 的“十分之一”,但性能卻優(yōu)于 OpenAI 的 GPT-3模型。
日前,Meta 方面宣布加入微軟、谷歌等公司在 AI 領(lǐng)域的市場競賽,將正式推出一種針對研究人員、基于人工智能的新型大型語言模型 “LLaMA”(Large Language Model Meta AI)。
Meta 宣稱,LLaMA 規(guī)模僅為競爭對手 人工智能 的“十分之一”,但性能卻優(yōu)于 OpenAI 的 GPT-3模型。
根據(jù)Meta官網(wǎng)發(fā)布的論文,LLaMA目前包含70億、130億、330億和650億這4種參數(shù)規(guī)模的模型。其中,參數(shù)規(guī)模最小的LLaMA7B也經(jīng)過了超1萬億個(gè)tokens的訓(xùn)練。Meta表示,在大多數(shù)基準(zhǔn)測試中,參數(shù)僅為十分之一的LLaMA-13B的性能優(yōu)于OpenAI推出的GPT3(175B),也即支持人工智能的GPT3.5的前身。LLaMA-65B也可與業(yè)內(nèi)領(lǐng)先的Chinchilla-70B和PaLM-540B競爭。
近日,國外匿名論壇4chan 泄露了 LLaMA 成品庫,并且種子文件被合并到了Meta Research的 GitHub 上,同時(shí)一些項(xiàng)目維護(hù)者給予了批準(zhǔn),目前該項(xiàng)目在 GitHub 已收獲7k+ 個(gè)星。
有網(wǎng)友猜測:“也許這是 Meta 故意泄露的,以對抗 OpenAI。一些客戶認(rèn)為這是一個(gè)更好的模型,它恰好擊中了他們以每年25萬美元的價(jià)格出售訪問權(quán)的商業(yè)計(jì)劃的核心。訪問他們的服務(wù)一個(gè)月可以購買一臺能夠運(yùn)行這種泄露模型的機(jī)器。Facebook 削弱了一個(gè)潛在的新貴競爭對手,以保持當(dāng)前的大型科技卡特爾穩(wěn)定。也許這有點(diǎn)陰謀論,但我們生活在大科技和大陰謀的時(shí)代?!?/p>
目前,Meta 方面暫未對此事做出回應(yīng)。
本文由小編網(wǎng)絡(luò)轉(zhuǎn)載而成,原文來源:http://www.techweb.com.cn/it/2023-03-06/2921698.shtml,如有侵權(quán),請聯(lián)系刪除
日前,Meta 方面宣布加入微軟、谷歌等公司在 AI 領(lǐng)域的市場競賽,將正式推出一種針對研究人員、基于人工智能的新型大型語言模型 “LLaMA”(Large Language Model Meta AI)。
Meta 宣稱,LLaMA 規(guī)模僅為競爭對手 人工智能 的“十分之一”,但性能卻優(yōu)于 OpenAI 的 GPT-3模型。
根據(jù)Meta官網(wǎng)發(fā)布的論文,LLaMA目前包含70億、130億、330億和650億這4種參數(shù)規(guī)模的模型。其中,參數(shù)規(guī)模最小的LLaMA7B也經(jīng)過了超1萬億個(gè)tokens的訓(xùn)練。Meta表示,在大多數(shù)基準(zhǔn)測試中,參數(shù)僅為十分之一的LLaMA-13B的性能優(yōu)于OpenAI推出的GPT3(175B),也即支持人工智能的GPT3.5的前身。LLaMA-65B也可與業(yè)內(nèi)領(lǐng)先的Chinchilla-70B和PaLM-540B競爭。
近日,國外匿名論壇4chan 泄露了 LLaMA 成品庫,并且種子文件被合并到了Meta Research的 GitHub 上,同時(shí)一些項(xiàng)目維護(hù)者給予了批準(zhǔn),目前該項(xiàng)目在 GitHub 已收獲7k+ 個(gè)星。
有網(wǎng)友猜測:“也許這是 Meta 故意泄露的,以對抗 OpenAI。一些客戶認(rèn)為這是一個(gè)更好的模型,它恰好擊中了他們以每年25萬美元的價(jià)格出售訪問權(quán)的商業(yè)計(jì)劃的核心。訪問他們的服務(wù)一個(gè)月可以購買一臺能夠運(yùn)行這種泄露模型的機(jī)器。Facebook 削弱了一個(gè)潛在的新貴競爭對手,以保持當(dāng)前的大型科技卡特爾穩(wěn)定。也許這有點(diǎn)陰謀論,但我們生活在大科技和大陰謀的時(shí)代?!?/p>
目前,Meta 方面暫未對此事做出回應(yīng)。
本文由小編網(wǎng)絡(luò)轉(zhuǎn)載而成,原文來源:http://www.techweb.com.cn/it/2023-03-06/2921698.shtml,如有侵權(quán),請聯(lián)系刪除
日前,Meta 方面宣布加入微軟、谷歌等公司在 AI 領(lǐng)域的市場競賽,將正式推出一種針對研究人員、基于人工智能的新型大型語言模型 “LLaMA”(Large Language Model Meta AI)。
Meta 宣稱,LLaMA 規(guī)模僅為競爭對手 人工智能 的“十分之一”,但性能卻優(yōu)于 OpenAI 的 GPT-3模型。
根據(jù)Meta官網(wǎng)發(fā)布的論文,LLaMA目前包含70億、130億、330億和650億這4種參數(shù)規(guī)模的模型。其中,參數(shù)規(guī)模最小的LLaMA7B也經(jīng)過了超1萬億個(gè)tokens的訓(xùn)練。Meta表示,在大多數(shù)基準(zhǔn)測試中,參數(shù)僅為十分之一的LLaMA-13B的性能優(yōu)于OpenAI推出的GPT3(175B),也即支持人工智能的GPT3.5的前身。LLaMA-65B也可與業(yè)內(nèi)領(lǐng)先的Chinchilla-70B和PaLM-540B競爭。
近日,國外匿名論壇4chan 泄露了 LLaMA 成品庫,并且種子文件被合并到了Meta Research的 GitHub 上,同時(shí)一些項(xiàng)目維護(hù)者給予了批準(zhǔn),目前該項(xiàng)目在 GitHub 已收獲7k+ 個(gè)星。
有網(wǎng)友猜測:“也許這是 Meta 故意泄露的,以對抗 OpenAI。一些客戶認(rèn)為這是一個(gè)更好的模型,它恰好擊中了他們以每年25萬美元的價(jià)格出售訪問權(quán)的商業(yè)計(jì)劃的核心。訪問他們的服務(wù)一個(gè)月可以購買一臺能夠運(yùn)行這種泄露模型的機(jī)器。Facebook 削弱了一個(gè)潛在的新貴競爭對手,以保持當(dāng)前的大型科技卡特爾穩(wěn)定。也許這有點(diǎn)陰謀論,但我們生活在大科技和大陰謀的時(shí)代?!?/p>
目前,Meta 方面暫未對此事做出回應(yīng)。
本文由小編網(wǎng)絡(luò)轉(zhuǎn)載而成,原文來源:http://www.techweb.com.cn/it/2023-03-06/2921698.shtml,如有侵權(quán),請聯(lián)系刪除
日前,Meta 方面宣布加入微軟、谷歌等公司在 AI 領(lǐng)域的市場競賽,將正式推出一種針對研究人員、基于人工智能的新型大型語言模型 “LLaMA”(Large Language Model Meta AI)。
Meta 宣稱,LLaMA 規(guī)模僅為競爭對手 人工智能 的“十分之一”,但性能卻優(yōu)于 OpenAI 的 GPT-3模型。
根據(jù)Meta官網(wǎng)發(fā)布的論文,LLaMA目前包含70億、130億、330億和650億這4種參數(shù)規(guī)模的模型。其中,參數(shù)規(guī)模最小的LLaMA7B也經(jīng)過了超1萬億個(gè)tokens的訓(xùn)練。Meta表示,在大多數(shù)基準(zhǔn)測試中,參數(shù)僅為十分之一的LLaMA-13B的性能優(yōu)于OpenAI推出的GPT3(175B),也即支持人工智能的GPT3.5的前身。LLaMA-65B也可與業(yè)內(nèi)領(lǐng)先的Chinchilla-70B和PaLM-540B競爭。
近日,國外匿名論壇4chan 泄露了 LLaMA 成品庫,并且種子文件被合并到了Meta Research的 GitHub 上,同時(shí)一些項(xiàng)目維護(hù)者給予了批準(zhǔn),目前該項(xiàng)目在 GitHub 已收獲7k+ 個(gè)星。
有網(wǎng)友猜測:“也許這是 Meta 故意泄露的,以對抗 OpenAI。一些客戶認(rèn)為這是一個(gè)更好的模型,它恰好擊中了他們以每年25萬美元的價(jià)格出售訪問權(quán)的商業(yè)計(jì)劃的核心。訪問他們的服務(wù)一個(gè)月可以購買一臺能夠運(yùn)行這種泄露模型的機(jī)器。Facebook 削弱了一個(gè)潛在的新貴競爭對手,以保持當(dāng)前的大型科技卡特爾穩(wěn)定。也許這有點(diǎn)陰謀論,但我們生活在大科技和大陰謀的時(shí)代?!?/p>
目前,Meta 方面暫未對此事做出回應(yīng)。
本文由小編網(wǎng)絡(luò)轉(zhuǎn)載而成,原文來源:http://www.techweb.com.cn/it/2023-03-06/2921698.shtml,如有侵權(quán),請聯(lián)系刪除
原創(chuàng)文章,作者:小編,如若轉(zhuǎn)載,請注明出處:http://xiesong.cn/124492.html