叫板ChatGPT AI作畫鼻祖Stability AI也推出大型語言模型

發表於 2023-04-23 13:40 作者: 元宇宙之心

或許每一次歷史潮流的开場,總是這么熙熙攘攘,年初被ChatGPT引爆的AI大型語言模型(LLM),又迎來一位重磅入局者——Stability AI。

4月19日,推出火爆AI繪畫賽道Stable Diffusion的开源模型的公司Stability AI,宣布“加入战局,叫板ChatGPT”,推出开源大語言模型StableLM。

在Stability AI公告大語言模型的網頁上,一只體現了Stable Diffusion XL作畫特點的綠鸚鵡先於語言大模型的介紹出現了,大語言模型的"Stable Diffusion”時刻或許就這樣不期而至。

對於大語言模型StableLM,網站介紹道:

目前StableLM的Alpha版本中擁有30億和70億參數。

已經可以從GitHub等开源平台上下載:https://github.com/stability-AI/stableLM/


Stability AI後續還將推出150億至650億參數的版本。

與Stable Diffusion類似,开發者可以在遵守協議的情況下,將這個模型用於商業或研究活動。

抨擊OpenAI不夠“open”的Stability AI,能穩定發揮,推出超越ChatGPT的大語言模型嗎?

大語言模型的“安卓時刻”

Stability AI成立於 2019 年,是生成式AI領域最知名的公司之一。

在ChatGPT“佔領”的大語言模型市場上,不少人期待着類似Stable Diffusion的开源模型能盡快出現。

大語言模型的"Stable Diffusion”時刻可能在十幾個小時前到來了。

AI軍備競賽的开啓可以追溯到去年7月,在Open AI的繪畫模型DALL- E2之後,Stability AI發布的模型圖像生成模型 Stable Diffusion,因其源代碼开源,且對公衆开放使用,在當時吸引了更多的注意力(使用 DALL-E2 需要申請,通過率很低)。

Stability AI把StableLM的發布比作了Stable Diffusion,這讓AI可以繼續服務所有人:

2022年,Stability AI推動了Stable Diffusion的公开發布,這是一款革命性的圖像模型,代表了透明、开放、可擴展的AI。

這次我們發布开源StableLM模型,想繼續讓所有人都能使用AI。

我們的StableLM模型可以生成文本和代碼,並將支持一系列下遊應用。

正如Stability AI的CEO Emad Mostaque所說,他們最新發布的LLM代表着Stability AI的初心“开源”:

現在每個人都可以在Hugging Face上測試驅動這個7B版本的聊天機器人。

Emad Mostaque認爲,LLM不應在大公司內部進行訓練,社區系統的开放性也至關重要,需要更多監督,巨頭控制流量算法的遊戲規則——是對人們的操縱。

Emad Mostaque 來源:Stability AI

因此,Stability AI在今年年初與Hugging Face等幾個初創公司一起資助了研究中心Eleuther AI,而StableLM便建立在Eleuther AI的开源模型上:

StableLM建立在我們與非營利性研究中心EleutherAI一起开源的早期語言模型基礎上,這些語言模型包括GPT-J、GPT-NeoX和Pythia等等。

此次大模型也是在The Pile开源的數據集上進行的訓練,該數據集結合了PubMed、StackExchange和維基百科等網站的的文本樣本,其規模是The Pile的三倍,包含1.5萬億個內容標記。

Stability AI表示,正式因爲這個豐富的數據集,盡管參數規模和GPT-3沒有可比性,但StableLM在交流和編程方面都展現了“驚人的高性能”(surprisingly high performance ):

盡管StableLM參數規模只有30億至70億(相比之下,GPT-3有1750億參數),但性能非常好,下面是例子:

在這個例子裏,StableLM回到了有關“對於從高中畢業的朋友你回說些什么?”以及“寫一封郵件”的請求。



在這個例子裏要求該模型寫一個“計算生命意義的C語言程序”,但該模型表示無法完成此項任務,但寫了一個計算生命長度的程序。



Mostaque在Twitter上表示,他相信StableLM及其訓練數據會隨着時間而變得更好,沒有人知道這個模型可以被優化到什么程度:

我知道現在還有很長的路要走,這只是一個开始。我認爲我們可以在接下來的3-6個月內讓該模型變得和Stable Diffusion一樣有用,而在接下來的幾年裏,發展將是驚人的。



OpenAI不夠Open,Stability AI夠穩嗎

前不久,馬斯克批評Open AI背離了开源、非盈利的初衷,這是Open AI一直以來面臨的爭議,也是Stability AI“暗戳戳”的諷刺OpenAI的要點。

盡管OpenAI不夠开放,但GPT-4無疑是當下最好用的大語言模型。而夠开放的Stability AI,其語言模型StableLM夠穩嗎。

要知道,目前StableLM的Alpha版本擁有30億和70億參數,而GPT-3.5模型的參數量爲2000億。

有網友稱,Stability AI並沒有在公告上說明StableLM當前的局限性。

該模型是否存在與其他模型一樣傾向於編造事實?是否會經常答非所問?

媒體分析認爲,該模型基於The Pile訓練,而The Pile數據集內存在大量不雅用語,因此對話過程可能會讓用戶不適。

還有網友表示,他嘗試在Hugging Face上測試這些模型,但每次都遇到“滿負荷”的問題,無法成功在前端上運行,這很可能與模型的大小及受歡迎的程度有關。

“大語言模型是否應該开源”也成了近期爭論的焦點。有研究人員認爲,類似StableLM等开源模型的發布,很可能被用於,發送釣魚信息或協助惡意軟件攻擊等不良目的。

但Stability AI認爲,开源模型的出現可以協助研究人員識別潛在風險,並制定一些列保護措施。

Stability AI的營收困境

更嚴重的問題是,Stability AI或許正面臨營收困境。

最近有媒體報道稱,Stability AI正在以驚人的速度燒錢,但卻沒有明確的盈利途徑。而且在競爭激烈的AI賽道,還面臨着一衆初創企業和科技巨頭的“圍剿”。

Meta此前發布开源大語言模型LLaMA,使得越來越多的公司有望在开源模型基礎上定制自己的大模型,人工智能也正在迎來“安卓時刻”。

Stability AI現在正在尋找新的高管人才,希望他能在惡劣的條件下給公司帶來收入,以解決當前“瘋狂燒錢、營收可憐”的窘況。

去年底,Stability AI 宣布融資1.01億美元,並稱Stable Diffusion已成爲當前可用性最高的开源模型。

據《福布斯》的數據,每天約有有1000萬人使用 Stable Diffusion——比使用 OpenAI 的 DALL-E 2 的人數還要多。同時,Stability AI還提供面向消費者的產品——DreamStudio, 目前擁有來100萬名注冊用戶。

但訓練模型所需的計算資源和成本讓Stability AI不得不探索新商業模式。Mostaque 曾在 Twitter 上回復一位用戶時說:

“實際上,我們模型使用了256個A100顯卡,總共15萬小時,所以按市場價格計算爲60 萬美元。”

Stability AI去年融到的1億美元至今已經“燒”掉大半。

還有一個不可忽略的事實是,其競爭對手Midjourney已經成爲互聯網上事實上的圖像生成模型的領跑者,甚至一定程度上擊敗了OpenAI的DALL-E。

當前,有消息稱,Stability AI正在謀求新一輪融資,希望能將公司的估值漲至40億美元。Stability AI能否扭轉局面,籌集到足夠的資金來維持局面,還有待觀察。

 來源:元宇宙之心

標題:叫板ChatGPT AI作畫鼻祖Stability AI也推出大型語言模型

地址:https://www.coinsdeep.com/article/12670.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

你可能還喜歡
熱門資訊