Skip to content

股價跌去四分之三的Meta,元宇宙的故事才剛剛開始

在各種 AI 新聞滿天飛的 2023 年,大家還記得大明湖畔的元宇宙嗎?

至少從大夥們討論度上來看。。。是有點涼透了的意思。

最近一次上熱搜,也隻剩林俊傑元宇宙血虧 90% 這類的被套牢新聞。

792

而其中,曾扯著嗓子高調梭哈,甚至不惜押上了姓名的 Meta ,更成了大夥們的笑料。

先是去年 10 月份股價一度較最高點跌去 75% 。

而後今年在其他科技大廠大模型滿天飛, AI 發布會都快開了一輪的情況下。

這個 Meta ,好像除了裁員,還是裁員。

793

“ 呦 ~ 紮哥你是不是因為搞元宇宙又裁員了。 ”

“ 隨後什麽降本增效啊,為社會輸送人才啊,一句句冒了出來,到處充滿了歡聲笑語。 ”

就連隔壁部門的同事,都玩著類似的梗。。。並問著差評君,Meta 在AI 時代咋掉隊了?他們還元得下去不?

不過,笑歸笑,鬧歸鬧,咱還真別拿 Meta 的人工智能開玩笑。

差評君在這兒,直接給大家先省個流,那就是 Meta 在 AI 領域,還真不是大家眼中的軟蛋。

並且給個暴論啊( 不構成投資建議),他們離自己的元宇宙目標可能還更近了。

這麽說吧,雖然 Meta 官方在大模型的聲量和宣傳上,確實沒別家高,但 Meta
的人工智能技術,在世界範圍內,還真沒有誰能說它不行。

798

深度學習框架這個東西大家曉得伐?

這個東西是用來方便開發訓練深度學習模型的,相當於 AI 界的操作係統。

在 17 、 18 年這會兒,市場上占據最多使用率的,還是人穀歌大名鼎鼎的 TensorFlow 。

這個時候的 TensorFlow 可以說是眼中毫無對手,畢竟 15
年發家,大量人力維護更新,自開源後就把市場上的其它深度學習框架擠得沒有生存空間了。

801

可沒想到,穀歌這好日子過了還沒多久,半路突然殺出來一個程咬金, Pytorch 發布了,這個由當時還叫 Facebook
的公司主導開發的深度學習框架,從易用性著手,自發布之後,用戶一路走高。

並在 19 年逆襲穀歌,成為目前最受歡迎的深度學習框架。

803

但好漢總不能隻提當年勇,如今大火大語言模型,Meta 其實也不拉,隻是人家沒有專門開發布會發布而已。

它們家的大語言模型 LLaMA ,也就是羊駝( 或者翻譯成:草泥馬 ),在圈兒內的名聲,完全不輸 GPT 。

807

本來呢,這個模型是隻釋放給一些科研機構用作研究用的,結果,不知道哪個小崽子,腦子一熱,就給公開到網上去了。

好家夥,不公開不要緊,這一公開,各種各樣複刻 ChatGPT 的項目就來了。

什麽斯坦福的羊駝隻要 100 美元就能比肩 GPT3.5 啊。。。

又是什麽 UC 伯克利的 “ 小羊駝 ”130 億參數平替 ChatGPT 啊。

809

感覺是個人就能出大語言模型的樣子。。。

而且,據他們測試,這個 LLaMA 在很多項的能力比拚下,是優於 GPT-3 的。。。

812

到現在,這個模型已經在各大機構大佬的努力勞作下,開枝散葉,誕生了一批 “ 羊駝家族 ” 了。。。

甚至可以說現在的學術圈和開源社區,已經是一隻隻草泥馬的形狀了。

813

在另一個人工智能領域, CV ( 計算機視覺 )圈, Meta 的動靜可就更大了。

4 月 5 號, Meta 就發布了一個用於圖像分割的 AI 大模型:Segment Anything Model 。

817

就和它的名字一樣,這個模型可以識別圖像和視頻中的物體,並且一鍵剪切任何圖像中的任何對象。

在官網的演示中,比如這張男子打籃球的圖片,隻需要給圖片中的物體標一個點,就能自動切割出咱們想要的主體。

821

甚至,如果有一些圖片過於複雜,你自己都懶得去點標記的話,你還可以把分割的任務全權交給 SAM ,直接點擊 Everthing
,它就自動幫你把圖片中的可分割物體切割出來。

整個過程方便簡單快捷。

826

所以,這個模型一經推出,眾多 CV 界師生紛紛大喊:CV 不存在了。

原因就是他把現在 CV 比較熱門的方向,比如目標檢測,圖像分類,物體分割等等,差不多都解決得很好了。

英偉達的人工智能科學家 Jim Fan ,甚至還把 SAM 的出現比喻成 CV 界的 “GPT-3 時刻 ” ,可見各位業內人士對
SAM 的認可了。

831

但,這還不是結束,僅僅就在幾天前。

咱們的紮哥又親自通過臉書,宣布開源了另一個重磅模型, DINO V2 。

同樣的也是 CV 方向,但這個 DINO V2 可不僅僅隻能對圖像進行識別、分類、分割了。

它還能通過一張二維的圖片,去估計場景的三維深度,比如下圖右邊的灰度圖,就是通過左邊的場景估算生成的。

833

深度圖記錄了整個場景的深度信息,有了這個深度信息,你甚至能從一張平麵的圖像中,建模出一個 3 維的場景。

另外, DINO V2 的圖像特征提取功能 + 語義分割,更是把以圖搜圖的能力抬到了另外一個台階。

以往的以圖搜圖,隻能搜索相似的畫麵。

但是加上了特征提取和語義分割之後,你不僅能搜索到相似的圖片,還能以單個圖像特征為條件,搜索不同風格的圖片。

837

隻要是 CV 類的任務,這個 DINO V2 基本都能作為任務的主幹去完成。

而且,從官方提供的四個預訓練模型來看,這四個麵模型,參數最高的一個, ImageNet Linear 精度最大達到了 86.5%

839

在之前,同領域表現最好的 OpenClip ,其所預訓練出來的模型,表現最好的精度也隻有 80.1%

不管是 Pytorch 、 LLaMA 、 SAM ,還是 DINO V2 ,上麵的這些成果,其實大都來自 Meta 的兩個專攻 AI
的實驗室。

其中一個是 Facebook ’ s Artificial Intelligence Research ,簡稱 FAIR
,主攻研發,另一個則是 Applied Machine Learning ,主攻應用落地。

而且他們的研究基本全部開源, 在測試可用後,你都能在開源網站上找到項目的源碼。

所以說,Meta 不但沒有在 AI 時代掉隊,反而已經屬於靠前的梯隊。

845

那麽說了這麽多,它們和小紮一直掛在嘴邊的元宇宙,有啥毛線關係呢?

其實早在 16 年的開發者大會上,小紮就給出了在公司未來的發展方向上,給出了三步走的計劃。

第一步,先要連接世界,這個就是紮哥的老本行了,社交網絡。

第二步,以人工智能為核心,打造連接世界的技術核心,這也是它們從好幾年前一直做的事情。

而第三步的 VR 和 AR 嘛。。。要放到現在,翻譯翻譯,這還是元宇宙。。。

所以說發展 AI,早在小紮的小本本上。

849

咱們也回頭看看一下之前 Meta 那些無論是大模型、還是計算機視覺的開源項目,在某種程度上,其實都是在降低 AI 使用的門檻。

而 AI 的發展,又能推動元宇宙的建設。

可以細品一下幾天前,小紮在發布 DINO V2 時臉書上寫的這麽一句話:

“ 在未來,這可能有助於改善醫療成像、糧食作物生長,並有助於使元宇宙更加沉浸。 ”

854

說白了小紮在 “ 元宇宙 ” 的路上不僅沒自認折戟,反而可能更加自信了。

而隨著 AI 技術的持續發展,特別是 AIGC 的普及,各種AI建模,AI繪圖,AI音樂等工具的出現。。。

說不定真能讓元宇宙裏的內容越來越多,越來越逼真。

反正在使用過了不少大語言模型,被無數以假亂真的AI圖震撼過之後。。。。

元宇宙這個不久前還那麽縹緲的概念,在 AI 的助力下,好像也沒那麽的玄了。