久天啪天天久久99久久,在线a亚洲老鸭窝天堂新地址,国产成人精品无码一区二区老年人,高h黄暴np辣h调教性奴,欧美老熟妇乱子伦牲交视频

去年股價(jià)跌去四分之三的meta 元宇宙的故事才剛剛開(kāi)始 環(huán)球精選

來(lái)源:鳳凰網(wǎng) 發(fā)布:2023-04-23 09:25:24

在各種 AI 新聞滿天飛的 2023 年,大家還記得大明湖畔的元宇宙嗎?


(資料圖)

至少?gòu)拇蠡飩冇懻摱壬蟻?lái)看。。。是有點(diǎn)涼透了的意思。

最近一次上熱搜,也只剩林俊杰元宇宙血虧 90% 這類的被套牢新聞。

而其中,曾扯著嗓子高調(diào)梭哈,甚至不惜押上了姓名的 Meta ,更成了大伙們的笑料。

先是去年 10 月份股價(jià)一度較最高點(diǎn)跌去 75% 。

而后今年在其他科技大廠大模型滿天飛, AI 發(fā)布會(huì)都快開(kāi)了一輪的情況下。

這個(gè) Meta ,好像除了裁員,還是裁員。

“ 呦 ~ 扎哥你是不是因?yàn)楦阍钪嬗植脝T了。 ”

“ 隨后什么降本增效啊,為社會(huì)輸送人才啊,一句句冒了出來(lái),到處充滿了歡聲笑語(yǔ)。 ”

就連隔壁部門的同事,都玩著類似的梗。。。并問(wèn)著差評(píng)君,Meta 在AI 時(shí)代咋掉隊(duì)了?他們還元得下去不?

不過(guò),笑歸笑,鬧歸鬧,咱還真別拿 Meta 的人工智能開(kāi)玩笑。

差評(píng)君在這兒,直接給大家先省個(gè)流,那就是 Meta 在 AI 領(lǐng)域,還真不是大家眼中的軟蛋。

并且給個(gè)暴論?。?不構(gòu)成投資建議),他們離自己的元宇宙目標(biāo)可能還更近了。

這么說(shuō)吧,雖然 Meta 官方在大模型的聲量和宣傳上,確實(shí)沒(méi)別家高,但 Meta 的人工智能技術(shù),在世界范圍內(nèi),還真沒(méi)有誰(shuí)能說(shuō)它不行。

深度學(xué)習(xí)框架這個(gè)東西大家曉得伐?

這個(gè)東西是用來(lái)方便開(kāi)發(fā)訓(xùn)練深度學(xué)習(xí)模型的,相當(dāng)于 AI 界的操作系統(tǒng)。

在 17 、 18 年這會(huì)兒,市場(chǎng)上占據(jù)最多使用率的,還是人谷歌大名鼎鼎的 TensorFlow 。

這個(gè)時(shí)候的 TensorFlow 可以說(shuō)是眼中毫無(wú)對(duì)手,畢竟 15 年發(fā)家,大量人力維護(hù)更新,自開(kāi)源后就把市場(chǎng)上的其它深度學(xué)習(xí)框架擠得沒(méi)有生存空間了。

可沒(méi)想到,谷歌這好日子過(guò)了還沒(méi)多久,半路突然殺出來(lái)一個(gè)程咬金, Pytorch 發(fā)布了,這個(gè)由當(dāng)時(shí)還叫 Facebook 的公司主導(dǎo)開(kāi)發(fā)的深度學(xué)習(xí)框架,從易用性著手,自發(fā)布之后,用戶一路走高。

并在 19 年逆襲谷歌,成為目前最受歡迎的深度學(xué)習(xí)框架。

但好漢總不能只提當(dāng)年勇,如今大火大語(yǔ)言模型,Meta 其實(shí)也不,只是人家沒(méi)有專門開(kāi)發(fā)布會(huì)發(fā)布而已。

它們家的大語(yǔ)言模型 LLaMA ,也就是羊駝( 或者翻譯成:草泥馬 ),在圈兒內(nèi)的名聲,完全不輸 GPT 。

本來(lái)呢,這個(gè)模型是只釋放給一些科研機(jī)構(gòu)用作研究用的,結(jié)果,不知道哪個(gè)小崽子,腦子一熱,就給公開(kāi)到網(wǎng)上去了。

好家伙,不公開(kāi)不要緊,這一公開(kāi),各種各樣復(fù)刻 ChatGPT 的項(xiàng)目就來(lái)了。

什么斯坦福的羊駝只要 100 美元就能比肩 GPT3.5 啊。。。

又是什么 UC 伯克利的 “ 小羊駝 ”130 億參數(shù)平替 ChatGPT 啊。

感覺(jué)是個(gè)人就能出大語(yǔ)言模型的樣子。。。

而且,據(jù)他們測(cè)試,這個(gè) LLaMA 在很多項(xiàng)的能力比拼下,是優(yōu)于 GPT-3 的。。。

到現(xiàn)在,這個(gè)模型已經(jīng)在各大機(jī)構(gòu)大佬的努力勞作下,開(kāi)枝散葉,誕生了一批 “ 羊駝家族 ” 了。。。

甚至可以說(shuō)現(xiàn)在的學(xué)術(shù)圈和開(kāi)源社區(qū),已經(jīng)是一只只草泥馬的形狀了。

在另一個(gè)人工智能領(lǐng)域, CV ( 計(jì)算機(jī)視覺(jué) )圈, Meta 的動(dòng)靜可就更大了。

4 月 5 號(hào), Meta 就發(fā)布了一個(gè)用于圖像分割的 AI 大模型:Segment Anything Model 。

就和它的名字一樣,這個(gè)模型可以識(shí)別圖像和視頻中的物體,并且一鍵剪切任何圖像中的任何對(duì)象。

在官網(wǎng)的演示中,比如這張男子打籃球的圖片,只需要給圖片中的物體標(biāo)一個(gè)點(diǎn),就能自動(dòng)切割出咱們想要的主體。

甚至,如果有一些圖片過(guò)于復(fù)雜,你自己都懶得去點(diǎn)標(biāo)記的話,你還可以把分割的任務(wù)全權(quán)交給 SAM ,直接點(diǎn)擊 Everthing ,它就自動(dòng)幫你把圖片中的可分割物體切割出來(lái)。

整個(gè)過(guò)程方便簡(jiǎn)單快捷。

所以,這個(gè)模型一經(jīng)推出,眾多 CV 界師生紛紛大喊:CV 不存在了。

原因就是他把現(xiàn)在 CV 比較熱門的方向,比如目標(biāo)檢測(cè),圖像分類,物體分割等等,差不多都解決得很好了。

英偉達(dá)的人工智能科學(xué)家 Jim Fan ,甚至還把 SAM 的出現(xiàn)比喻成 CV 界的 “GPT-3 時(shí)刻 ” ,可見(jiàn)各位業(yè)內(nèi)人士對(duì) SAM 的認(rèn)可了。

但,這還不是結(jié)束,僅僅就在幾天前。

咱們的扎哥又親自通過(guò)臉書,宣布開(kāi)源了另一個(gè)重磅模型, DINO V2 。

同樣的也是 CV 方向,但這個(gè) DINO V2 可不僅僅只能對(duì)圖像進(jìn)行識(shí)別、分類、分割了。

它還能通過(guò)一張二維的圖片,去估計(jì)場(chǎng)景的三維深度,比如下圖右邊的灰度圖,就是通過(guò)左邊的場(chǎng)景估算生成的。

深度圖記錄了整個(gè)場(chǎng)景的深度信息,有了這個(gè)深度信息,你甚至能從一張平面的圖像中,建模出一個(gè) 3 維的場(chǎng)景。

另外, DINO V2 的圖像特征提取功能 + 語(yǔ)義分割,更是把以圖搜圖的能力抬到了另外一個(gè)臺(tái)階。

以往的以圖搜圖,只能搜索相似的畫面。

但是加上了特征提取和語(yǔ)義分割之后,你不僅能搜索到相似的圖片,還能以單個(gè)圖像特征為條件,搜索不同風(fēng)格的圖片。

只要是 CV 類的任務(wù),這個(gè) DINO V2 基本都能作為任務(wù)的主干去完成。

而且,從官方提供的四個(gè)預(yù)訓(xùn)練模型來(lái)看,這四個(gè)面模型,參數(shù)最高的一個(gè), ImageNet Linear 精度最大達(dá)到了 86.5% 。

在之前,同領(lǐng)域表現(xiàn)最好的 OpenClip ,其所預(yù)訓(xùn)練出來(lái)的模型,表現(xiàn)最好的精度也只有 80.1%

不管是 Pytorch 、 LLaMA 、 SAM ,還是 DINO V2 ,上面的這些成果,其實(shí)大都來(lái)自 Meta 的兩個(gè)專攻 AI 的實(shí)驗(yàn)室。

其中一個(gè)是 Facebook ’ s Artificial Intelligence Research ,簡(jiǎn)稱 FAIR ,主攻研發(fā),另一個(gè)則是 Applied Machine Learning ,主攻應(yīng)用落地。

而且他們的研究基本全部開(kāi)源, 在測(cè)試可用后,你都能在開(kāi)源網(wǎng)站上找到項(xiàng)目的源碼。

所以說(shuō),Meta 不但沒(méi)有在 AI 時(shí)代掉隊(duì),反而已經(jīng)屬于靠前的梯隊(duì)。

那么說(shuō)了這么多,它們和小扎一直掛在嘴邊的元宇宙,有啥毛線關(guān)系呢?

其實(shí)早在 16 年的開(kāi)發(fā)者大會(huì)上,小扎就給出了在公司未來(lái)的發(fā)展方向上,給出了三步走的計(jì)劃。

第一步,先要連接世界,這個(gè)就是扎哥的老本行了,社交網(wǎng)絡(luò)。

第二步,以人工智能為核心,打造連接世界的技術(shù)核心,這也是它們從好幾年前一直做的事情。

而第三步的 VR 和 AR 嘛。。。要放到現(xiàn)在,翻譯翻譯,這還是元宇宙。。。

所以說(shuō)發(fā)展 AI,早在小扎的小本本上。

咱們也回頭看看一下之前 Meta 那些無(wú)論是大模型、還是計(jì)算機(jī)視覺(jué)的開(kāi)源項(xiàng)目,在某種程度上,其實(shí)都是在降低 AI 使用的門檻。

而 AI 的發(fā)展,又能推動(dòng)元宇宙的建設(shè)。

可以細(xì)品一下幾天前,小扎在發(fā)布 DINO V2 時(shí)臉書上寫的這么一句話:

“ 在未來(lái),這可能有助于改善醫(yī)療成像、糧食作物生長(zhǎng),并有助于使元宇宙更加沉浸。 ”

說(shuō)白了小扎在 “ 元宇宙 ” 的路上不僅沒(méi)自認(rèn)折戟,反而可能更加自信了。

而隨著 AI 技術(shù)的持續(xù)發(fā)展,特別是 AIGC 的普及,各種AI建模,AI繪圖,AI音樂(lè)等工具的出現(xiàn)。。。

說(shuō)不定真能讓元宇宙里的內(nèi)容越來(lái)越多,越來(lái)越逼真。

反正在使用過(guò)了不少大語(yǔ)言模型,被無(wú)數(shù)以假亂真的AI圖震撼過(guò)之后。。。。

元宇宙這個(gè)不久前還那么縹緲的概念,在 AI 的助力下,好像也沒(méi)那么的玄了。

撰文:晚上吃早飯編輯:江江封面:萱萱

關(guān)鍵詞:
相關(guān)新聞