亚洲精品成人福利网站,无码伊人66久久大杳蕉网站谷歌,亚洲变态另类天堂av手机版,性猛交富婆╳xxx乱大交小说,无码精品国产va在线观看dvd

媒體界 - 推動中國媒體行業(yè)創(chuàng)新,促進業(yè)內(nèi)人士交流分享!

谷歌Fluid挑戰(zhàn)新共識,AI文生圖自回歸模型力壓擴散模型?

   發(fā)布時間:2024-10-23 14:26 作者:顧青青

谷歌DeepMind團隊與麻省理工學院(MIT)合作推出了一款名為“Fluid”的新模型,該模型在文生圖領域取得了顯著成果。據(jù)科技媒體The Decoder報道,F(xiàn)luid模型在參數(shù)規(guī)模達到105億時,能夠生成最佳的圖像效果。

在文生圖領域,自回歸模型與擴散模型一直存在競爭。擴散模型通過迭代減少隨機噪聲來生成高質量數(shù)據(jù),而自回歸模型則依賴于序列中的前面元素來預測下一個元素。

Fluid模型之所以能夠在文生圖領域脫穎而出,關鍵在于其采用了連續(xù)tokens和隨機生成順序兩個創(chuàng)新設計。連續(xù)tokens能夠更精確地圖像信息存儲,減少信息丟失,而隨機生成順序則讓模型在每一步都能預測任意位置的多個像素,從而更好地理解整體圖像結構。

在重要基準測試中,F(xiàn)luid模型超越了Stable Diffusion 3擴散模型和谷歌此前的Parti自回歸模型。與Parti相比,F(xiàn)luid在參數(shù)規(guī)模遠小于Parti的情況下,仍能在MS-COCO上達到相同的FID分數(shù)。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容
本欄最新