【環(huán)球網(wǎng)科技綜合報道】當行業(yè)還在卷大模型參數(shù)時,360已悄然在AI的“視力”上實現(xiàn)了降維打擊。其最新開源的FG-CLIP2模型,憑借對圖像細節(jié)的極致理解,在多項測試中超越谷歌、Meta同類產(chǎn)品,成為全球最強的視覺語言模型。
FG-CLIP2的核心突破在于解決了“細粒度識別”問題。這對于正處風口的具身智能和商業(yè)智能化至關重要。想象一下,家庭機器人能根據(jù)“拿起茶幾上屏幕有裂痕的手機”這樣的指令準確行動;安防系統(tǒng)能通過“尋找戴黑色鴨舌帽的可疑人員”瞬間鎖定目標。FG-CLIP2讓機器對世界的理解從“大概”變?yōu)椤熬_”,為真正的實用化AI奠定了基礎。
作為國內(nèi)較早布局人工智能的企業(yè),360依托搜索、瀏覽器等核心業(yè)務積累的百億級圖文數(shù)據(jù),以及自研的大規(guī)模高質量數(shù)據(jù)集FineHARD,深耕AI底層能力,持續(xù)推進中國構建自主可控的AI技術體系。(古雨)