港科大版圖像分割AI“Semantic-SAM”來了 比Meta「分割一切AI」更全能
站長之家(ChinaZ.com)7月17日 消息:香港科技大學團隊開發出一款名為 Semantic-SAM 的圖像分割 AI 模型,相比 Meta 的 SAM 模型,Semantic-SAM 具有更強的粒度和語義功能。該模型能夠在不同粒度級別上分割和識別物體,并為分割出的實體提供語義標簽。
研究團隊通過聯合訓練 SA-1B 數據集、通用分割數據集和部件分割數據集,實現了多粒度分割任務和交互分割任務的優化。Semantic-SAM 基于 Mask DINO 框架進行開發,其模型結構主要改進在 decoder 部分,同時支持通用分割和交互式分割。
模型的訓練過程中,采用解耦的物體分類和部件分類方法,以學習物體和部件的語義信息。實驗結果表明,Semantic-SAM 在分割質量和粒度可控性方面優于 SAM 模型。總之,Semantic-SAM 是一款全面且強大的圖像分割 AI 模型。
論文地址:https://arxiv.org/abs/2307.04767
代碼地址:https://github.com/UX-Decoder/Semantic-SAM