Segment Anything Model(SAM)是Meta AI研究院最新推出的圖像分割模型,該模型通過點(diǎn)或框等輸入提示生成高質(zhì)量的物體遮罩,并且可以用于為圖像中的所有物體和對(duì)象生成遮罩。SAM模型在超過1100萬張圖像和11億張掩模的數(shù)據(jù)集上進(jìn)行了訓(xùn)練,并且在各種圖像分割任務(wù)上具有強(qiáng)大的零樣本性能。

??版權(quán)聲明:若無特殊聲明,本站所有文章版權(quán)均歸陸客資源網(wǎng)-AI工具集原創(chuàng)和所有,未經(jīng)許可,任何個(gè)人、媒體、網(wǎng)站、團(tuán)體不得轉(zhuǎn)載、抄襲或以其他方式復(fù)制發(fā)表本站內(nèi)容,或在非我站所屬的服務(wù)器上建立鏡像。否則,我站將依法保留追究相關(guān)法律責(zé)任的權(quán)利。