亚洲av成人精品日韩一区,97久久久精品综合88久久,玩弄japan白嫩少妇hd,亚洲av片不卡无码久久,玩弄人妻少妇500系列

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

UNet和UNet++:醫(yī)學(xué)影像經(jīng)典分割網(wǎng)絡(luò)對(duì)比

OpenCV學(xué)堂 ? 來(lái)源:AI公園 ? 作者:AI公園 ? 2022-04-25 10:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

在不同的任務(wù)上對(duì)比了UNet和UNet++以及使用不同的預(yù)訓(xùn)練編碼器的效果。

介紹

語(yǔ)義分割是計(jì)算機(jī)視覺(jué)的一個(gè)問(wèn)題,我們的任務(wù)是使用圖像作為輸入,為圖像中的每個(gè)像素分配一個(gè)類。在語(yǔ)義分割的情況下,我們不關(guān)心是否有同一個(gè)類的多個(gè)實(shí)例(對(duì)象),我們只是用它們的類別來(lái)標(biāo)記它們。有多種關(guān)于不同計(jì)算機(jī)視覺(jué)問(wèn)題的介紹課程,但用一張圖片可以總結(jié)不同的計(jì)算機(jī)視覺(jué)問(wèn)題:

5891bd82-c3e2-11ec-bce3-dac502259ad0.png

語(yǔ)義分割在生物醫(yī)學(xué)圖像分析中有著廣泛的應(yīng)用:x射線、MRI掃描、數(shù)字病理、顯微鏡、內(nèi)窺鏡等。https://grand-challenge.org/challenges上有許多不同的有趣和重要的問(wèn)題有待探索。

從技術(shù)角度來(lái)看,如果我們考慮語(yǔ)義分割問(wèn)題,對(duì)于N×M×3(假設(shè)我們有一個(gè)RGB圖像)的圖像,我們希望生成對(duì)應(yīng)的映射N×M×k(其中k是類的數(shù)量)。有很多架構(gòu)可以解決這個(gè)問(wèn)題,但在這里我想談?wù)剝蓚€(gè)特定的架構(gòu),Unet和Unet++。

有許多關(guān)于Unet的評(píng)論,它如何永遠(yuǎn)地改變了這個(gè)領(lǐng)域。它是一個(gè)統(tǒng)一的非常清晰的架構(gòu),由一個(gè)編碼器和一個(gè)解碼器組成,前者生成圖像的表示,后者使用該表示來(lái)構(gòu)建分割。每個(gè)空間分辨率的兩個(gè)映射連接在一起(灰色箭頭),因此可以將圖像的兩種不同表示組合在一起。并且它成功了!

58bd8a7a-c3e2-11ec-bce3-dac502259ad0.png

接下來(lái)是使用一個(gè)訓(xùn)練好的編碼器??紤]圖像分類的問(wèn)題,我們?cè)噲D建立一個(gè)圖像的特征表示,這樣不同的類在該特征空間可以被分開(kāi)。我們可以(幾乎)使用任何CNN,并將其作為一個(gè)編碼器,從編碼器中獲取特征,并將其提供給我們的解碼器。據(jù)我所知,Iglovikov & Shvets 使用了VGG11和resnet34分別為Unet解碼器以生成更好的特征和提高其性能。

58dcf5cc-c3e2-11ec-bce3-dac502259ad0.png

TernausNet (VGG11 Unet)

Unet++是最近對(duì)Unet體系結(jié)構(gòu)的改進(jìn),它有多個(gè)跳躍連接。

58f2818a-c3e2-11ec-bce3-dac502259ad0.png

根據(jù)論文, Unet++的表現(xiàn)似乎優(yōu)于原來(lái)的Unet。就像在Unet中一樣,這里可以使用多個(gè)編碼器(骨干)來(lái)為輸入圖像生成強(qiáng)特征。

我應(yīng)該使用哪個(gè)編碼器?

這里我想重點(diǎn)介紹Unet和Unet++,并比較它們使用不同的預(yù)訓(xùn)練編碼器的性能。為此,我選擇使用胸部x光數(shù)據(jù)集來(lái)分割肺部。這是一個(gè)二值分割,所以我們應(yīng)該給每個(gè)像素分配一個(gè)類為“1”的概率,然后我們可以二值化來(lái)制作一個(gè)掩碼。首先,讓我們看看數(shù)據(jù)。

5913b238-c3e2-11ec-bce3-dac502259ad0.png

來(lái)自胸片X光數(shù)據(jù)集的標(biāo)注數(shù)據(jù)的例子

這些是非常大的圖像,通常是2000×2000像素,有很大的mask,從視覺(jué)上看,找到肺不是問(wèn)題。使用segmentation_models_pytorch庫(kù),我們?yōu)閁net和Unet++使用100+個(gè)不同的預(yù)訓(xùn)練編碼器。我們做了一個(gè)快速的pipeline來(lái)訓(xùn)練模型,使用Catalyst (pytorch的另一個(gè)庫(kù),這可以幫助你訓(xùn)練模型,而不必編寫很多無(wú)聊的代碼)和Albumentations(幫助你應(yīng)用不同的圖像轉(zhuǎn)換)。

  1. 定義數(shù)據(jù)集和增強(qiáng)。我們將調(diào)整圖像大小為256×256,并對(duì)訓(xùn)練數(shù)據(jù)集應(yīng)用一些大的增強(qiáng)。
importalbumentationsasA
fromtorch.utils.dataimportDataset,DataLoader
fromcollectionsimportOrderedDict

classChestXRayDataset(Dataset):
def__init__(
self,
images,
masks,
transforms):
self.images=images
self.masks=masks
self.transforms=transforms

def__len__(self):
return(len(self.images))

def__getitem__(self,idx):
"""Willloadthemask,getrandomcoordinatesaround/withthemask,
loadtheimagebycoordinates
"""
sample_image=imread(self.images[idx])
iflen(sample_image.shape)==3:
sample_image=sample_image[...,0]
sample_image=np.expand_dims(sample_image,2)/255
sample_mask=imread(self.masks[idx])/255
iflen(sample_mask.shape)==3:
sample_mask=sample_mask[...,0]
augmented=self.transforms(image=sample_image,mask=sample_mask)
sample_image=augmented['image']
sample_mask=augmented['mask']
sample_image=sample_image.transpose(2,0,1)#channelsfirst
sample_mask=np.expand_dims(sample_mask,0)
data={'features':torch.from_numpy(sample_image.copy()).float(),
'mask':torch.from_numpy(sample_mask.copy()).float()}
return(data)

defget_valid_transforms(crop_size=256):
returnA.Compose(
[
A.Resize(crop_size,crop_size),
],
p=1.0)

deflight_training_transforms(crop_size=256):
returnA.Compose([
A.RandomResizedCrop(height=crop_size,width=crop_size),
A.OneOf(
[
A.Transpose(),
A.VerticalFlip(),
A.HorizontalFlip(),
A.RandomRotate90(),
A.NoOp()
],p=1.0),
])

defmedium_training_transforms(crop_size=256):
returnA.Compose([
A.RandomResizedCrop(height=crop_size,width=crop_size),
A.OneOf(
[
A.Transpose(),
A.VerticalFlip(),
A.HorizontalFlip(),
A.RandomRotate90(),
A.NoOp()
],p=1.0),
A.OneOf(
[
A.CoarseDropout(max_holes=16,max_height=16,max_width=16),
A.NoOp()
],p=1.0),
])


defheavy_training_transforms(crop_size=256):
returnA.Compose([
A.RandomResizedCrop(height=crop_size,width=crop_size),
A.OneOf(
[
A.Transpose(),
A.VerticalFlip(),
A.HorizontalFlip(),
A.RandomRotate90(),
A.NoOp()
],p=1.0),
A.ShiftScaleRotate(p=0.75),
A.OneOf(
[
A.CoarseDropout(max_holes=16,max_height=16,max_width=16),
A.NoOp()
],p=1.0),
])

defget_training_trasnforms(transforms_type):
iftransforms_type=='light':
return(light_training_transforms())
eliftransforms_type=='medium':
return(medium_training_transforms())
eliftransforms_type=='heavy':
return(heavy_training_transforms())
else:
raiseNotImplementedError("Notimplementedtransformationconfiguration")
  1. 定義模型和損失函數(shù)。這里我們使用帶有regnety_004編碼器的Unet++,并使用RAdam + Lookahed優(yōu)化器使用DICE + BCE損失之和進(jìn)行訓(xùn)練。
importtorch
importsegmentation_models_pytorchassmp
importnumpyasnp
importmatplotlib.pyplotasplt
fromcatalystimportdl,metrics,core,contrib,utils
importtorch.nnasnn
fromskimage.ioimportimread
importos
fromsklearn.model_selectionimporttrain_test_split
fromcatalyst.dlimportCriterionCallback,MetricAggregationCallback
encoder='timm-regnety_004'
model=smp.UnetPlusPlus(encoder,classes=1,in_channels=1)
#model.cuda()
learning_rate=5e-3
encoder_learning_rate=5e-3/10
layerwise_params={"encoder*":dict(lr=encoder_learning_rate,weight_decay=0.00003)}
model_params=utils.process_model_params(model,layerwise_params=layerwise_params)
base_optimizer=contrib.nn.RAdam(model_params,lr=learning_rate,weight_decay=0.0003)
optimizer=contrib.nn.Lookahead(base_optimizer)
scheduler=torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer,factor=0.25,patience=10)
criterion={
"dice":DiceLoss(mode='binary'),
"bce":nn.BCEWithLogitsLoss()
}
  1. 定義回調(diào)函數(shù)并訓(xùn)練!
callbacks=[
#Eachcriterioniscalculatedseparately.
CriterionCallback(
input_key="mask",
prefix="loss_dice",
criterion_key="dice"
),
CriterionCallback(
input_key="mask",
prefix="loss_bce",
criterion_key="bce"
),

#Andonlythenweaggregateeverythingintooneloss.
MetricAggregationCallback(
prefix="loss",
mode="weighted_sum",
metrics={
"loss_dice":1.0,
"loss_bce":0.8
},
),

#metrics
IoUMetricsCallback(
mode='binary',
input_key='mask',
)

]

runner=dl.SupervisedRunner(input_key="features",input_target_key="mask")
runner.train(
model=model,
criterion=criterion,
optimizer=optimizer,
scheduler=scheduler,
loaders=loaders,
callbacks=callbacks,
logdir='../logs/xray_test_log',
num_epochs=100,
main_metric="loss",
minimize_metric=True,
verbose=True,
)

如果我們用不同的編碼器對(duì)Unet和Unet++進(jìn)行驗(yàn)證,我們可以看到每個(gè)訓(xùn)練模型的驗(yàn)證質(zhì)量,并總結(jié)如下:

59583070-c3e2-11ec-bce3-dac502259ad0.png

Unet和Unet++驗(yàn)證集分?jǐn)?shù)

我們注意到的第一件事是,在所有編碼器中,Unet++的性能似乎都比Unet好。當(dāng)然,有時(shí)這種差異并不是很大,我們不能說(shuō)它們?cè)诮y(tǒng)計(jì)上是否完全不同 —— 我們需要在多個(gè)folds上訓(xùn)練,看看分?jǐn)?shù)分布,單點(diǎn)不能證明任何事情。第二,resnest200e顯示了最高的質(zhì)量,同時(shí)仍然有合理的參數(shù)數(shù)量。有趣的是,如果我們看看https://paperswithcode.com/task/semantic-segmentation,我們會(huì)發(fā)現(xiàn)resnest200在一些基準(zhǔn)測(cè)試中也是SOTA。

好的,但是讓我們用Unet++和Unet使用resnest200e編碼器來(lái)比較不同的預(yù)測(cè)。

597a5e7a-c3e2-11ec-bce3-dac502259ad0.png

Unet和Unet++使用resnest200e編碼器的預(yù)測(cè)。左圖顯示了兩種模型的預(yù)測(cè)差異

在某些個(gè)別情況下,Unet++實(shí)際上比Unet更糟糕。但總的來(lái)說(shuō)似乎更好一些。

一般來(lái)說(shuō),對(duì)于分割網(wǎng)絡(luò)來(lái)說(shuō),這個(gè)數(shù)據(jù)集看起來(lái)是一個(gè)容易的任務(wù)。讓我們?cè)谝粋€(gè)更難的任務(wù)上測(cè)試Unet++。為此,我使用PanNuke數(shù)據(jù)集,這是一個(gè)帶標(biāo)注的組織學(xué)數(shù)據(jù)集(205,343個(gè)標(biāo)記核,19種不同的組織類型,5個(gè)核類)。數(shù)據(jù)已經(jīng)被分割成3個(gè)folds。

59e83314-c3e2-11ec-bce3-dac502259ad0.png

PanNuke樣本的例子

我們可以使用類似的代碼在這個(gè)數(shù)據(jù)集上訓(xùn)練Unet++模型,如下所示:

5a230200-c3e2-11ec-bce3-dac502259ad0.png

驗(yàn)證集上的Unet++得分

我們?cè)谶@里看到了相同的模式 - resnest200e編碼器似乎比其他的性能更好。我們可以用兩個(gè)不同的模型(最好的是resnest200e編碼器,最差的是regnety_002)來(lái)可視化一些例子。

5a37ee2c-c3e2-11ec-bce3-dac502259ad0.png

resnest200e和regnety_002的預(yù)測(cè)

我們可以肯定地說(shuō),這個(gè)數(shù)據(jù)集是一項(xiàng)更難的任務(wù) —— 不僅mask不夠精確,而且個(gè)別的核被分配到錯(cuò)誤的類別。然而,使用resnest200e編碼器的Unet++仍然表現(xiàn)很好。

總結(jié)

這不是一個(gè)全面語(yǔ)義分割的指導(dǎo),這更多的是一個(gè)想法,使用什么來(lái)獲得一個(gè)堅(jiān)實(shí)的基線。有很多模型、FPN,DeepLabV3, Linknet與Unet有很大的不同,有許多Unet-like架構(gòu),例如,使用雙編碼器的Unet,MAnet,PraNet,U2-net — 有很多的型號(hào)供你選擇,其中一些可能在你的任務(wù)上表現(xiàn)的比較好,但是,一個(gè)堅(jiān)實(shí)的基線可以幫助你從正確的方向上開(kāi)始。

審核編輯 :李倩
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3796

    瀏覽量

    138014
  • 醫(yī)學(xué)影像
    +關(guān)注

    關(guān)注

    1

    文章

    112

    瀏覽量

    17592

原文標(biāo)題:UNet 和 UNet++:醫(yī)學(xué)影像經(jīng)典分割網(wǎng)絡(luò)對(duì)比

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】基于 DeepLab 模型的圖像分割

    :https://arxiv.org/pdf/1706.05587 應(yīng)用場(chǎng)景 自動(dòng)駕駛:用于道路、車輛、行人等目標(biāo)的精確分割。 醫(yī)學(xué)影像分析:用于腫瘤、器官等區(qū)域的分割。 衛(wèi)星圖像分析:用于土地覆蓋、建筑物
    發(fā)表于 06-21 21:11

    東軟集團(tuán)入選國(guó)家數(shù)據(jù)局?jǐn)?shù)據(jù)標(biāo)注優(yōu)秀案例

    近日,東軟飛標(biāo)醫(yī)學(xué)影像標(biāo)注平臺(tái)在國(guó)家數(shù)據(jù)局發(fā)布數(shù)據(jù)標(biāo)注優(yōu)秀案例集名單中排名第一(案例名稱“多模態(tài)醫(yī)學(xué)影像智能數(shù)據(jù)標(biāo)注平臺(tái)”)。評(píng)選專家認(rèn)為東軟案例取得了顯著成效,一方面,搶占了自主可控的數(shù)據(jù)標(biāo)注技術(shù)
    的頭像 發(fā)表于 05-09 14:37 ?462次閱讀

    RK3576 yolov11-seg訓(xùn)練部署教程

    級(jí)的精確目標(biāo)檢測(cè)與分割,適用于自動(dòng)駕駛、醫(yī)學(xué)影像、工業(yè)檢測(cè)等對(duì)精度和速度要求苛刻的場(chǎng)景。 ? ? ? ?本教程針對(duì)目標(biāo)分割算法yolov11 seg的訓(xùn)練和部署到EASY-EAI-Orin-nano(RK3576)進(jìn)行說(shuō)明,而
    的頭像 發(fā)表于 04-16 09:43 ?759次閱讀
    RK3576 yolov11-seg訓(xùn)練部署教程

    醫(yī)療設(shè)備工業(yè)成像采集卡:提升醫(yī)療影像診斷水平的關(guān)鍵組件

    依據(jù)。隨著醫(yī)學(xué)影像技術(shù)的不斷進(jìn)步,例如計(jì)算機(jī)斷層掃描(CT)、磁共振成像(MRI)、超聲成像(Ultrasound)以及內(nèi)窺鏡成像等,對(duì)成像采集卡的性能要求也越來(lái)越
    的頭像 發(fā)表于 03-19 15:55 ?309次閱讀
    醫(yī)療設(shè)備工業(yè)成像采集卡:提升醫(yī)療<b class='flag-5'>影像</b>診斷水平的關(guān)鍵組件

    無(wú)法在在DL Workbench中導(dǎo)入unet-camvid-onnx-0001模型之前下載CamVid數(shù)據(jù)集?

    無(wú)法在在 DL Workbench 中導(dǎo)入 unet-camvid-onnx-0001 模型之前下載 CamVid 數(shù)據(jù)集
    發(fā)表于 03-06 07:12

    中信建投報(bào)告泄密,AI硬件正在重塑醫(yī)療影像與IVD領(lǐng)域的未來(lái)

    《2025醫(yī)療科技趨勢(shì)報(bào)告》中預(yù)判的剛性需求。報(bào)告還指出,至2025年,醫(yī)學(xué)影像與體外診斷(IVD)領(lǐng)域?qū)⒂瓉?lái)AI應(yīng)用的深化期,其中AI硬件則會(huì)是推動(dòng)這一變革的關(guān)鍵
    的頭像 發(fā)表于 02-25 18:03 ?430次閱讀
    中信建投報(bào)告泄密,AI硬件正在重塑醫(yī)療<b class='flag-5'>影像</b>與IVD領(lǐng)域的未來(lái)

    三維測(cè)量在醫(yī)療領(lǐng)域的應(yīng)用

    三維測(cè)量在醫(yī)療領(lǐng)域的應(yīng)用十分廣泛,為醫(yī)療診斷、治療及手術(shù)規(guī)劃等提供了重要的技術(shù)支持。以下是對(duì)三維測(cè)量在醫(yī)療領(lǐng)域應(yīng)用的分析: 一、醫(yī)學(xué)影像的三維重建與分析 CT、MRI等影像的三維重建 : 三維測(cè)量
    的頭像 發(fā)表于 12-30 15:21 ?673次閱讀

    英特爾助力東軟PACS&amp;RIS賦能三維可視化與AI輔助診斷

    行軟件優(yōu)化,我們有效了提升了系統(tǒng)性能,在此基礎(chǔ)上,我們將以一體化、智能化、??苹癁槔砟?,以PACS/RIS產(chǎn)品能力為核心向外延伸,構(gòu)建智慧醫(yī)學(xué)影像解決方案。” 概 述 醫(yī)學(xué)影像不僅是臨床診斷的重要依據(jù)、醫(yī)學(xué)決策的重要指導(dǎo),同時(shí)也
    的頭像 發(fā)表于 12-07 10:45 ?1036次閱讀
    英特爾助力東軟PACS&amp;RIS賦能三維可視化與AI輔助診斷

    東軟發(fā)布新一代醫(yī)學(xué)影像解決方案

    近日,東軟全新發(fā)布新一代醫(yī)學(xué)影像解決方案,以智能化為核心,以數(shù)據(jù)引擎為驅(qū)動(dòng),面向未來(lái)醫(yī)學(xué)影像行業(yè)的發(fā)展需求,全新定義醫(yī)學(xué)影像的產(chǎn)品價(jià)值,推動(dòng)醫(yī)學(xué)影像信息化的全面升級(jí)與一體化融合。這是東
    的頭像 發(fā)表于 11-25 09:32 ?563次閱讀

    東軟醫(yī)療光子計(jì)數(shù)CT獲得革命性突破

    近日,由東軟集團(tuán)旗下的創(chuàng)新公司東軟醫(yī)療自主研發(fā)的國(guó)產(chǎn)光子計(jì)數(shù)CT獲得革命性突破,首幅人體影像成功出圖!這不僅是東軟醫(yī)療自主創(chuàng)新的再次突破,更是中國(guó)在超高端醫(yī)學(xué)影像設(shè)備領(lǐng)域具有里程碑意義的重大突破!
    的頭像 發(fā)表于 11-06 14:25 ?1146次閱讀

    Dell PowerScale數(shù)據(jù)湖助力醫(yī)研一體化建設(shè)

    近年來(lái),醫(yī)療影像設(shè)備不斷向更高水平和精密化發(fā)展,推動(dòng)醫(yī)療服務(wù)向更高更快的品質(zhì)發(fā)展?;?b class='flag-5'>醫(yī)學(xué)影像多學(xué)科會(huì)診的協(xié)作、智能輔助診斷、智能質(zhì)控、智能術(shù)前規(guī)劃,將快速推進(jìn)各項(xiàng)醫(yī)學(xué)科研成果進(jìn)行規(guī)范化的臨床應(yīng)用與轉(zhuǎn)化。
    的頭像 發(fā)表于 10-16 10:13 ?668次閱讀

    UNet模型屬于哪種神經(jīng)網(wǎng)絡(luò)

    U-Net模型屬于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)的一種特殊形式 。它最初由德國(guó)弗萊堡大學(xué)計(jì)算機(jī)科學(xué)系的研究人員在2015年提出,專為生物醫(yī)學(xué)圖像
    的頭像 發(fā)表于 07-24 10:59 ?5537次閱讀

    醫(yī)學(xué)影像存儲(chǔ)與傳輸系統(tǒng)源碼,PACS系統(tǒng)源碼

    ?醫(yī)學(xué)影像存儲(chǔ)與傳輸系統(tǒng)中,PACS部分主要提供醫(yī)學(xué)影像獲取、影像信息網(wǎng)絡(luò)傳遞、大容量數(shù)據(jù)存儲(chǔ)、影像顯示和處理、
    的頭像 發(fā)表于 07-18 16:31 ?718次閱讀
    <b class='flag-5'>醫(yī)學(xué)影像</b>存儲(chǔ)與傳輸系統(tǒng)源碼,PACS系統(tǒng)源碼

    圖像語(yǔ)義分割的實(shí)用性是什么

    圖像語(yǔ)義分割是一種重要的計(jì)算機(jī)視覺(jué)任務(wù),它旨在將圖像中的每個(gè)像素分配到相應(yīng)的語(yǔ)義類別中。這項(xiàng)技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如自動(dòng)駕駛、醫(yī)學(xué)圖像分析、機(jī)器人導(dǎo)航等。 一、圖像語(yǔ)義分割的基本原理 1.1
    的頭像 發(fā)表于 07-17 09:56 ?914次閱讀

    圖像分割和語(yǔ)義分割的區(qū)別與聯(lián)系

    圖像分割和語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域中兩個(gè)重要的概念,它們?cè)趫D像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像分割簡(jiǎn)介 圖像分割是將圖像劃分為多個(gè)區(qū)域或?qū)ο蟮倪^(guò)程。這些區(qū)域或?qū)ο缶哂邢嗨频膶傩?/div>
    的頭像 發(fā)表于 07-17 09:55 ?1950次閱讀