96SEO 2026-02-23 15:15 1
。

我们可以搜索一种类型的对象#xff08;单对象检测#xff0c;如本教程所示#xff09;或多个对象#xff08;多对象检测#xff09;。
通常#xff0c;我们使用边界框定义对象的位置。
有几种方法可以…
在对象检测任务中我们希望找到图像中对象的位置。
我们可以搜索一种类型的对象单对象检测如本教程所示或多个对象多对象检测。
通常我们使用边界框定义对象的位置。
有几种方法可以表示边界框
在本教程中我们将重点介绍在iChallenge-AMD竞赛的医学眼部图像中找到中央凹的中心。
有两个主要资源可以获取数据。
第一个是iChallenge-AMD网站
https://amd.grand-challenge.org/。
您首先需要注册参加比赛然后可以下载数据。
第二种方式不需要注册它是从
https://ai.baidu.com/broad/download
下载。
在这里您需要下载图像的“[训练]图像和AMD标签”和带有标签的Excel文件的“[训练]光盘和中央凹注释”。
文件Fovea_location.xlsx其中包含每个图像中中央凹的中心位置。
pd.read_excelpath_to_labels_file
index_colIDprintHeadprintlabels_df.head
pltplt.rcParams[figure.figsize]
我们可以看到中央凹位置的两个主要组但更重要的是对于某些图像中央凹质心的标签是00。
最好从数据框中移除这些图像。
现在我们想查看图像的随机样本并标记中央凹的中心。
为此让我们定义一个函数来加载带有标签的图像另一个函数根据标签在中央凹周围绘制一个边界框。
npload_image_with_labellabels_df
ImageDraw.Drawimage.rectanglec_x-w//2
show_image_with_bounding_boximage
从上图中我们需要注意的第一件事是对于不同的图像图像的尺寸是不同的。
我们现在想了解图像尺寸的分布。
为此我们在数据集中收集图像的高度和宽度。
Image。
openimage_path.sizeheights.appendh
widths.appendwsns.histplotxheights
hueamd_or_non_amdsns.histplot(xwidths,
数据增强是非常重要的一步它让我们扩展数据集特别是当我们有一个小数据集时就像我们的情况一样并使网络更加健壮。
我们还想应用一些转换来使网络的输入保持一致在我们的例子中我们需要调整图像的大小使它们具有恒定的维度。
除了图像的增强和转换外我们还需要照顾标签。
例如如果我们垂直翻转图像中央凹的质心将获得我们需要更新的新坐标。
为了更新标签和图像的转换我们将自己编写一些转换类。
torchvision.transforms.functional
RandomHorizontalFlip:Horizontal
max_translation[0]self.max_translation_y
int(np.random.uniform(-self.max_translation_x,
int(np.random.uniform(-self.max_translation_y,
brightness_factorself.contrast_factor
contrast_factorself.gamma_factor
np.random.uniform(-self.brightness_factor,
np.random.uniform(-self.brightness_factor,
np.random.uniform(-self.brightness_factor,
scale_labelTrue):self.scale_label
unscale_labelTrue):self.unscale_label
image_label_sample[1].tolist()image
将它们连接起来。
然后我们将完整转换应用于带有标签的图像。
Compose
load_image_with_label(labels_df,
show_image_with_bounding_box(new_image,
要将数据加载到我们的模型中我们首先需要构建一个自定义数据集类它是
处理我们可以通过索引从整个数据集中获取图像和标签的方式__len__()-
labels_df.reset_index(dropTrue)self.transformation
[Fovea_X,Fovea_Y]].values.astype(float)image,
在实际创建数据集对象之前我们需要将数据拆分为训练集和验证集。
我们用于将其拆分为训练数据帧和验证数据帧。
scikit-learnlabels_df
random_state42)train_transformation
show_image_with_bounding_box(*(ToPILImage()((image,
show_image_with_bounding_box(*(ToPILImage()((image,
下一步是定义一个数据加载程序一个用于训练数据集一个用于验证数据集。
中进行随机排序因为当我们将数据拆分为训练数据集和验证数据集时我们已经对数据进行了随机排序。
现在让我们看一个批处理看看结果是否符合预期。
out_channels):super().__init__()self.base1
nn.Sequential(nn.Conv2d(in_channels,
paddingsame),nn.BatchNorm2d(in_channels),nn.ReLU(True)
nn.Sequential(nn.Conv2d(in_channels,
paddingsame),nn.BatchNorm2d(out_channels),nn.ReLU(True))def
ReLU。
然后我们将原始输入添加到结果中并应用第二步该步骤再次由卷积层组成然后是批量归一化和
ReLU但这次我们更改了过滤器的数量。
现在我们已准备好构建模型。
first_output_channels):super().__init__()self.model
nn.Sequential(ResBlock(in_channels,
first_output_channels),nn.MaxPool2d(2),ResBlock(first_output_channels,
first_output_channels),nn.MaxPool2d(2),ResBlock(2
first_output_channels),nn.MaxPool2d(2),ResBlock(4
first_output_channels),nn.MaxPool2d(2),nn.Conv2d(8
kernel_size3),nn.MaxPool2d(2),nn.Flatten(),nn.Linear(7
num_params],col_width20,row_settings[var_names]
torch.optim.Adam(net.parameters(),
centroid_to_bbox(output_labels)target_bbox
centroid_to_bbox(target_labels)return
torch.trace(box_iou(output_bbox,
None:optimizer.zero_grad()loss.backward()optimizer.step()return
在此步骤中我们将训练模型以找到中央凹。
我们首先定义一个辅助函数来进行训练步骤这意味着遍历数据加载器中的所有数据使用我们之前的函数获取损失并更新训练案例中的权重并跟踪损失和
None:model.train()else:model.eval()running_loss
running_loss/len(dataloader.dataset),
running_iou/len(dataloader.dataset)
现在我们有了进行培训所需的一切。
我们定义了两个字典来跟踪损失和
torch.optim.Adam(model.parameters(),
{epoch1}/{num_epoch})training_loss,
train_val_step(train_dataloader,
optimizer)loss_tracking[train].append(training_loss)iou_tracking[train].append(trainig_iou)with
torch.inference_mode():val_loss,
None)loss_tracking[val].append(val_loss)iou_tracking[val].append(val_iou)if
model)torch.save(model.state_dict(),
{trainig_iou:.2})print(fValidation
最后我们想看一些图像看看模型的预测在多大程度上接近中央凹的真实坐标。
为此我们基于之前的函数定义一个新函数但这次我们为预测绿色和目标红色绘制边界框。
show_image_with_bounding_box
show_image_with_2_bounding_box(image,
image.copy()ImageDraw.Draw(image).rectangle(((c_x-w//2,
widththickness)ImageDraw.Draw(image).rectangle(((c_x_target-w//2,
widththickness)plt.imshow(image)
model.load_state_dict(torch.load(best_model.pt))
rng.choice(range(len(val_dataset)),
output.squeeze()))plt.subplot(n_rows,
ii)show_image_with_2_bounding_box(image,
在本教程中我们介绍了为单个对象检测任务构建网络所需的所有主要步骤。
我们首先探索数据清理和排列数据然后构建数据增强函数以及数据集和DataLoader对象最后构建和训练模型。
我们得到了相对不错的结果欢迎您尝试通过更改模型的学习参数和架构来提高性能。
作为专业的SEO优化服务提供商,我们致力于通过科学、系统的搜索引擎优化策略,帮助企业在百度、Google等搜索引擎中获得更高的排名和流量。我们的服务涵盖网站结构优化、内容优化、技术SEO和链接建设等多个维度。
| 服务项目 | 基础套餐 | 标准套餐 | 高级定制 |
|---|---|---|---|
| 关键词优化数量 | 10-20个核心词 | 30-50个核心词+长尾词 | 80-150个全方位覆盖 |
| 内容优化 | 基础页面优化 | 全站内容优化+每月5篇原创 | 个性化内容策略+每月15篇原创 |
| 技术SEO | 基本技术检查 | 全面技术优化+移动适配 | 深度技术重构+性能优化 |
| 外链建设 | 每月5-10条 | 每月20-30条高质量外链 | 每月50+条多渠道外链 |
| 数据报告 | 月度基础报告 | 双周详细报告+分析 | 每周深度报告+策略调整 |
| 效果保障 | 3-6个月见效 | 2-4个月见效 | 1-3个月快速见效 |
我们的SEO优化服务遵循科学严谨的流程,确保每一步都基于数据分析和行业最佳实践:
全面检测网站技术问题、内容质量、竞争对手情况,制定个性化优化方案。
基于用户搜索意图和商业目标,制定全面的关键词矩阵和布局策略。
解决网站技术问题,优化网站结构,提升页面速度和移动端体验。
创作高质量原创内容,优化现有页面,建立内容更新机制。
获取高质量外部链接,建立品牌在线影响力,提升网站权威度。
持续监控排名、流量和转化数据,根据效果调整优化策略。
基于我们服务的客户数据统计,平均优化效果如下:
我们坚信,真正的SEO优化不仅仅是追求排名,而是通过提供优质内容、优化用户体验、建立网站权威,最终实现可持续的业务增长。我们的目标是与客户建立长期合作关系,共同成长。
Demand feedback