数据集XML标签转YOLO标签

数据集XML标签转YOLO标签

XML格式数据集标签转YOLO数据集格式标签

在进行目标检测任务时,我们需要对数据集进行标注。常见的数据集标注格式有XML格式和YOLO格式,其中XML格式标注文件通常由目标框的左上角和右下角坐标组成,而YOLO格式标注文件则由目标框的中心点坐标、宽度和高度组成。

本文将介绍如何将XML格式的标注文件转为YOLO格式的标注文件。我们将使用Python语言来实现这一转换过程。

准备工作

在转换之前,我们需要准备好两个文件夹:一个存放XML格式标注文件的文件夹,一个存放转换后的txt格式标注文件的文件夹。此外,我们还需要定义一个包含目标类别的列表。

classes = ["A1", "A2", "A3", "A4", "A5", "A6", "A7", "A8", "A9", "A10",
           "A11", "A12", "A13", "A14", "A15", "A16", "A17", "A18", "A19", "A20"]

标注转换函数

我们将定义一个名为convert_annotation的函数,用于将单个XML格式标注文件转为YOLO格式标注文件。该函数的输入参数为标注文件的名称(不包括扩展名),输出参数为转换后的txt格式标注文件。

def convert_annotation(image_id):
    in_file = open('./label_xml\\%s.xml' % (image_id), encoding='UTF-8')
    out_file = open('./label_txt\\%s.txt' % (image_id), 'w')  # 生成txt格式文件
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        cls = obj.find('name').text
        if cls not in classes:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " +
                       " ".join([str(a) for a in bb]) + '\\n')

在该函数中,我们首先打开XML格式标注文件,并创建一个txt格式标注文件。然后,我们解析XML格式标注文件,获取图片的宽度和高度。接着,我们遍历XML文件中的目标框,将目标框的类别转换为对应的类别ID,并计算出目标框在YOLO格式中的表示方式。最后,我们将类别ID和目标框信息写入txt格式标注文件中。

批量转换

当我们定义好标注转换函数后,我们还需要编写代码来批量转换XML格式标注文件。下面的代码将遍历XML格式标注文件所在的文件夹,对每个XML格式标注文件进行转换,并将转换后的txt格式标注文件保存到指定的文件夹中。

xml_path = os.path.join(CURRENT_DIR, './label_xml/')

# xml list
img_xmls = os.listdir(xml_path)
for img_xml in img_xmls:
    label_name = img_xml.split('.')[0]
    print(label_name)
    convert_annotation(label_name)

结论

本文介绍了如何将XML格式的标注文件转为YOLO格式的标注文件。我们使用Python语言实现了这一转换过程,并提供了批量转换的代码。这些代码可以帮助我们更快速地进行目标检测任务,并提高我们的工作效率。

全代码如下文章来源地址https://www.uudwc.com/A/R62Ny/

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

import copy
from lxml.etree import Element, SubElement, tostring, ElementTree

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join

classes = ["A1", "A2", "A3", "A4", "A5", "A6", "A7", "A8", "A9", "A10",
           "A11", "A12", "A13", "A14", "A15", "A16", "A17", "A18", "A19", "A20"]  # 类别

CURRENT_DIR = os.path.dirname(os.path.abspath(__file__))


def convert(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return (x, y, w, h)


def convert_annotation(image_id):
    in_file = open('./label_xml\%s.xml' % (image_id), encoding='UTF-8')
    out_file = open('./label_txt\%s.txt' % (image_id), 'w')  # 生成txt格式文件
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        cls = obj.find('name').text
        # print(cls)
        if cls not in classes:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " +
                       " ".join([str(a) for a in bb]) + '\n')


xml_path = os.path.join(CURRENT_DIR, './label_xml/')

# xml list
img_xmls = os.listdir(xml_path)
for img_xml in img_xmls:
    # print(img_xml)
    label_name = img_xml.split('.')[0]
    print(label_name)
    convert_annotation(label_name)

原文地址:https://blog.csdn.net/aosiweixin/article/details/130623129

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请联系站长进行投诉反馈,一经查实,立即删除!

h
上一篇 2023年09月26日 16:06
Qt中信号槽的介绍及使用方法
下一篇 2023年09月26日 16:07