首页 星云 工具 资源 星选 资讯 热门工具
:

PDF转图片 完全免费 小红书视频下载 无水印 抖音视频下载 无水印 数字星空

YOLO系列算法训练数据格式转换脚本

人工智能 4.94KB 16 需要积分: 1
立即下载

资源介绍:

内容概要: 本资源提供了一套完整的Python脚本代码,用于将XLM和COCO格式的目标检测数据集转换为YOLO格式。内容概要上,该脚本通过读取XLM或COCO数据集的标注文件(如JSON格式),自动解析图像信息、类别标签及边界框坐标,并转换为YOLO算法所需的格式(通常是TXT文件)。 适用人群: 学生:对目标检测、深度学习及数据预处理感兴趣的初学者。 研发人员:具备一定编程基础,特别是Python和深度学习领域,希望快速实现数据集格式转换以提高工作效率的开发者。 科研人员:在目标检测领域进行研究的学者,需要处理多种格式数据集以进行算法验证和优化。 能学到什么: 掌握XLM、COCO与YOLO数据格式的差异及转换方法。 学习Python脚本编写技巧,特别是文件读写、数据处理及逻辑判断。 了解目标检测数据集标注文件的解析与转换流程。 阅读建议: 在阅读前,建议对XLM、COCO和YOLO数据格式有一定的了解。 逐步执行脚本中的代码,理解每一步的作用,特别是数据解析和格式转换的逻辑。 尝试修改脚本中的参数和路径,以适应不同的数据集和需求。 遇到问题时,可参考相关文档或寻求社区帮助
""" YOLO 格式的数据集转化为 COCO 格式的数据集 --root_dir 输入根路径 --save_path 保存文件的名字(没有random_split时使用) --random_split 有则会随机划分数据集,然后再分别保存为3个文件。 --split_by_file 按照 ./train.txt ./val.txt ./test.txt 来对数据集进行划分。 """ import os import cv2 import json from tqdm import tqdm #from sklearn.model_selection import train_test_split import argparse # parser = argparse.ArgumentParser() # parser.add_argument('--root_dir', default='./data',type=str, help="root path of images and labels, include ./images and ./labels and classes.txt") # parser.add_argument('--save_path', type=str,default='./train.json', help="if not split the dataset, give a path to a json file") # parser.add_argument('--random_split', action='store_true', help="random split the dataset, default ratio is 8:1:1") # parser.add_argument('--split_by_file', action='store_true', help="define how to split the dataset, include ./train.txt ./val.txt ./test.txt ") # arg = parser.parse_args() # def train_test_val_split_random(img_paths,ratio_train=0.8,ratio_test=0.1,ratio_val=0.1): # # 这里可以修改数据集划分的比例。 # assert int(ratio_train+ratio_test+ratio_val) == 1 # train_img, middle_img = train_test_split(img_paths,test_size=1-ratio_train, random_state=233) # ratio=ratio_val/(1-ratio_train) # val_img, test_img =train_test_split(middle_img,test_size=ratio, random_state=233) # print("NUMS of train:val:test = {}:{}:{}".format(len(train_img), len(val_img), len(test_img))) # return train_img, val_img, test_img # def train_test_val_split_by_files(img_paths, root_dir): # # 根据文件 train.txt, val.txt, test.txt(里面写的都是对应集合的图片名字) 来定义训练集、验证集和测试集 # phases = ['train', 'val', 'test'] # img_split = [] # for p in phases: # define_path = os.path.join(root_dir, f'{p}.txt') # print(f'Read {p} dataset definition from {define_path}') # assert os.path.exists(define_path) # with open(define_path, 'r') as f: # img_paths = f.readlines() # # img_paths = [os.path.split(img_path.strip())[1] for img_path in img_paths] # NOTE 取消这句备注可以读取绝对地址。 # img_split.append(img_paths) # return img_split[0], img_split[1], img_split[2] def yolo2coco(): #root_path = arg.root_dir root_path = "D:\\vision\\driver-action\\yolo_data" print("Loading data from ",root_path) assert os.path.exists(root_path) originLabelsDir = os.path.join(root_path, 'labels') originImagesDir = os.path.join(root_path, 'images') with open(os.path.join(root_path, 'classes.txt')) as f: classes = f.read().strip().split() # images dir name indexes = os.listdir(originImagesDir) # if arg.random_split or arg.split_by_file: # # 用于保存所有数据的图片信息和标注信息 # train_dataset = {'categories': [], 'annotations': [], 'images': []} # val_dataset = {'categories': [], 'annotations': [], 'images': []} # test_dataset = {'categories': [], 'annotations': [], 'images': []} # # 建立类别标签和数字id的对应关系, 类别id从0开始。 # for i, cls in enumerate(classes, 0): # train_dataset['categories'].append({'id': i, 'name': cls, 'supercategory': 'mark'}) # val_dataset['categories'].append({'id': i, 'name': cls, 'supercategory': 'mark'}) # test_dataset['categories'].append({'id': i, 'name': cls, 'supercategory': 'mark'}) # if arg.random_split: # print("spliting mode: random split") # train_img, val_img, test_img = train_test_val_split_random(indexes,0.8,0.1,0.1) # elif arg.split_by_file: # print("spliting mode: split by files") # train_img, val_img, test_img = train_test_val_split_by_files(indexes, root_path) #else: dataset = {'categories': [], 'annotations': [], 'images': []} for i, cls in enumerate(classes, 0): dataset['categories'].append({'id': i, 'name': cls, 'supercategory': 'mark'}) # 标注的id ann_id_cnt = 0 for k, index in enumerate(tqdm(indexes)): # 支持 png jpg 格式的图片。 txtFile = index.replace('images','txt').replace('.jpg','.txt').replace('.png','.txt').replace('.jpeg','.txt') # 读取图像的宽和高 impath =root_path+'\\images\\' + index print(impath) im = cv2.imread(impath) height, width, _ = im.shape # if arg.random_split or arg.split_by_file: # # 切换dataset的引用对象,从而划分数据集 # if index in train_img: # dataset = train_dataset # elif index in val_img: # dataset = val_dataset # elif index in test_img: # dataset = test_dataset # 添加图像的信息 dataset['images'].append({'file_name': index, 'id': k, 'width': width, 'height': height}) if not os.path.exists(os.path.join(originLabelsDir, txtFile)): # 如没标签,跳过,只保留图片信息。 continue with open(os.path.join(originLabelsDir, txtFile), 'r') as fr: labelList = fr.readlines() for label in labelList: label = label.strip().split() x = float(label[1]) y = float(label[2]) w = float(label[3]) h = float(label[4]) # convert x,y,w,h to x1,y1,x2,y2 H, W, _ = im.shape x1 = (x - w / 2) * W y1 = (y - h / 2) * H x2 = (x + w / 2) * W y2 = (y + h / 2) * H # 标签序号从0开始计算, coco2017数据集标号混乱,不管它了。 cls_id = int(label[0]) width = max(0, x2 - x1) height = max(0, y2 - y1) dataset['annotations'].append({ 'area': width * height, 'bbox': [x1, y1, width, height], 'category_id': cls_id, 'id': ann_id_cnt, 'image_id': k, 'iscrowd': 0, # mask, 矩形是从左上角点按顺时针的四个顶点 'segmentation': [[x1, y1, x2, y1, x2, y2, x1, y2]] }) ann_id_cnt += 1 # 保存结果 folder = os.path.join(root_path, 'annotations') if not os.path.exists(folder): os.makedirs(folder) # if arg.random_split or arg.split_by_file: # for phase in ['train','val','test']: # json_name = os.path.join(root_path, 'annotations/{}.json'.format(phase)) # with open(json_name, 'w') as f: # if phase == 'train': # json.dump(train_dataset, f) # elif phase == 'val': # json.dump(val_dataset, f) # elif phase == 'test': # json.dump(test_dataset, f) # print('Save annotation to {}'.format(json_name)) # else: json_name = os.path.join(root_path, 'annotations/{}'.format("train.json")) with open(json_name, 'w') as f: json.dump(dataset, f) print('Save annotation to {}'.format(json_name)) if __name__ == "__main__": yolo2coco()

资源文件列表:

data_convert.zip 大约有3个文件
  1. xml2yolo.py 2.3KB
  2. yolo2coco.py 7.68KB
  3. json2yolo.py 2.31KB
0评论
提交 加载更多评论
其他资源 YOLO系列算法使用bdd100k数据集训练的数据预处理及格式转换python代码
内容简介 本资源提供了一套针对BDD100K数据集的Python代码,旨在辅助用户完成YOLO系列算法训练前的数据预处理及格式转换工作。内容概要上,该代码能够处理BDD100K数据集的复杂标注信息,包括图像路径、类别标签、边界框坐标等,并将其转换为YOLO算法训练所需的特定格式(如TXT文件),同时可能包括图像增强、归一化等预处理步骤,以优化训练效果。 适用人群: 深度学习爱好者与研究者,特别是专注于目标检测领域的学者和学生。 开发人员,需要利用BDD100K数据集进行YOLO算法训练的工程师。 寻求提升数据处理效率与准确性的数据科学家。 能学到什么: 了解BDD100K数据集的标注结构与特点。 掌握将BDD100K数据集转换为YOLO训练格式的方法。 学习图像预处理技术,如数据增强、归一化等,在目标检测训练中的应用。 提升Python编程能力,特别是文件操作、数据处理及条件逻辑的实现。 阅读建议: 在阅读前,建议对BDD100K数据集和YOLO算法有一定的了解。 逐步执行代码,理解每一步的作用,特别是数据解析、预处理和格式转换的逻辑。 尝试修改代码中的参数,如调整数据增强的
python3.8.2版本
python3.8.2版本
圈子系统可发帖,可开语音,可提取短视频
● 她是谁??? ●系统基于TP6+Uni-app框架开发;客户移动端采用uni-app开发,管理后台TH6开发。 ● 系统支持微信公众号端、微信小程序端、H5端、PC端多端账号同步,可快速打包生成APP ● 目前已开发升级至4.2版 适用领域 一、行业圈子:您可以使用在你的行业领域,让本行业的有交流和联系的圈子。 二、地方圈子:您可以使用在本地区,运营地方性的综合圈子或论坛,搭配商城频道,可以做类似美团的本地到店消费,搭配交友频道可做本地社交。搭配圈子可做信息发布类。 三、纯社交圈子:搭配交友频道,和语聊房间频道可运营娱乐社交类APP,可实现VIP充值盈利和虚拟礼物主播分成模式, 四、游戏开黑圈子:搭配语聊与交友。可作为游戏开黑组队和代练模式交易。 五、兴趣圈子:你所熟悉的某个兴趣点专注领域,种草社区结合商城系统。直接种草和电商结合。 六、活动搭子类:为用户提供活动组局、搭子、商家活动发布类产品。 七、我们提供十多款丰富功能的插件,可选择搭配。
Flutter 百分比指示器库
Flutter 百分比指示器库
Flutter 百分比指示器库 Flutter 百分比指示器库 Flutter 百分比指示器库
灵活且易于使用的页面转换
灵活且易于使用的页面转换
Delphi5+SqlServer+添加操作
Delphi5+SqlServer+添加操作
Xshell-7.0.zip
Xshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0.zipXshell_7.0
togotogo1.zip
togotogo1.zip