CloFormer实战:使用CloFormer实现图像分类任务(二) 您所在的位置:网站首页 epoch和batchsize设置多大 CloFormer实战:使用CloFormer实现图像分类任务(二)

CloFormer实战:使用CloFormer实现图像分类任务(二)

2023-07-05 10:03| 来源: 网络整理| 查看: 265

在上一篇文章中完成了前期的准备工作,见链接:CloFormer实战:使用CloFormer实现图像分类任务(一)这篇主要是讲解如何训练和测试

训练部分

完成上面的步骤后,就开始train脚本的编写,新建train.py

导入项目使用的库

在train.py导入

import jsonimport osimport matplotlib.pyplot as pltimport torchimport torch.nn as nnimport torch.nn.parallelimport torch.optim as optimimport torch.utils.dataimport torch.utils.data.distributedimport torchvision.transforms as transformsfrom timm.utils import accuracy, AverageMeter, ModelEmafrom sklearn.metrics import classification_reportfrom timm.data.mixup import Mixupfrom timm.loss import SoftTargetCrossEntropyfrom models.model_factory import cloformer_xxsfrom torch.autograd import Variablefrom torchvision import datasets# torch.backends.cudnn.benchmark = Falseimport warningswarnings.filterwarnings("ignore")

os.environ['CUDA_VISIBLE_DEVICES']="0,1" 选择显卡,index从0开始,比如一台机器上有8块显卡,我们打算使用前两块显卡训练,设置为“0,1”,同理如果打算使用第三块和第六块显卡训练,则设置为“2,5”。

设置随机因子

def seed_everything(seed=42):    os.environ['PYHTONHASHSEED'] = str(seed)    torch.manual_seed(seed)    torch.cuda.manual_seed(seed)    torch.backends.cudnn.deterministic = True

设置了固定的随机因子,再次训练的时候就可以保证图片的加载顺序不会发生变化。

设置全局参数

if __name__ == '__main__':    #创建保存模型的文件夹    file_dir = 'checkpoints/cloformer/'    if os.path.exists(file_dir):        print('true')        os.makedirs(file_dir,exist_ok=True)    else:        os.makedirs(file_dir)

    # 设置全局参数    model_lr = 1e-4    BATCH_SIZE = 16    EPOCHS = 300    DEVICE = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')    use_amp = True  # 是否使用混合精度    use_dp = True #是否开启dp方式的多卡训练    classes = 12    resume ="checkpoints/cloformer/model_2_44.606.pth"    CLIP_GRAD = 5.0    Best_ACC = 0 #记录最高得分    use_ema=True    model_ema_decay=0.9998    start_epoch=1    seed=1    seed_everything(seed)

设置存放权重文件的文件夹,如果文件夹存在删除再建立。

接下来,设置全局参数,比如:学习率、BatchSize、epoch等参数,判断环境中是否存在GPU,如果没有则使用CPU。 注:建议使用GPU,CPU太慢了。

参数的详细解释:

model_lr:学习率,根据实际情况做调整。BATCH_SIZE:batchsize,根据显卡的大小设置。EPOCHS:epoch的个数,一般300够用。use_amp:是否使用混合精度。use_dp :是否开启dp方式的多卡训练?classes:类别个数。resume:再次训练的模型路径,如果不为None,则表示加载resume指向的模型继续训练。CLIP_GRAD:梯度的最大范数,在梯度裁剪里设置。Best_ACC:记录最高ACC得分。use_ema:是否使用emastart_epoch:开始的epoch,默认是1,如果重新训练时,需要给start_epoch重新赋值。SEED:随机因子,数值可以随意设定,但是设置后,不要随意更改,更改后,图片加载的顺序会改变,影响测试结果。

 file_dir = 'checkpoints/cloformer'

这是存放seaformer模型的路径。

图像预处理与增强

   # 数据预处理7    transform = transforms.Compose([        transforms.RandomRotation(10),        transforms.GaussianBlur(kernel_size=(5,5),sigma=(0.1, 3.0)),        transforms.ColorJitter(brightness=0.5, contrast=0.5, saturation=0.5),        transforms.Resize((224, 224)),        transforms.ToTensor(),        transforms.Normalize(mean=[0.3281186, 0.28937867, 0.20702125], std= [0.09407319, 0.09732835, 0.106712654])

    ])    transform_test = transforms.Compose([        transforms.Resize((224, 224)),        transforms.ToTensor(),        transforms.Normalize(mean=[0.3281186, 0.28937867, 0.20702125], std= [0.09407319, 0.09732835, 0.106712654])    ])    mixup_fn = Mixup(        mixup_alpha=0.8, cutmix_alpha=1.0, cutmix_minmax=None,        prob=0.1, switch_prob=0.5, mode='batch',        label_smoothing=0.1, num_classes=classes)

数据处理和增强比较简单,加入了随机10度的旋转、高斯模糊、色彩饱和度明亮度的变化、Mixup等比较常用的增强手段,做了Resize和归一化。

 transforms.Normalize(mean=[0.3281186, 0.28937867, 0.20702125], std= [0.09407319, 0.09732835, 0.106712654])

这里设置为计算mean和std。 这里注意下Resize的大小,由于选用的CloFormer模型输入是224×224的大小,所以要Resize为224×224。

读取数据

   # 读取数据    dataset_train = datasets.ImageFolder('data/train', transform=transform)    dataset_test = datasets.ImageFolder("data/val", transform=transform_test)    with open('class.txt', 'w') as file:        file.write(str(dataset_train.class_to_idx))    with open('class.json', 'w', encoding='utf-8') as file:        file.write(json.dumps(dataset_train.class_to_idx))    # 导入数据    train_loader = torch.utils.data.DataLoader(dataset_train, batch_size=BATCH_SIZE, pin_memory=True,shuffle=True,drop_last=True)    test_loader = torch.utils.data.DataLoader(dataset_test, batch_size=BATCH_SIZE, pin_memory=True,shuffle=False)

使用pytorch默认读取数据的方式,然后将dataset_train.class_to_idx打印出来,预测的时候要用到。

对于train_loader ,drop_last设置为True,因为使用了Mixup数据增强,必须保证每个batch里面的图片个数为偶数(不能为零),如果最后一个batch里面的图片为奇数,则会报错,所以舍弃最后batch的迭代。pin_memory设置为True,可以加快运行速度。

将dataset_train.class_to_idx保存到txt文件或者json文件中。

class_to_idx的结果:

{'Black-grass': 0, 'Charlock': 1, 'Cleavers': 2, 'Common Chickweed': 3, 'Common wheat': 4, 'Fat Hen': 5, 'Loose Silky-bent': 6, 'Maize': 7, 'Scentless Mayweed': 8, 'Shepherds Purse': 9, 'Small-flowered Cranesbill': 10, 'Sugar beet': 11}

设置Loss

  # 实例化模型并且移动到GPU    criterion_train = SoftTargetCrossEntropy()    criterion_val = torch.nn.CrossEntropyLoss()

设置loss函数,训练的loss为:SoftTargetCrossEntropy,验证的loss:nn.CrossEntropyLoss()。

设置模型

  #设置模型    model_ft = cloformer_xxs()    num_fr=model_ft.head.in_features    model_ft.head=nn.Linear(num_fr,classes)    if resume:        model=torch.load(resume)        print(model['state_dict'].keys())        model_ft.load_state_dict(model['state_dict'])        Best_ACC=model['Best_ACC']        start_epoch=model['epoch']+1    model_ft.to(DEVICE)    print(model_ft)

设置模型为cloformer_xxs。将model的head的输出修改为classes的长度。

如果resume为True,则加载模型接着resume指向的模型接着训练,使用模型里的Best_ACC初始化Best_ACC,使用epoch参数初始化start_epoch。

设置优化器和学习率调整算法

   # 选择简单暴力的Adam优化器,学习率调低   optimizer = optim.AdamW(model_ft.parameters(),lr=model_lr)   cosine_schedule = optim.lr_scheduler.CosineAnnealingLR(optimizer=optimizer, T_max=20, eta_min=1e-6)

优化器设置为adamW。

学习率调整策略选择为余弦退火。

设置混合精度,DP多卡,EMA

    if use_amp:        scaler = torch.cuda.amp.GradScaler()    if torch.cuda.device_count() > 1 and use_dp:        print("Let's use", torch.cuda.device_count(), "GPUs!")        model_ft = torch.nn.DataParallel(model_ft)    if use_ema:        model_ema = ModelEma(            model_ft,            decay=model_ema_decay,            device=DEVICE,            resume=resume)    else:        model_ema=None

use_amp为True,则开启混合精度训练,声明pytorch自带的混合精度 torch.cuda.amp.GradScaler()。

检测可用显卡的数量,如果大于1,并且开启多卡训练的情况下,则要用torch.nn.DataParallel加载模型,开启多卡训练。

如果使用ema,则注册ema 注:torch.nn.DataParallel方式,默认不能开启混合精度训练的,如果想要开启混合精度训练,则需要在模型的forward前面加上@autocast()函数。

在这里插入图片描述

如果不开启混合精度则要将@autocast()去掉,否则loss一直试nan。

定义训练和验证函数训练函数

# 定义训练过程def train(model, device, train_loader, optimizer, epoch,model_ema):    model.train()    loss_meter = AverageMeter()    acc1_meter = AverageMeter()    acc5_meter = AverageMeter()    total_num = len(train_loader.dataset)    print(total_num, len(train_loader))    for batch_idx, (data, target) in enumerate(train_loader):        data, target = data.to(device, non_blocking=True), Variable(target).to(device,                                                                                 non_blocking=True)        samples, targets = mixup_fn(data, target)        output = model(samples)        optimizer.zero_grad()        if use_amp:            with torch.cuda.amp.autocast():                loss = torch.nan_to_num(criterion_train(output, targets))            scaler.scale(loss).backward()            torch.nn.utils.clip_grad_norm_(model.parameters(), CLIP_GRAD)            # Unscales gradients and calls            # or skips optimizer.step()            scaler.step(optimizer)            # Updates the scale for next iteration            scaler.update()        else:            loss = criterion_train(output, targets)            loss.backward()            # torch.nn.utils.clip_grad_norm_(model.parameters(), CLIP_GRAD)            optimizer.step()

        if model_ema is not None:            model_ema.update(model)        torch.cuda.synchronize()        lr = optimizer.state_dict()['param_groups'][0]['lr']        loss_meter.update(loss.item(), target.size(0))        acc1, acc5 = accuracy(output, target, topk=(1, 5))        loss_meter.update(loss.item(), target.size(0))        acc1_meter.update(acc1.item(), target.size(0))        acc5_meter.update(acc5.item(), target.size(0))        if (batch_idx + 1) % 10 == 0:            print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}\tLR:{:.9f}'.format(                epoch, (batch_idx + 1) * len(data), len(train_loader.dataset),                       100. * (batch_idx + 1) / len(train_loader), loss.item(), lr))    ave_loss =loss_meter.avg    acc = acc1_meter.avg    print('epoch:{}\tloss:{:.2f}\tacc:{:.2f}'.format(epoch, ave_loss, acc))    return ave_loss, acc

训练的主要步骤:

1、使用AverageMeter保存自定义变量,包括loss,ACC1,ACC5。2、进入循环,将data和target放入device上,non_blocking设置为True。如果pin_memory=True的话,将数据放入GPU的时候,也应该把non_blocking打开,这样就只把数据放入GPU而不取出,访问时间会大大减少。 如果pin_memory=False时,则将non_blocking设置为False。3、将数据输入mixup_fn生成mixup数据。4、将第三部生成的mixup数据输入model,输出预测结果,然后再计算loss。5、 optimizer.zero_grad() 梯度清零,把loss关于weight的导数变成0。6、如果使用混合精度,则

with torch.cuda.amp.autocast(),开启混合精度。

计算loss。torch.nan_to_num将输入中的NaN、正无穷大和负无穷大替换为NaN、posinf和neginf。默认情况下,nan会被替换为零,正无穷大会被替换为输入的dtype所能表示的最大有限值,负无穷大会被替换为输入的dtype所能表示的最小有限值。

scaler.scale(loss).backward(),梯度放大。

torch.nn.utils.clip_grad_norm_,梯度裁剪,放置梯度爆炸。

scaler.step(optimizer) ,首先把梯度值unscale回来,如果梯度值不是inf或NaN,则调用optimizer.step()来更新权重,否则,忽略step调用,从而保证权重不更新。

更新下一次迭代的scaler。

否则,直接反向传播求梯度。torch.nn.utils.clip_grad_norm_函数执行梯度裁剪,防止梯度爆炸。7、如果use_ema为True,则执行model_ema的updata函数,更新模型。8、 torch.cuda.synchronize(),等待上面所有的操作执行完成。9、接下来,更新loss,ACC1,ACC5的值。

等待一个epoch训练完成后,计算平均loss和平均acc

验证函数

# 验证过程@torch.no_grad()def val(model, device, test_loader):    global Best_ACC    model.eval()    loss_meter = AverageMeter()    acc1_meter = AverageMeter()    acc5_meter = AverageMeter()    total_num = len(test_loader.dataset)    print(total_num, len(test_loader))    val_list = []    pred_list = []    for data, target in test_loader:        for t in target:            val_list.append(t.data.item())        data, target = data.to(device,non_blocking=True), target.to(device,non_blocking=True)        output = model(data)        loss = criterion_val(output, target)        _, pred = torch.max(output.data, 1)        for p in pred:            pred_list.append(p.data.item())        acc1, acc5 = accuracy(output, target, topk=(1, 5))        loss_meter.update(loss.item(), target.size(0))        acc1_meter.update(acc1.item(), target.size(0))        acc5_meter.update(acc5.item(), target.size(0))    acc = acc1_meter.avg    print('\nVal set: Average loss: {:.4f}\tAcc1:{:.3f}%\tAcc5:{:.3f}%\n'.format(        loss_meter.avg,  acc,  acc5_meter.avg))    if acc > Best_ACC:        if isinstance(model, torch.nn.DataParallel):            torch.save(model.module, file_dir + '/' + 'best.pth')        else:            torch.save(model, file_dir + '/' + 'best.pth')        Best_ACC = acc    if isinstance(model, torch.nn.DataParallel):        state = {            'epoch': epoch,            'state_dict': model.module.state_dict(),            'Best_ACC':Best_ACC        }        if use_ema:            state['state_dict_ema']=model.module.state_dict()        torch.save(state, file_dir + "/" + 'model_' + str(epoch) + '_' + str(round(acc, 3)) + '.pth')    else:        state = {            'epoch': epoch,            'state_dict': model.state_dict(),            'Best_ACC': Best_ACC        }        if use_ema:            state['state_dict_ema']=model.state_dict()        torch.save(state, file_dir + "/" + 'model_' + str(epoch) + '_' + str(round(acc, 3)) + '.pth')    return val_list, pred_list, loss_meter.avg, acc

验证集和训练集大致相似,主要步骤:

1、在val的函数上面添加@torch.no_grad(),作用:所有计算得出的tensor的requires_grad都自动设置为False。即使一个tensor(命名为x)的requires_grad = True,在with torch.no_grad计算,由x得到的新tensor(命名为w-标量)requires_grad也为False,且grad_fn也为None,即不会对w求导。2、定义参数: loss_meter: 测试的loss acc1_meter:top1的ACC。 acc5_meter:top5的ACC。 total_num:总的验证集的数量。 val_list:验证集的label。 pred_list:预测的label。3、进入循环,迭代test_loader:

将label保存到val_list。将data和target放入device上,non_blocking设置为True。将data输入到model中,求出预测值,然后输入到loss函数中,求出loss。调用torch.max函数,将预测值转为对应的label。将输出的预测值的label存入pred_list。调用accuracy函数计算ACC1和ACC5更新loss_meter、acc1_meter、acc5_meter的参数。

4、本次epoch循环完成后,求得本次epoch的acc、loss。 5、接下来是保存模型的逻辑 如果ACC比Best_ACC高,则保存best模型 判断模型是否为DP方式训练的模型。

如果是DP方式训练的模型,模型参数放在model.module,则需要保存model.module。 否则直接保存model。 注:保存best模型,我们采用保存整个模型的方式,这样保存的模型包含网络结构,在预测的时候,就不用再重新定义网络了。

6、接下来保存每个epoch的模型。 判断模型是否为DP方式训练的模型。

如果是DP方式训练的模型,模型参数放在model.module,则需要保存model.module.state_dict()。新建个字典,放置Best_ACC、epoch和 model.module.state_dict()等参数。然后将这个字典保存。判断是否是使用EMA,如果使用,则还需要保存一份ema的权重。 否则,新建个字典,放置Best_ACC、epoch和 model.state_dict()等参数。然后将这个字典保存。判断是否是使用EMA,如果使用,则还需要保存一份ema的权重。

注意:对于每个epoch的模型只保存了state_dict参数,没有保存整个模型文件。

”调用训练和验证方法

    # 训练与验证    is_set_lr = False    log_dir = {}    train_loss_list, val_loss_list, train_acc_list, val_acc_list, epoch_list = [], [], [], [], []    if resume and os.path.isfile(file_dir+"result.json"):        with open(file_dir+'result.json', 'r', encoding='utf-8') as file:            logs = json.load(file)            train_acc_list = logs['train_acc']            train_loss_list = logs['train_loss']            val_acc_list = logs['val_acc']            val_loss_list = logs['val_loss']            epoch_list = logs['epoch_list']    for epoch in range(start_epoch, EPOCHS + 1):        epoch_list.append(epoch)        log_dir['epoch_list'] = epoch_list        train_loss, train_acc = train(model_ft, DEVICE, train_loader, optimizer, epoch,model_ema)        train_loss_list.append(train_loss)        train_acc_list.append(train_acc)        log_dir['train_acc'] = train_acc_list        log_dir['train_loss'] = train_loss_list        if use_ema:            val_list, pred_list, val_loss, val_acc = val(model_ema.ema, DEVICE, test_loader)        else:            val_list, pred_list, val_loss, val_acc = val(model_ft, DEVICE, test_loader)        val_loss_list.append(val_loss)        val_acc_list.append(val_acc)        log_dir['val_acc'] = val_acc_list        log_dir['val_loss'] = val_loss_list        log_dir['best_acc'] = Best_ACC        with open(file_dir + '/result.json', 'w', encoding='utf-8') as file:            file.write(json.dumps(log_dir))        print(classification_report(val_list, pred_list, target_names=dataset_train.class_to_idx))        if epoch 



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有