Skip to content

ylwango613/Network_DLreport

Repository files navigation

实验环境

安装好conda后在终端输入以下命令即可:

conda create -n dl python=3.10.8
conda activate dl
git clone https://github.com/ylwango613/Network_DLreport
cd Network_DLreport
pip install -r requirements.txt

数据集下载

使用的是cifar10数据集,已经内置在了torchvision中,代码中为:

# 加载和预处理CIFAR-10数据集
transform = transforms.Compose([
    transforms.RandomCrop(32, padding=4),
    transforms.RandomHorizontalFlip(),
    transforms.ToTensor(),
    transforms.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
])

train_dataset = torchvision.datasets.CIFAR10(root='../data', train=True, download=True, transform=transform)
test_dataset = torchvision.datasets.CIFAR10(root='../data', train=False, download=True, transform=transform)

train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

这里为了保证运行的效果,并未直接对数据集在load阶段进行归一化,有需要可以根据自己面临的任务自行进行归一化处理。

运行方式

均给出具体的ipynb文件了,只需要按照jupyter noterbook的方式运行即可。

实验结果

模型 准确度
原始图像加强V2LeNet5大核 62.55%
原始图像加强V1LeNet5大核 63.43%
大核LeNet-5 63.52%
原始LeNet5 66.09%
原始图像加强V1LeNet5 68.34%
原始图像加强V2LeNet5 69.03%
LeNet5大核卷积提取,单层transformer 69.55%
LeNet5大核卷积提取,双层transformer 70.43%
原始单层ViT 73.28%
LeNet5卷积提取,单层transformer 77.43%
LeNet5卷积提取,双层transformer 78.25%
原始双层ViT 78.48%
原始ResNet18 86.38%
ResNet18卷积提取,双层transformer 87.47%
ResNet18卷积提取,单层transformer 88.27%

其他事项

  1. 这里的data文件夹存储的是数据,不用处理;
  2. 想要看原来模型的效果进入_0RawLeNetAndViT文件夹即可,里面有原始LeNet-5和ResNet-18代码;
  3. _1RawImageEnhance文件夹中装的是增强原始图像的代码,包含了v1版本,v2版本,大核版本,小核版本,v1大核版本,v2大核版本六个文件;
  4. _2CNNExtract表明用CNN模型进行embedding的改进,分别是一层transformer的vit,分别使用LeNet,ResNet,大核LeNet进行embedding的一层transformer的vit和对应的两层vit的四个代码。
  5. _3.0RTLboosting+记录的是集成学习的代码。
  6. .pth文件是对应的模型参数文件,在自己测试时需要加model.eval()才能发挥模型能力(参考集成学习部分代码);loss文件记录是把训练过程的loss变化以文本形式记录下来了;
  7. ipynb均训练过,也可以直接查看ipynb获取模型训练过程中的一些结果。
  8. git.sh方便作者一键git,不用理会。

About

This is the assignment of ylwang for deep learning and neural networks

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors