Skip to content

Commit bd7d6cc

Browse files
committed
edit
1 parent b5e77fd commit bd7d6cc

File tree

1 file changed

+4
-2
lines changed

1 file changed

+4
-2
lines changed

Diff for: _posts/2024-05-15-ConvNet.md

+4-2
Original file line numberDiff line numberDiff line change
@@ -9,8 +9,10 @@ last_modified_at: 2024-05-15
99

1010

1111
# 1. Introduction
12-
  2010년대 컴퓨터 비전 분야는 이미지 인식에 탁월한 합성곱 신경망(ConvNets)의 발전으로 급성장했습니다. 2020년, 자연어 처리 분야의 트랜스포머 모델이 ViT(Vision Transformer)라는 이름으로 컴퓨터 비전에 도입되면서 새로운 변화를 맞이했습니다. ViT는 이미지 분류에는 뛰어났지만 객체 감지나 이미지 분할과 같은 작업에는 한계를 보였습니다. 이후 Swin Transformer와 같은 계층적 트랜스포머 모델이 등장하여 ConvNets의 장점을 일부 차용하며 다양한 컴퓨터 비전 작업에서 좋은 성능을 보였습니다. 본 논문에서는 ConvNets를 개선하여 트랜스포머 모델만큼의 성능을 내는 ConvNeXt라는 새로운 모델을 제안합니다. ConvNeXt는 다양한 벤치마크에서 Swin Transformer와 비슷하거나 더 나은 성능을 보였고, 기존 ConvNets의 단순함과 효율성도 유지했습니다. 본 연구는 ConvNets가 여전히 컴퓨터 비전 분야에서 중요한 역할을 할 수 있음을 보여주며, 컴퓨터 비전 모델 설계에 새로운 시각을 제시합니다. \
13-
![figure1](https://github.com/yyeongha/yyeongha.github.io/blob/main/assets/img/favicons/2024-05-15-img/figure1.png?raw=true) \
12+
  2010년대 컴퓨터 비전 분야는 이미지 인식에 탁월한 합성곱 신경망(ConvNets)의 발전으로 급성장했습니다. 2020년, 자연어 처리 분야의 트랜스포머 모델이 ViT(Vision Transformer)라는 이름으로 컴퓨터 비전에 도입되면서 새로운 변화를 맞이했습니다. ViT는 이미지 분류에는 뛰어났지만 객체 감지나 이미지 분할과 같은 작업에는 한계를 보였습니다. 이후 Swin Transformer와 같은 계층적 트랜스포머 모델이 등장하여 ConvNets의 장점을 일부 차용하며 다양한 컴퓨터 비전 작업에서 좋은 성능을 보였습니다. 본 논문에서는 ConvNets를 개선하여 트랜스포머 모델만큼의 성능을 내는 ConvNeXt라는 새로운 모델을 제안합니다. ConvNeXt는 다양한 벤치마크에서 Swin Transformer와 비슷하거나 더 나은 성능을 보였고, 기존 ConvNets의 단순함과 효율성도 유지했습니다. 본 연구는 ConvNets가 여전히 컴퓨터 비전 분야에서 중요한 역할을 할 수 있음을 보여주며, 컴퓨터 비전 모델 설계에 새로운 시각을 제시합니다.
13+
\
14+
![figure1](https://github.com/yyeongha/yyeongha.github.io/blob/main/assets/img/favicons/2024-05-15-img/figure1.png?raw=true)
15+
\
1416
  ImageNet-1K 분류 결과는 ConvNets(보라색) 및 비전 Transformer(보라색)에 대한 것입니다. 각 버블의 면적은 모델 제품군의 변형 FLOP에 비례합니다. 여기에서 ImageNet-1K/22K 모델은 각각 224^2/384^2 이미지를 사용합니다. ResNet 및 ViT 결과는 원본 논문보다 개선된 교육 절차를 통해 얻었습니다. 표준 ConvNet 모델이 설계가 훨씬 더 간단하면서도 계층적 비전 Transformer와 동일한 수준의 확장성을 달성할 수 있음을 보여줍니다.
1517

1618

0 commit comments

Comments
 (0)