Super Kawaii Cute Cat Kaoani '2025/05/12 글 목록
728x90

2025/05/12 2

모델의 경량화 방법

사실 나는 아직까지 연구에서만 딥러닝을 사용하다보니 모델의 경량화 경험이 없다. 하지만 현업에서 사용하는 로봇, 자율자동차, 스마트폰과 같은 모바일 환경에서는 하드웨어 성능이 제한적인 상황이 많다. 이때문에 모델 경량화를 무조건 고려해야하니,,,,당장 쓸 일이 없더라도 개념을 알아보도록 하자 경량화 방법모델을 경량화 하는 방법은 크게 2가지로 나눌 수 있다. 1) 학습된 모델의 크기를 줄이는 방법2) 네트워크 구조 자체를 효율적으로 설계하는 방법-> 2)의 경우 모델의 구조를 단순화하거나 효율적으로 설계하여 파라미터 수와 연산량을 줄이는 방법으로 중요 아이디어는 불필요한 연산을 줄이고 중요한 피처만 효율적으로 학습할 수 있는 구조로 설계하여 모델의 크기와 계산 복잡도를 최소화하는 것이다. 여기서는 1) ..

Transformer 개념 완전 정리, 각 Attention의 차이점

최근에 면접을 보면서 모델 관련 지식들을 질문 받았었는데 완전 잘못 말했다....구조도 제대로 파악못하고 썼구나 싶어서 반성이 많이 된 경험이였다. 특히 Transformer의 경우 내가 굉장히 많이 써온 모델인데 구조를 파악 못하고 있다는게...ㅎ공부해보자...Transformer란?Transformer는 입력 시퀀스를 병렬로 처리하여 각 단어가 문맥 내 다른 단어들과의 관계를 학습하고, 이를 기반으로 출력을 생성하는 모델로, Attnetion 메커니즘을 활용해 복잡한 의존성을 효율적으로 캡처하여 다양한 시퀀스 작업에 활용되는 신경망 구조이다. Attention 메커니즘이란?Transformer를 제안한 논문의 이름이 "Attention is All you need"인 만큼 Attention에 대한 이..

728x90
728x90