회고기간 : 2025.04.14월~2025.04.18금이번 주차는 트랜스포머, bert, 허깅페이스 파이프라인, prompt engineering, local llm에 대해 배웠다. Transformerhttps://wikidocs.net/31379기존의 seq2seq 구조의 인코더-디코더 + attention 알고리즘을 구현한 모델[기존의 seq2seq 구조]인코더가 입력 시퀀스를 하나의 벡터로 압축하는 과정에서 입력 시퀀스의 정보가 일부 손실됨[transformer]병렬 처리와 전역 문맥 이해를 통해 RNN의 한계를 극복한 딥러닝 모델로, 인코더-디코더 구조와 어텐션 메커니즘을 기반으로 한다. * 어텐션입력 시퀀스의 중요한 부분에 가중치를 부여해 번역 품질을 향상시키는 메커니즘이다. 인코더: 입력 ..