2025/04/20 2

sk네트웍스 family AI 캠프 11기 4월 3주차 회고록

회고기간 : 2025.04.14월~2025.04.18금이번 주차는 트랜스포머, bert, 허깅페이스 파이프라인, prompt engineering, local llm에 대해 배웠다. Transformerhttps://wikidocs.net/31379기존의 seq2seq 구조의 인코더-디코더 + attention 알고리즘을 구현한 모델[기존의 seq2seq 구조]인코더가 입력 시퀀스를 하나의 벡터로 압축하는 과정에서 입력 시퀀스의 정보가 일부 손실됨[transformer]병렬 처리와 전역 문맥 이해를 통해 RNN의 한계를 극복한 딥러닝 모델로, 인코더-디코더 구조와 어텐션 메커니즘을 기반으로 한다. * 어텐션입력 시퀀스의 중요한 부분에 가중치를 부여해 번역 품질을 향상시키는 메커니즘이다. 인코더: 입력 ..

SKN/Remind 2025.04.20

sk네트웍스 family AI 캠프 11기 4월 2주차 회고록

회고기간 : 2025.04.07월~2025.04.11금이번 주차는 NLP의 subword tokenizer, 워드 임베딩, 등을 배웠다. 0407월Subword Tokenizer- 서브워드 분리는 하나의 단어를 더 작은 단위로 쪼개 의미있는 조합으로 구성- 하나의 단어를 여러 서브워드로 분리해 단어를 인코딩 및 임베딩 할 수 있음import sentencepiece as spm# 모델 학습 input = 'naver_review.txt' # 학습해야 하는 학습 데이터셋 경로 vocab_size = 10000 # 결과로 만들 token의 개수 (사전의 크기)model_prefix = 'naver_review' # 학습에 대한 결과물 이름 지정 cmd = f'--input={inpu..

카테고리 없음 2025.04.20