서브메뉴
검색
(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝 : 코드와 결과물로 이해하는 언어 모델과 트랜스포머
(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝 : 코드와 결과물로 이해하는 언어 모델과 트랜스포머
상세정보
- 자료유형
- 단행본
- ISBN
- 9791165923150 93000: \27500
- 청구기호
- 004.735 박54ㅎ
- 서명/저자
- (자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝 : 코드와 결과물로 이해하는 언어 모델과 트랜스포머 / 박성환, 남승우 지음
- 발행사항
- 서울 : 비제이퍼블릭, 2025
- 형태사항
- x, 303 p. : 삽화, 도표 ; 25 cm
- 주기사항
- 색인 수록
- 일반주제명
- 자연 언어 처리[自然言語處理]
- 일반주제명
- 딥 러닝[deep learning]
- 기타저자
- 박성환
- 기타저자
- 남승우
- 가격
- \27500
- Control Number
- shingu:364818
- 책소개
-
2025 세종도서 학술부문 선정
자연어 처리의 기본부터
허깅페이스 모델 경량화, 정렬 조정, 강화 학습까지
챗GPT와 같은 대화형 인공지능 챗봇과 다수의 오픈소스 생성형 언어 모델은 대규모 언어 모델(LLM)에 해당합니다. 허깅페이스는 각종 생성형 인공지능을 위한 모델과 데이터셋을 개발자들이 자유롭게 공유하고 쉽게 활용할 수 있도록 API 및 도구를 제공하는데, 『자연어 처리를 위한 허깅페이스 트랜스포머 하드 트레이닝』에서는 다양한 생성형 인공지능 기술 중 자연어 처리를 위한 언어 모델에 집중합니다.
Transformers 라이브러리를 기준으로 토크나이저 및 모델 준비, 한국어 자연어 이해 평가(KLUE) 데이터셋 전처리, 학습 파라미터 선정 및 학습 진행과 성능 평가를 실습해봅니다. 이후 사전학습 단계부터 직접 진행해야 하는 경우를 대비하여 Tokenizers 라이브러리에 대해 살펴보고 정확도, f1 스코어, 정밀도, 재현율을 기준으로 모델을 평가하는 Evaluate 라이브러리에 대해서 알아봅니다. PEFT, 양자화, QLoRA 미세조정과 같이 모델의 메모리 사용량은 줄이고 추론 속도는 높이는 경량화 기법에 대해 코드와 결과물로 꼼꼼하게 확인해본 후 RLHF, SFT, PPO, Best-of-N 샘플링 등 정렬 조정에 해당하는 다양한 방법론과 이를 강화학습을 위한 트랜스포머(TRL)를 통해 활용하는 방식까지 차근차근 학습합니다.
MARC
008260210s2025 ulkad 001 kor■00520250402112530
■020 ▼a9791165923150▼g93000:▼c\27500
■056 ▼a004.735▼26
■090 ▼a004.735▼b박54ㅎ
■24520▼a(자연어 처리를 위한) 허깅페이스 트랜스포머 하드 트레이닝 :▼b코드와 결과물로 이해하는 언어 모델과 트랜스포머 /▼d박성환,▼e남승우 지음
■260 ▼a서울▼b비제이퍼블릭▼c2025
■300 ▼ax, 303 p. ▼b삽화, 도표▼c25 cm
■500 ▼a색인 수록
■650 8▼a자연 언어 처리[自然言語處理]
■650 8▼a딥 러닝[deep learning]
■7001 ▼a박성환
■7001 ▼a남승우
■9500 ▼b\27500
미리보기
내보내기
chatGPT토론
Ai 추천 관련 도서
소장정보
- 예약
- 서가에 없는 책 신고
- 대출신청
- 나의폴더
- 우선정리요청
| 등록번호 | 청구기호 | 소장처 | 대출가능여부 | 대출정보 |
|---|---|---|---|---|
| 0213243 | 004.735 박54ㅎ | 세종도서코너(2층) | 대출가능 |
대출가능 마이폴더 |
* 대출중인 자료에 한하여 예약이 가능합니다. 예약을 원하시면 예약버튼을 클릭하십시오.


