상세정보
미리보기
핸즈온 LLM
- 저자
- 제이 알아마르,마르턴 흐루턴도르스트 저/박해선 역
- 출판사
- 한빛미디어
- 출판일
- 2025-06-09
- 등록일
- 2025-09-24
- 파일포맷
- PDF
- 파일크기
- 17MB
- 공급사
- YES24
- 지원기기
-
PC
PHONE
TABLET
웹뷰어
프로그램 수동설치
뷰어프로그램 설치 안내
책소개
LLM, 눈으로 익히고 손으로 구현하라. 트랜스포머 구조부터 시맨틱 검색, 미세 튜닝, 프롬프트 엔지니어링까지 그림과 실전 코드로 만들면서 배우는 대규모 언어 모델의 모든 것『핸즈온 LLM』은 LLM을 쓰는 것을 넘어, 이해하고 구현하는 것까지 나아가고 싶은 이를 위한 실전 가이드이다. 직관적인 시각 자료와 예제를 제공해 ‘왜 이런 구조가 필요한지’ 이해하고 실용적인 도구와 개념을 익힐 수 있도록 구성했다. 사전 훈련된 대규모 언어 모델을 사용하는 방법과 시맨틱 검색 시스템을 만드는 방법, 텍스트 분류, 검색, 클러스터링을 위해 사전 훈련된 모델과 각종 라이브러리를 사용하는 방법을 배운다.
저자소개
코히어(Cohere)(대규모 언어 모델을 API로 제공하는 선두 업체)의 이사이자 엔지니어링 펠로(fellow)이다. 언어 모델을 실용적으로 사용하는 방법을 기업과 개발자 커뮤니티에 조언하고 교육하는 일을 한다. 유명한 그의 AI/ML 블로그(https://jalammar.github.io)를 통해 수백만 명의 연구자와 엔지니어들이 머신러닝 도구는 물론이고 (넘파이와 판다스 같은 패키지 문서에 수록된) 기본 지식부터 (트랜스포머, BERT, GPT-3, 스테이블 디퓨전 같은) 최신 개념까지 폭넓게 이해하는 데 도움을 주고 있다. Deeplearning.ai와 Udacity에서 인기 있는 머신러닝 코스와 자연어 처리 코스를 제작한 이력도 있다.
목차
1부 언어 모델 이해하기1장 대규모 언어 모델 소개_1.1 언어 AI란?_1.2 언어 AI의 최근 역사_1.3 대규모 언어 모델의 정의_1.4 대규모 언어 모델의 훈련 패러다임_1.5 대규모 언어 모델 애플리케이션: 왜 유용한가요?_1.6 책임 있는 LLM 개발과 사용_1.7 자원이 부족해도 괜찮습니다._1.8 대규모 언어 모델 인터페이스_1.9 첫 번째 텍스트 생성하기_1.10 요약2장 토큰과 임베딩_2.1 LLM 토큰화_2.2 토큰 임베딩_2.3 텍스트 임베딩(문장과 전체 문서)_2.4 LLM을 넘어 활용되는 단어 임베딩_2.5 추천 시스템을 위한 임베딩_2.6 요약3장 대규모 언어 모델 자세히 살펴보기_3.1 트랜스포머 모델 개요_3.2 트랜스포머 아키텍처의 최근 발전 사항_3.3 요약2부 사전 훈련된 언어 모델 사용하기4장 텍스트 분류_4.1 영화 리뷰 데이터셋_4.2 표현 모델로 텍스트 분류하기_4.3 모델 선택_4.4 작업에 특화된 모델 사용하기_4.5 임베딩을 활용하여 분류 작업 수행하기_4.6 생성 모델로 텍스트 분류하기_4.7 요약5장 텍스트 클러스터링과 토픽 모델링_5.1 아카이브 논문: 계산 및 언어_5.2 텍스트 클러스터링을 위한 파이프라인_5.3 텍스트 클러스터링에서 토픽 모델링으로_5.4 요약6장 프롬프트 엔지니어링_6.1 텍스트 생성 모델 사용하기_6.2 프롬프트 엔지니어링 소개_6.3 고급 프롬프트 엔지니어링_6.4 생성 모델을 사용한 추론_6.5 출력 검증_6.6 요약7장 고급 텍스트 생성 기술과 도구_7.1 모델 I/O: 랭체인으로 양자화된 모델 로드하기_7.2 체인: LLM의 능력 확장하기_7.3 메모리: 대화를 기억하도록 LLM 돕기_7.4 에이전트: LLM 시스템 구축하기_7.5 요약8장 시맨틱 검색과 RAG_8.1 시맨틱 검색과 RAG 소개_8.2 언어 모델을 사용한 시맨틱 검색_8.3 RAG_8.4 요약9장 멀티모달 대규모 언어 모델_9.1 비전 트랜스포머_9.2 멀티모달 임베딩 모델_9.3 텍스트 생성 모델을 멀티모달로 만들기_9.4 요약3부 언어 모델 훈련 및 미세 튜닝10장 텍스트 임베딩 모델 만들기_10.1 임베딩 모델_10.2 대조 학습이란?_10.3 SBERT_10.4 임베딩 모델 만들기_10.5 임베딩 모델 미세 튜닝_10.6 비지도 학습_10.7 요약11장 분류용 표현 모델 미세 튜닝하기_11.1 지도 분류_11.2 퓨샷 분류_11.3 마스크드 언어 모델링으로 미세 튜닝 계속하기_11.4 개체명 인식_11.5 요약12장 생성 모델 미세 튜닝하기_12.1 LLM 훈련의 세 단계: 사전 훈련, 지도 학습 미세 튜닝, 선호도 튜닝_12.2 지도 학습 미세 튜닝_12.3 QLoRA를 사용한 지시 기반 튜닝_12.4 생성 모델 평가_12.5 선호도 튜닝/정렬/RLHF_12.6 보상 모델을 사용한 선호도 평가 자동화_12.7 DPO를 사용한 선호도 튜닝_12.8 요약마치며