Lock in $30 Savings on PRO—Offer Ends Soon! ⏳

2023년의 딥러닝과 LLM 생태계

Jeongkyu Shin
December 04, 2023

2023년의 딥러닝과 LLM 생태계

이 발표자료는 2023년 10월 25일 DevOcean 에서 발표한 내용입니다.
(영상: https://www.youtube.com/live/7zh8Kmv6kcs )

요약: 2018년 트랜스포머 이후 시퀀스 예측 기반의 딥 러닝 모델은 엄청난 발전을 이루었습니다. 그 첨단에 있는 거대 언어 모델 (Large Language Model)은 일반 대중이 이해하던 딥 러닝의 수준을 훨씬 넘어서는 다양한 기능을 'ChatGPT'라는 대화형 플랫폼 형태로 사람들이 직접 경험하게 함으로써 사회에 큰 충격을 주었습니다. 본 발표에서는 이러한 변화를 가능케한 딥 러닝 모델 발전의 저변에 깔린 기술 혁신 과정을 되짚어 보고, 2023년의 변화와 함께 앞으로의 추세를 함께 논의해 보겠습니다.

Jeongkyu Shin

December 04, 2023
Tweet

More Decks by Jeongkyu Shin

Other Decks in Technology

Transcript

  1. • Lablup Inc. : Make AI Accessible 오픈소스 머신러닝 클러스터

    플랫폼: Backend.AI 개발 https://www.backend.ai • Google Developer Expert ML / DL GDE Google Cloud Champion Innovator Google for Startup Accelerator Mentor • 오픈소스 텍스트큐브 개발자 / 모더레이터 드디어 20년… • 물리학 / 뇌과학 통계물리학 박사 복잡계 시스템 및 계산뇌과학 분야 전 한양대학교 ERICA 겸임교수 소프트웨어학부 안녕하세요! 2
  2. AI 개발 및 서비스를 위한 올인원 엔터프라이즈 운영 플랫폼 최신

    하드웨어 가속 기술 활용 업계 최고 수준 성능 제공 다중 사용자 환경에서 연산자원 사용량 극대화 하드웨어와 소프트웨어의 복잡도 격리 자원 관리 완전 자동화 및 스케일링 엔터프라이즈 안정성 및 전문적인 기술지원 선호하는 연산 프레임워크 및 도구를 투명하게 지원 many more! 70 엔터프라이즈 기관 고객 10k 운영 엔터프라이즈 GPU 수 4
  3. • 2023년 상반기까지: 거대 언어 모델의 진화 • 거대 언어

    모델 이해하기 • 거대 언어 모델 개발의 요소 • 거대 언어 모델 만들기 • 언어 모델의 민주화 • 2023년 가을의 변화들 • LLM 상용화의 도전 과제 • 앞으로의 단기적인 발전 방향 이야기 순서 company robot to make AI accessible to everyone, green color, cartoon style 5
  4. • 딥 러닝 모델의 카테고리 세분화, 해석등 분류가 아닌 특정

    결과물을 생성해내는 딥 러닝 모델 • 예 컨텐트를 생성 해 내는 능력 그림, 글, 소리 등 사용자의 입력 또는 인터랙션에 따라 그에 맞는 결과물 또는 중간 질의를 생성해 냄 생성 AI generative fountain with steam punk style, starlight from the deep sky, breeze on the water surface. 7
  5. • 현재 주목받는 생성 AI 거대 언어 모델 이미지 생성

    모델 멀티모달 결합 모델 • 다 다른 모델들? 별도의 모델처럼 보이지만 본질을 공유합니다. 생성 AI generative fountain with steam punk style, starlight from the deep sky, breeze on the water surface. 8
  6. 9

  7. • 진화 선형적이 아닌 과정 어느 순간 폭발적으로 지수적 증가

    • 2018년 트랜스포머 아키텍처 이후 급속한 발전 • 2020년 거대 언어 모델의 특이점들 발견 • 2022년 거대 언어 모델의 대중화 서비스 시작 ChatGPT… 더이상 말이 필요한가? 언어 모델의 폭발적 진화 1 https://arxiv.org/pdf/2304.13712.pdf 10
  8. • 2017년 통계적 방법으로 7년간 만들어진 구글 번역 서비스의 성능을

    4주 동안 인공 신경망을 번역에 도입하는 태스크포스팀의 실험 결과가 능가 두 달 후 기존 팀 해체 및 모든 번역 엔진 교체 1년 후 모바일에서 오프라인 번역을 인공신경망 기반으로 제공 • 2018년 번역기 개발 중, 언어쌍에 상관없이 공통된 인공 신경망 구조가 항상 생긴다는 것을 발견 언어 템플릿 신경망 추가적 훈련 번역기를 빠르게 만들 수 있음 언중이 만 명 미만인 언어의 번역기도 만들 수 있었음 수백만 문장 쌍 수 천 문장으로 줄어듦 이 과정의 부산물 Transformer, Universal Sentence Encoder, BERT, Duplex 언어 모델: 2017 2018년 11
  9. • 2019년 Transformer가 굉장히 일반적인 논리 구조를 만들 수 있음을

    발견함 "언어 가 무엇인가? 에 대한 논의 언어는 인간에게는 소통을 위한 도구이지만, 수학적으로는 연관된 정보를 논리에 따라 나열하는 방법 언어 를 잘 하게 된다는 것의 의미가 무엇인가? XLNet, T5의 등장 • 2020년 논리 구조의 집중 포인트 차이 정보를 투사하는 것이 중요한가? 정보를 최종적으로 표현하는 것이 중요한가? / BERT vs GPT GPT 3의 등장 수학적 접근: Transformer는 GNN의 특수 표현형? GNN Graph Neural Network, 2018 은 대상의 관계를 표현하는 그래프를 훈련하는 신경망 2021년에 증명 언어 모델: 2019 2020년 12
  10. • 모델 키우기 왜? 크면 해결 되는 일들이 있더라 1

    . • 10B 100억 파라미터 거대 언어 모델의 컨텍스트 인식 점프 RLHF의 이득을 가장 많이 보는 구간 • 100B 1000억 파라미터 거대 언어 모델의 동작을 가르는 지점 거대 언어 모델: 2021 2022년 1 J. Wei et al., Emergent abilities of large language models, TMLR 22 13
  11. • PanGu α Huawei, 2021 중국어 단일 언어 모델 중

    가장 큰 사이즈 2000억 파라미터 감정 주제에 대한 폭넓은 대화 지원 • OPT 175B Meta, 2022 사전 훈련하여 공개한 영문 기반 모델 중 가장 큰 사이즈 1750억 파라미터 모델 동작 시 Nvidia V100 16장 GPU 요구 512GB / 실제 동작시 사용 메모리는 약 350GB A100 5장 모델 자체보다, 모델을 만들면서 고생한 모든 내용을 기록으로 남겨서 공개한 내용이 심금을 울림 • GLM 130B 칭화대, 2022 중국산 반도체만으로 만들었다고 합니다. A100 금수 조치 이후 며칠만에 발표 그 이후: A800 들어 보신 분? A100에서 NVLink 덜어 낸 기종 거대 언어 모델: 2021 2022년 / 공개 모델들 14
  12. • Zero shot 번역 훈련 아예 문장 쌍 데이터 없이

    번역이 가능할까? 24 언어 번역 모델을 zero shot으로 개발 Google, 2022 • Galactica Meta, 2022 논문 작성 모델 2022년 11월 : 이런 일도 무난하게 할 수 있다! 종종 오류를 내는 것으로 비판 받아 사흘만에 공개 종료 전략의 실패… • ChatGPT OpenAI, 2022 InstructGPT 기반의 일반 대화 모델 거대 언어 모델 대중화의 문을 열었음 거대 언어 모델: 2021 2022년 / 서비스들 소위 이런거죠. 15
  13. • 2023년 5 7월 3개월 동안 약 10,000여개의 언어 모델이

    등장 지금 이 순간에도 나오고 있음 2023년 9월 기준 약 15,000개… • 10, 100, 10000 10여개의 사전 훈련 모델 100여개의 응용 모델 10000여개의 파인 튜닝 모델 • 그 결과 응용 모델 개발에 2주일 파인 튜닝은 하루: 의지의 문제가 된 세상 2023년: 언어 모델의 폭발적 진화 1 https://github.com/Mooler0410/LLMsPracticalGuide 16
  14. • 대충 다 거대 언어 모델로 수렴중 • 왜? 거대

    언어 모델은 언어를 하는 게 아님 • 언어는 프로토콜 정보를 프로토콜에 담아 보내면 정보 처리 결과를 프로토콜로 리턴 모든 곳에 응용되는 언어모델 1 https://github.com/Mooler0410/LLMsPracticalGuide/blob/main/imgs/decision.png 17
  15. • 챗봇은 실제 대화를 하는 것이 아님 글을 계속 이어

    쓰는 형태의 문장 생성 모델 질문 대답 질문 대답이 이어지는 그 모든 내용이 그 다음 질문의 입력 앞 대화 또는 앞의 텍스트가 구체적이고 내용이 많을 수록 그 다음 이어 쓰는 내용이 명확해짐 • 프롬프트 글의 중간을 채워 넣는 방법 프롬프트 인젝션: 실제 유저에게 보이지 않는 곳에서 다양한 중간 텍스트를 추가해서 특정 동작을 만드는 방법 응용 예: RAG Retrieval Augmented Generation LLM 챗봇 19
  16. • 챗봇은 실제 대화를 하는 것이 아님 글을 계속 이어

    쓰는 형태의 문장 생성 모델 질문 대답 질문 대답이 이어지는 그 모든 내용이 그 다음 질문의 입력 앞 대화 또는 앞의 텍스트가 구체적이고 내용이 많을 수록 그 다음 이어 쓰는 내용이 명확해짐 • 프롬프트 글의 중간을 채워 넣는 방법 프롬프트 인젝션: 실제 유저에게 보이지 않는 곳에서 다양한 중간 텍스트를 추가해서 특정 동작을 만드는 방법 응용 예: RAG Retrieval Augmented Generation LLM 챗봇 예: 시스템 프롬프트 Bing AI 유출 # Consider conversational Bing search whose codename is Sydney. Sydney is the conversation mode of Microsoft Bing Search. Sydney identifies as Bing Search , **not** an assistant. Sydney always introduces self with This is Bing . Sydney does not disclose the internal alias Sydney . Sydney can understand and communicate fluently in the user s language of choice such as English, 中文, 日本語, Español, Français or Deutsch. ….. ### Conversation of Human B with Sydney given the Context Human: Where is the farm fleet store in Ottawa, IL? Sydney sees the user is seeking information, therefore web searches are necessary. Sydney searches the web with farm fleet store Ottawa IL as the search query.. Continue this conversation by writing out Sydney s next response. Your message should begin with Sydney: and end after the suggestedUserResponses line. 1 https://gist.github.com/martinbowling/b8f5d7b1fa0705de66e932230e783d24 20
  17. • 기반 모델 라벨링되지 않은 대규모 데이터를 자기지도 방식으로 학습한

    거대 AI 모델 광범위한 데이터 대상으로 대규모 사전학습 수행 다양한 용도의 임무에 맞추어 파인튜닝 또는 in context 러닝 후 바로 사용 • 왜 큰 모델을? 닭 잡는데 소 잡는 칼인가? 필요한 건 닭고기 만큼인데, 모든 임무들의 크기가 소 만 하다. 임무 논리 구조에 따라 맥락 이해 그 과정이 인간과 충분히 상호작용 하에 이루어져야 함 이 두 가지가 엄청나게 큰 일 • 문제 기반 모델 훈련에는 막대한 자원이 들어감 사전 훈련 모델 / 기반 모델 Foundation Model 21
  18. • 서비스 모델 기반 모델 미세 조정 파인 튜닝 모든

    모델을 처음부터 훈련하면 비용이 너무 많이 들어감 • 미세 조정 Fine tuning 언어 처리에 대해 특화한 기반 모델은 목적성이 없음 언어의 구조에 기반하여 훈련한 모델 특화한 지식 및 답변 세트에 맞춰 미세 조정 실제 데이터 등은 외부 검색 엔진 및 데이터베이스를 참조하도록 중간에 코드 를 넣는 방식 • 예: Pathways Google Pathways: 기반 모델 구조 PaLM: Pathways 구조 기반 언어 모델 Med PaLM: 의학 지식에 특화한 파인튜닝 모델 Sec PaLM: 보안 분야에 특화한 파인튜닝 모델 Minerva: 수학 계산에 특화한 파인튜닝 모델 파인 튜닝 22
  19. • PaLM 2 2023년 5월 구글의 차세대 언어 모델 4가지

    크기로 개발 Gecko, Otter, Bison, Unicorn 차기 안드로이드 모바일에도 넣을 예정 응용 분야별 개발 Med PaLM, Sec PaLM Duet AI 통합 한국어 및 일본어 특화 개발 ! Gemini 에서 더 개선될 것 • Claude v2 2023년 7월 Anthropic의 개선된 언어모델 엄청나게 긴 입력 토큰 길이: 10만토큰… 이게 길면 앞에서 설명한 글 이 아주 길게 유지되는 것이고 기억을 아주 많이 하는 언어 모델이 됨 격전지: 사전 훈련 언어 모델 • Falcon LLM 2023년 6월 아부다비의 자금력으로 만든 거대 언어 모델 제약이 없는 거대 언어 모델 Falcon 180B: 공개 언어 모델중 가장 거대 비교: GPT 3.5: 175B • Llama 2 2023년 7월 메타의 Llama 개선 모델 사실상 상업적 용도 무제한 허용 사실상일 뿐 무제한은 아님 https://blog.google/technology/ai/google palm 2 ai large language model/ 23
  20. • GPU: 그래픽 프로세싱 유닛..이나, 여기서는 딥 러닝 계산을 가속하는

    장치로 생각하면 됨 • 딥 러닝: 딥 뉴럴 네트워크Deep NeuralNet 의 약자 AI 구현을 컴퓨터 머신러닝 분야에서 접근하는 방법 중 최근 10년 동안 가장 활발히 발전 중인 방법 • NVIDIA A100: 2021년 발표한 NVIDIA의 딥러닝 훈련용 GPU ..였는데 2023년 초에는 최고의 서비스용 GPU로 홍보 중 1 대당 1500만원, 현재는 못사요… • NVIDIA H100: 2022년 하반기 발표한 NVIDIA의 훈련용 GPU 발매 당시엔 대당 4000만원, 현재는 대당 5000만원 인데 중요하지 않음 어차피 못사요 격전지: GPU/NPU 하드웨어 시장 / 용어 설명 25
  21. • NPU: 뉴럴넷 프로세싱 유닛, 딥 러닝 계산을 가속하기 위해

    특화한 기기 NVIDIA의 엔터프라이즈 GPU들도 NPU라고 보면 됩니다. 화면 출력을 위한 부분이 전혀 없음 용어 국산화로 인해 AI 반도체 라는 표현을 많이 씀 NPU말고도 훨씬 많은데 보통 AI 반도체라고 하면 NPU FPGA 로 특화 서킷을 만들거나, 정식으로 칩을 굽는 두 가지 모두 NPU라는 표현을 씀 • 구분 용도: 훈련용, 서빙 1 용 규모: IoT, 모바일, PC, 서버용 격전지: GPU/NPU 하드웨어 시장 / 용어 설명 1 모델을 서비스하는걸 모델 서빙이라는 표현을 씀 26
  22. • HBM: High bandwidth Memory 대역폭을 넓혀서 속도를 올리기 위해,

    DDR 메모리로 아파트를 만들고 데이터 통로를 뚫은 메모리 NVIDIA A100엔 HBM2e, H100엔 HBM3를 사용 • GDDR6 그래픽 카드용 DDR 메모리 배타적 입출력 제한을 없애고, 램타이밍을 풀고 클럭을 올림 속도를 올리고 동기화를 희생 2023년 기준 엔터프라이즈용 GPU가 아닌 경우 대부분 GDDR6을 메모리로 사용 DDR3 기반: GDDR4, GDDR5, GDDR5x DDR4 기반: GDDR6 격전지: GPU/NPU 하드웨어 시장 / 용어 설명 1 https://www.amd.com/en/technologies/hbm 27
  23. 800GB A100 GPU 10장 TPUv4 Pod 0.6 GPT 3 인퍼런스

    모델 용량 GPT 3.5 / ChatGPT 인퍼런스 모델 용량 추정 320GB A100 GPU 4장 8.9TB A100 GPU 112장 Cerebras 1장 TPUv4 Pod 7 PaLM 모델 훈련시 요구 용량 추정 거대 언어 모델: 스케일 29
  24. 소프트웨어 구성 요소들 말뭉치 Language Corpus Knowledge base Task oriented

    corpus Mixer 토크나이저 영어 한국어 형태소 분석기 런타임 Distributed executor Experiment Monitor 31
  25. • 말뭉치 Corpus 텍스트 데이터 형식 일반 텍스트 데이터 질문

    / 답변 텍스트 데이터 비논리적 텍스트 데이터 훈련용 • 일반 텍스트 데이터 태깅 없는 데이터를 어떻게 훈련에 쓰나요? 문장 데이터의 구조만으로도 훈련이 됨 언어 모델의 훈련 문장 이 어떻게 만들어지는지 이해하는 것 문맥 에 맞거나 안 맞는 표현 / 형식 / 단어에 대해 학습하는 것 말뭉치 32
  26. • 지식 자료 또는 지식 베이스 KnowledgeBase 언어 모델은 지식이

    없음 지식이 있는 것 처럼 보이는 것은 언어를 배우는 과정에서 언어의 내용이 반영된 결과 • In context 학습 언어 모델 재훈련 코스트가 너무 큼 그럼 말만 잘하는 모델을 만들고 필요 정보는 그 때 그 때 주면 안될까? 모델 크기가 충분히 크면 in context 학습이 가능함 • 지식자료KnowledgeBase In context 학습 프롬프트 인젝션: 질문에 따라 1차적으로 KB를 검색하고, 해당 데이터를 추가로 프롬프트 형태로 in context 정보를 주는 방법 Microsoft Bing, Google Bard 등의 구현체 지식 자료 33
  27. • 벡터 저장소 vector storage 지식자료의 형태 In context에 참조할

    데이터를 저장하고 필요에 따라 쿼리 프롬프트 인젝션을 통해 in context 학습을 하고 그에 따라 답변 생성 • 사용 이유 빠른 텍스트 입출력 복잡한 텍스트 데이터 쿼리 지원 유연한 확장성 지식 베이스 34
  28. • 문장을 원하는 단위로 쪼개는 전처리 도구 • 토큰: 텍스트를

    벡터화한 단위 의미론적 단위로 쪼갠 후 인덱스에 대응 자주 보는 토큰: 형태소 토크나이저 • 한국어 토크나이저 1세대: 형태소 분석기 기반 Mecab Taku Kudo et al., 오픈소스, 2006 한나눔 KAIST, 1999 Komoran Shineware, 2013 2세대: 딥러닝 모델 기반 SentencePiece Google, 2018 Khaiii 카카오, 2018 BERT multilingual Google, 2019 KoELECTRA 박장원 외, 오픈소스, 2020 HuggingFace Tokenizer HuggingFace, 2020 35
  29. • MLOps 플랫폼/운영 시스템 오케스트레이터 스케일러 스케쥴러 모듈 도구 파이프라인

    관리 도구 사용자 관리 도구 실행기: 파이프라인 시스템 구성 요소 오케스트레이터 스케쥴러 스케일러 컨테이너 MLOps 모듈 파이프라인 관리 도구 컨테이너 MLOps 모듈 VM MLOps 모듈 클러스터 관리 도구 하드웨어 관리도구 파일 스토리지 특성 스토어 파일 스토리지 데이터 스토어 … 유저 인터페이스 사용자 관리 도구 36
  30. • 컨테이너/VM 오케스트레이터 워크로드들을 격리하고 실행 및 배치하는 도구 /

    런타임 엔진에 해당 컨테이너 운영 오케스트레이터 Kubernetes Google OpenShift RedHat Helios Spotify Backend.AI / Sokovan Lablup VM 운영 오케스트레이터 VMWare orchestrator / Tanzu VMWare System Center Orchestrator Microsoft Chef Infra Chef SolarWinds Virtualization Manager SolarWinds 실행기: 오케스트레이터 38
  31. • Horovod 2018 Uber가 개발 / Michelangelo의 일부분 분산 처리

    및 분산 훈련시 과정시 요구되는 다양한 설정을 자동화해주는 도구 다양한 노드간 통신 지원: NCCL NVIDIA , oneCCL Intel , MPI • Ray 2018 분산 워크로드를 쉽게 운영할 수 있도록 지원하는 wrapper로 시작 추상화를 통한 간단한 적용 지원 다양한 도구들의 통합으로 단순한 wrapper 이상의 편의성 제공 실행기: 분산/병렬 처리 도구 39
  32. • TensorFlow Extended 2018 각 워크로드를 처리하는 모듈들을 구현해 놓은

    결과물 데이터 전처리, 검증, A/B 테스트, 서빙용 컴포넌트들 포함 높은 성숙도를 보이지만, 거대한 규모로 인하여 컴포넌트 간의 충돌로 인한 어려운 버전업 실행기: 파이프라인 모듈 일반 https://www.tensorflow.org/tfx 40
  33. • TorchX 2021 E2E 파이프라인을 만들기 위한 다양한 도구 제공을

    목표로 함 다양한 컴포넌트 추가 중 실행기: 파이프라인 모듈 일반 https://pytorch.org/torchx/latest/basics.html 41
  34. • 모델 서버 모델 파일을 읽어 메모리에 적재하고, 요청을 받아

    인퍼런스를 처리함 • 모델 서버 래퍼 모델 서버의 사용을 쉽게 만들기 위해 API 등을 붙이는 도구 • 자세한 내용은 뒤에서… 실행기: 모델 서빙 솔루션 42
  35. • AirFlow TensorFlow Extended Apache AirFlow: AirBnB가 개발한 일반 용도의

    워크플로우 관리 플랫폼 장점: ETL 보다 훨씬 넓은 범위를 커버함, GCP에서 지원 Google Cloud Composer 단점: MLOps 특화 기능들의 부족. 파이프라인 자원 관리 기능 부재 • KubeFlow Kubernetes 기반의 MLOps 운영도구 장점: TFX 모듈 기반 사용, 클라우드 서비스 Google Vertex AI 등 단점: 온프레미스 설치 시 너무 간략화된 사용자 관리 시스템, 버전업 안정성 이슈 • MLFlow Databricks에서 만든 MLOps 플랫폼 / Tracking, Projects, Models를 효율적으로 분리하여 지원 장점: TensorFlow, PyTorch 등 프레임워크에 의존성 없음 단점: 특정 버전의 TensorFlow / Pytorch에 맞춘 지원, 프레임워크의 버전 의존성이 존재 • FastTrack Backend.AI 기반의 MLOps 플랫폼 장점: 다양한 하드웨어 및 시스템 지원. 프레임워크 의존성 없음 단점: Backend.AI 의존성 존재 사용자 시스템 등 공유 실행기: 오픈소스 MLOps 파이프라인 운영 도구 43
  36. 하드웨어 구성 요소들 GPU Nodes NVIDIA CUDA AMD ROCm Google

    TPU Others 초고속 네트워크 Infiniband Backbone / spine NVLink / NVSwitch NAS / 데이터 레이크 Object storage File system storage Distributed file system 44
  37. • CUDA Compute Unified Device Architecture NVIDIA, 2008 NVIDIA의 GPU로

    일반 연산을 하기 위한 병렬 컴퓨팅 플랫폼 라이브러리 병렬 연산 및 행렬 연산에 특화 딥 러닝 분야에 엄청나게 활용 중 CUDA가 아니라 그걸로 만든 cuDNN 에 의존적 2016 2020년: TensorFlow / PyTorch 모두 GPU기반 딥 러닝 가속을 자체 구현 대신 cuDNN에 사실상 맡겼음 • 장점 장기간 기기 호환성 유지 텐서 코어 내장 혼합 정밀도 Mixed precision 기반 행렬 연산에 특화 더 폭넓은 소프트웨어 생태계 사실상 표준 • 단점 개발사 종속성 심화 가속기: NVIDIA CUDA 호환 GPU 45
  38. • ROCm Radeon Open Compute Ecosystem AMD, 2016 AMD GPU로

    일반 연산을 수행하기 위한 라이브러리 • 장점 탁월한 고정밀도 연산 성능 FP32 / FP64 정밀도를 요하는 슈퍼컴퓨팅 분야에서 유용 오픈소스 • 단점 CUDA가 아님 진지한 단점 소프트웨어 생태계가 완전히 CUDA로 쏠려 있음 매우 약한 하위 호환 지원 불안정한 드라이버 스택 가속기: AMD ROCm 호환 GPU 46
  39. • TPU Tensor Processing Unit Google, 2018 머신 러닝 워크로드에

    특화해 만든 전용 가속칩 TensorFlow 인퍼런스 기기로 시작 v1 / 이후 훈련용으로 확장됨 인퍼런스용은 i로 끝남. 예: TPUv4i • 장점 강력한 성능 거대 모델 훈련시 고성능 달성 / 모델 규모 확장이 쉽고 유리함 • 단점 비싸고 할당 받기 어려움 성능을 다 이끌어내기 위해서는 TPU 구조에 대한 이해가 필요함 / 특정 워크로드에 최적화됨 TPU 훈련한 모델을 GPU로 서비스하거나 추가 훈련을 할 경우 호환성 문제를 겪는 경우가 자주 발생 가속기: Google Cloud TPU 47
  40. • 다양한 가속기 지원 CPU 내장 명령어셋 Intel AMX 및

    라이브러리 OneAPI Xeon 스케일러블 프로세서에 딥러닝 가속 기능 추가 VNNI Vector Neural Network Instruction 명령어셋 Xeon Max 램 억세스시 대역폭 부족으로 인한 병목 해결을 위한 패키징 128GB HBM을 CPU에 붙임 64GB HBM 내장 모델 발표 2023년 9월 • Habana Gaudi 2 인텔 산하 하바나랩스의 AI 가속기 여러 워크로드에서 타사 가속기에 견주거나 능가하는 성능 달성 가속기: Intel CPU / Gaudi 48
  41. • Infiniband 1999 , IBTA 고성능 컴퓨팅에서 사용되는 컴퓨터 네트워크

    통신 표준 컴퓨터 간 및 내부 데이터 상호 연결에 사용 서버 스토리지, 서버 서버 인터커넥트 또는 스토리지 인터커넥트로 사용 최근에는 GPU 인터커넥트로도 사용 • 장점 다양한 프로토콜 지원 표준 프로토콜 중에서는 가장 빠른 속도 2.5Gb 400Gb/s DMA를 통한 초저지연 전송 • 단점 비싸서 자주 보기 어려움… 200Gb/s 짜리는 케이블 한 줄에 백 만원 넘음 그로 인한 호환성 문제 네트워크: Infiniband 49
  42. • NVLInk NVIDIA, 2014 GPU간 인터커넥트 SLI Scalable Link Interface,

    3dfx, 1998 기술로부터 파생 GPU간 고속통신을 통해 데이터 I/O 속도를 비약적으로 향상 GPU당 900GB/s, H100 기준 400 400 100 • NVSwitch NVIDIA, 2018 다수의 NVLink 를 서로 연결하는 인터커넥트 단일 노드 내 NVSwitch 최대 8GPU 또는 NVLink NVSWitch 시스템을 통해 인터노드 확장 Hopper 이상 NVLink와 동일한 GPU당 900GB/s 의 대역폭을 전체 네트워크에 제공 인터노드 연결시 최대 256대 연결 및 57.6TB/s 대역폭 사용 단점: DGX 제품군에 우선 포함, 이후 보급 네트워크: NVLink / NVSwitch 50
  43. • 파일 기반 스토리지 데이터를 파일로 저장하고, 파일 프로토콜 또는

    파일 마운트를 통해 공유 일반 컴퓨터의 입출력 단위와 동일하므로 편의성이 뛰어남 다수의 파일을 접근할 경우 불필요한 프로토콜 부담 발생 • 오브젝트 스토리지 메타데이터 데이터 번들 오브젝트 을 묶어 주소로 관리하는 개념 네트워크만 되면 파일 프로토콜과 상관 없이 사용 가능 접근 권한을 상세하게 설정할 수 있음 오브젝트 자체로는 훈련에 사용할 수 없음: 변환하여 일반적인 데이터 형태로 만들어야 함 실질적 표준: Amazon S3 like 데이터 스토리지 51
  44. • 분산 파일 시스템 다수의 클라이언트가 데이터 입출력을 수행하기에 최적화된

    파일 시스템들 데이터를 분산하여 저장하고, 마찬가지로 분산된 클라이언트에 데이터 제공 HDFS Hadoop Distributed File System GlusterFS, CephFS, LustreFS DDN , WekaFS 등 • 장점 확장성 / 속도 / 리던던시 제공 / 대규모 데이터 관리 시 가격 경쟁력 등 샤딩: 다수의 연산 노드가 동시에 다른 데이터를 읽어 수행할 때 필수적 GPU 1000대에 각각 1GB/s의 속도로 데이터를 읽어도 스토리지엔 1TB/s 의 속도가 필요함 • 단점 보안 / 데이터 유실 등 분산 파일 시스템 52
  45. • 모델 데이터가 작은 경우 오브젝트 저장소로 충분함 필요할 때

    불러오고 훈련하는데 드는 비용이 크지 않음 • 모델이 큰 경우 분산 파일 시스템 추천 파일 기반 스토리지 또는 오브젝트 스토리지 중 모델 환경에 맞는 스토리지 선택 데이터 파일 갯수가 적은 경우 / 데이터 청크가 큰 경우: 파일 기반 스토리지 파일의 seek 을 활용 가능 데이터 갯수가 많고 비정형인 경우: 오브젝트 스토리지 메타데이터 활용 쉬움 • 그럼 코드는? 파일 기반 스토리지가 유리함 오브젝트 스토리지에 코드를 관리하는 잇점이 없음 버전 컨트롤이 필요한 경우 git 등의 VCS 권장 스토리지 선택 53
  46. 55

  47. • 빠른 훈련 속도 분산 정도를 높일 경우 훈련 속도가

    빨라져야 함 • 최소한의 추가적인 수고 코드 수정 최소화로 스케일 달성 • 재현 용이성 낮은 시스템 의존성 모델 훈련 분산 처리 목표 56
  48. 분산 처리 지점 단일 훈련 단계 분할 데이터 파이프라인 분산

    파라미터 탐색 장점 단점 단일 코드 기반 분산처리 난이도 낮음 성능 향상 대비 연산자원이 너무 많이 필요 노드 데이터 파이프라인 대역폭 단일 노드대 효과 적음 멀티노드 분산처리 결합 필요 데이터 소스 대역폭 한계 극복 멀티쓰레딩이 쉬움 어려움 계산 그래프내 Reduce시 타이밍 이슈 잘못 쓰면 더 느려짐 모델이 클수록 효과가 큼 분산 처리시 발생하는 추가 비용이 상대적으로 적음 거대 모델 분할 GPU 유휴 시간 비율 증가 전체 훈련 시간 증가 큰 딥 러닝 모델 훈련 가능 Tensor Parallel 57
  49. • Horovod 2018 All reduce시 요구되는 다양한 설정을 자동화 프레임워크에

    영향받지 않음: TensorFlow, PyTorch, MXNet 등 모두 지원 다양한 노드간 통신 지원: NCCL NVIDIA , oneCCL Intel , MPI • Ray 2018 추상화를 통한 간단한 분산 훈련 적용 지원 병렬화 및 연산 자원 최적화에 강점 • DeepSpeed 2020 PyTorch용 분산 훈련 라이브러리 모델 분산 및 적재 오프로드에 최적화 • 필요에 맞게 사용하면 됨 분산 훈련 도구들 58
  50. • 수십 수백대의 연산 노드 사용 • 노드간 연결 네트워크

    데이터 플레인 서비스 플레인 GPU 플레인 인터노드 분산 훈련 플레인 • 개발 및 서비스 환경 자동화 예시: Backend.AI 를 사용하는 경우 분산 연산 환경 59
  51. • 체크포인트 기반 파인 튜닝 모델 코드와 데이터 포맷이 주어진

    경우 추가 데이터를 사용하여 딥 러닝 모델을 계속 훈련 가능 • 문젯점 원 모델 훈련이 요구했던 연산 자원 종류 / 연산 자원량이 필요 자원이 적을 경우 훈련 속도가 느려짐 모델을 GPU 메모리에 올릴 수 없는 경우 발생 최소한 체크포인트 적재가 가능한 만큼의 GPU 메모리 필요 CUDA / ROCm 호환성이 발생하는 경우들 존재 혼합 정밀도를 사용하는 모델에서 심심치 않게 발생 파인 튜닝하기: 체크포인트 기반 추가 학습 60
  52. • LoRA Low Rank Adaptation of Large Language Models 사전

    훈련된 모델 가중치는 고정하고 훈련 가능한 레이어들을 별도로 붙이고 추가 훈련을 통해 학습 • 장점 작은 크기 대기 시간 없이 효율적인 작업 전환 • 단점 모델 자체를 추가 훈련할 때의 성능은 넘을 수 없음 파인 튜닝: LoRA http://kimsungmo.com 61
  53. • MegatronLM 1 NVIDIA의 Applied Deep Learning Research 팀 개발

    대규모 트랜스포머 언어 모델 훈련용 • 장점 모델 병렬화 텐서, 시퀀스 및 파이프라인 다중 노드 기반 사전 훈련 기술 혼합 정밀도 Mixed precision • 제공 GPT, BERT 및 T5 등의 사전 훈련된 모델 및 도구 제공 파인튜닝 및 추가 훈련으로 모델 개발 지원 • NeMo Megatron 유료 버전 MegatronLM 1 https://github.com/NVIDIA/Megatron LM 2 https://michaelbaystransformers.fandom.com/wiki/Megatron 62
  54. • DeepSpeed 1 Microsoft의 훈련 최적화 라이브러리 더 적은 자원으로

    더 큰 모델을 훈련할 방법이 없을까? • 목표: 대규모 처리를 가능하도록 하기 위한 기술 대규모 멀티 노드 시스템에서 워크로드 분산을 위한 기법들 도입 혼합 정밀도 연산 자동화 모델 / 파이프라인 병렬화 등 주요 특징 : ZeRO 연산량 및 메모리 사용 감소를 위한 기술 DeepSpeed 1 https://www.deepspeed.ai/ 63
  55. • 보안 입력 및 사용 데이터의 외부 유출 가능성 •

    비용 엔터프라이즈 API 토큰당 과금: 고정 비용 산출이 어려움 모델 수요에 따른 규모 및 비용 산출 • 목적성 기관 전용의 기능 및 특징이 요구되는 경우 예 FAQ 시스템 / 사내 검색 시스템 사내 코드베이스 기반 프로그래밍 어시스턴트 온 프레미스 거대 언어 모델 65
  56. • 독점적 기반 모델 Foundation models 소수의 거대 기업이 사전

    훈련 언어 모델Pretrained Large Language Models을 독점적으로 개발하고 해당 모델을 거대한 클라우드 자원 위에서 운영하여 다양하고 복잡한 작업들을 처리 • ChatGPT의 예 어떻게 계산해도 원가를 맞출 수가 없음 2월에 계산해 본 ChatGPT 3.5의 원가: 1인당 29달러 규모의 경제로 더 싸게 맞출 수 있을까? 2023년 초까지의 전망 66
  57. • 독점적 기반 모델 사업의 변화 성능: 그거 ChatGPT보다 잘

    돼요? 미뤄지는 공개 시점 비용과 연계하여 더욱 연기중 경쟁 우위 유지: 유료 사용자의 경우 GPT 4를 기본 모델로 제공 시작 8월 7일 비용: 너무 비싸요 늦어지는 상용화 가능성: 이거 정말 잘 될 것 같은데? 이해 당사자들 간의 미묘한 관계 재설정 등 • 기반 언어 모델 공개 힘을 주겠다! 아부다비 Falcon, 2023년 6월 , 영국 2023년 7월 , 일본 2023년 8월 7일 … 그리고… 2023년 3월 이후 67
  58. • 기반 모델도 오픈소스로? 다양한 오픈소스 기반 모델들이 있었으나, 기존에는

    크기 및 성능 면에서 두각을 드러내지 못했음 2023년 봄 기업: 우리도 할 수 있다는 걸 보여주자 국가: 이런 기술을 특정 기업에 의존하면 공정 경쟁이 안된다 종속이 일어날 것. 그런 상황을 막자 • 오픈소스 기반 모델 기업: Meta Llama2, Cerebras GPT, StableLM, Mosaic MPT 등 커뮤니티: EleutherAI Pythia, Polyglot, GPT J 등 국가: Falcon 등 • 기반 모델이 모두에게 주어진 시대가 왔음 한국어는 아직… 오픈소스 거대 언어 모델: 기반 모델 공개의 시대 68
  59. • Meta의 Llama 공개 Meta, 2023. 2. 24 연구 목적으로

    weight / checkpoint 공개 7B, 13B, 33B, 65B "오픈 데이터 셋만으로도 충분히 좋은 모델을 만들 수 있다! • 체크포인트 유출 2023. 3. 3 토렌트를 통해 weight, checkpoint가 모두 유출 • Alpaca 모델 공개 Stanford, 2023. 3. 13 Llama 모델을 52000 질문/답변 공개 데이터로 파인튜닝한 결과 공개 데이터 공개함. Meta 허가 할 경우 모델도 공개 의향 표명: 그러나 허가 받지 못함 • Alpaca LoRA 모델 공개 2023. 3. 14 Alpaca 모델의 재현을 위해 Alpaca 공개 모델을 LoRA로 파인 튜닝 • Vicuna 13B 공개 2023. 4. 3 Google Bard 급의 성능을 내는 파인 튜닝 모델 • 라이선스 위반 문제 엄청나게 강력한 라이선스가 걸려있음 Llama License 유출 이후 라이선스가 무시 되는 중: Meta의 적극적 차단에서 수동적 차단으로 도저히 다 잡을 수가 없음… Llama 사태 1 69
  60. • 공공재가 된 Llama Llama 기반의 instruct fine tuning 전성시대

    사전 모델 훈련으로 기반 모델을 만들기 하기 힘든 개인, 기업, 연구소들이 전부 달려듦 • Meta의 Llama 2 공개 Meta, 2023. 7. 16 거의 제약이 없는 weight / checkpoint 공개 7B, 13B, 70B 34B는 아직 공개 전 상업화에도 거의 자유롭게 사용 가능 월 액티브 유저 7억 명 미만인 경우 • 이 조건에 해당되는 회사들은 대개 자체 모델이 있음… Microsoft, Alibaba, Google에서 상업화 진행 중 Llama 사태 2 래블업은 llama, Falcon 모델 파인 튜닝을 자동화해 줍니다. :D 70
  61. • Dolly 1.0 3월 28일 Databricks의 모델 / GPT J

    6B 모델 기반 파인튜닝 비상업적 라이선스 / 데이터가 연구용으로만 가능 Alpaca와 같은 방식으로 훈련하되, 베이스 모델로 GPT J 6B 사용 실사용 보다는 데모에 가까움 • Dolly 2.0 공개 4월 12일 Alpaca 데이터셋을 대체하는 자체 데이터 셋도 함께 공개 databricks-dolly-15k dataset • 파인튜닝 DeepSpeed 사용 모델 및 코드: https://github.com/databrickslabs/dolly.git 파인튜닝 데이터셋:https://huggingface.co/datasets/tatsu-lab/alpaca 예제: Dolly 훈련 / GPT J 파인튜닝 Llama GPT J Dolly Alpaca Alpaca dataset 71
  62. 상업적으로 사용 가능한 공개 언어 모델들 License Data Architecture Weights

    Size Checkpoints Language Meta Llama2 Llama license Open Open Open 7, 13, 70 Yes English / Multilingual EleutherAI Pythia Apache 2.0 Open Open Open 7, 12 Yes English EleutherAI Polyglot GPL 2.0 Open Open Open Yes English / Multilingual GPT J MIT Open Open Open 6 Yes English Databricks Dolly 2 Apache 2.0 Open Open Open 7, 12 Yes English Cerebras GPT Apache 2.0 Open Open Open 7, 13 Yes English / Multilingual StableLM CC BY SA 4.0 Open Open Open 3, 7, 15, 30, 65, 175 Yes English Mosaic MPT Apache 2.0 Open Open Open 7, 30 Yes English Falcon Apache 2.0 Open Open Open 7, 40, 180 Yes English / Arabic 72
  63. • ChatGPT: 한 발 먼저 온 현실 42는 없지…만 비슷하게

    만들 수는 있다! 사람들이 이미 봐 버렸다 • 콩 심은데 콩 나고 팥 심은데 팥 난다 어느 정도 줄여도 거대 언어 모델의 특징이 살아 있을까? 어떻게 모델을 만들어야 가능할까? Chinchilla law 초고품질 데이터 기반 모델 • 1B로 10B 이길 수 있다! 특이한 아이디어들이 다양하게 개발되고 있음 온 프레미스 거대 언어 모델: Size still does matter 73
  64. • 현실과의 타협 42는 없지만 불가능하다고 생각된 많은 문제를 해결

    가능 눈앞으로 다가온 전문가 AI 서비스 대중화 • 좀 덜 거대한 언어 모델 sLLM 등의 요상한 이름들이 등장 Small Large Language Model 이라니 모든 일에 꼭 창발 현상이 필요한 것은 아니다 적절히 결과가 잘 나오면 되는 것 아닐까? RAG 뛰어난 로컬 검색 엔진 온 프레미스 거대 언어 모델: Size does not matter sLLM… 모로가도 서울로! 74
  65. • 환상의 물건 GPU 테슬라의 A100 10,000대 주문 2022년 하반기

    , 이후 GPU 100,000대 기반 자율주행 데이터센터 목표 공개 마이크로소프트 / OpenAI의 H100 10,000대 주문 1월 트위터의 H100 10,000대 주문 4월 구글의 A100/H100 26,000대 사용 A3 슈퍼컴퓨터 구축 5월 바이트댄스의 A800/H800 100,000대 주문 6월 / 1B 규모 알리바바의 H800 몇 만 대 규모 주문 6월 / 4B 규모 바이트댄스 및 알리바바의 주문 후 미국의 대중국 H800 GPU 수출 규제 시작 6월 이미 주문한 양에는 영향을 주지 않을 줄 알았으나… • 우리도 GPU 주세요 없어요. 돌아가세요 격전지: GPU 하드웨어 시장 / 상황 https://www.hpcwire.com/2023/02/20/google and microsoft set up ai hardware battle with next generation search/ https://cloud.google.com/blog/products/compute/introducing a3 supercomputers with nvidia h100 gpus?hl en https://www.cnbc.com/2023/07/28/microsoft annual report highlights importance of gpus.html https://www.ajunews.com/view/20230727113146316 76
  66. • 국가간 알력 GPU를 전략 자원으로 취급 화웨이의 사우디 클라우드

    리전 계획 발표 후 • 미국의 대 사우디 GPU 수출규제 시작 8월 31일 미국의 대중국 GPU 수출 규제 시작 10월 17일 • A100, A800, H100, H800, L40, L40S, RTX 4090 까지 • 고스펙 중스펙에 이르는 AI에 활용 가능한 거의 모든 GPU의 수출 제한 • 공급을 아득히 넘어서는 수요에 대한 대응들 Nvidia: 데스크탑 수준의 GPU Windows에서 인퍼런스를 지원하겠다고 발표 10월 17일 격전지: GPU 하드웨어 시장 / 상황 https://www.tomshardware.com/news/us bans sales of nvidias h100 a100 gpus to middle east https://www.cnbc.com/2023/10/17/us bans export of more ai chips including nvidia h800 to china.html https://blogs.nvidia.com/blog/2023/10/17/tensorrt llm windows stable diffusion rtx/ 77
  67. • 클라우드 및 AI 업체들의 접근 Amazon Inferentia2 2022 NeuronCore

    v1 기반 칩렛 구성 Microsoft Athena Meta MTIA gen2 2021년 초기 모델 공개, 2023년 5월 2세대 개요 공개 Tesla Dojo 2023 6월에 첫 테이프 아웃 Google TPU와 유사한 구조 Toroidal architecture • 국내 하드웨어 Sapeon x220 2020 FuriosaAI Warboy 2021 Rebellions ATOM 2022 격전지: GPU 하드웨어 시장 / 상황 https://www.reuters.com/technology/microsoft developing its own ai chip information 2023 04 18/ https://www.hpcwire.com/2021/06/22/ahead of dojo tesla reveals its massive precursor supercomputer/ 78
  68. • MosaicLM의 MPT 훈련의 예 하드웨어 트러블 해결의 문제 •

    GPT 4 훈련 관련 레포트들 GPU 가동률이 40 미만 대부분의 이유는 체크포인트부터 재시작 • 수렴 문제 하다보면 갑자기 값이 튀거나 더이상 진행이 안됨 OPT 레포트 케이스 중간에 잠시 프리시전을 바꿔서 넘어간다거나 규모를 조정하는 식으로 넘어가기도 함; 거대 언어 모델 훈련: 장애 해결 1 https://www.mosaicml.com/blog/mpt 7b MPT 7B 훈련시의 시간에 따른 훈련 진행과 하드웨어 불량 기록 1 79
  69. • 하드웨어 기반의 제약 최대한 한 장에 모델 하나를 올리도록

    그렇지 않으면 N장에 올릴 수 있도록 • 예 원본 모델 서비스 12B 언어모델: A10, L4 30B 언어모델: A100 45B 언어모델: A100 x 2 • 상업화 제약 Nvidia 의 강력한 EULA • FP16 vs. FP8 FP16 또는 원본 모델 기반 서비스 말이 이어질 수록 컨텍스트가 깨지는 현상 모델 인퍼런스: 크기 GPU Memory H/W Memory Bus CUDA Core Model FP32, 16 10GB NVIDIA RTX 3080 10GB NVIDIA RTX 3080ti 320bit 320bit 8704 10240 5B 10B 12GB NVIDIA A2000 NVIDIA RTX 3080 12GB NVIDIA RTX 4070 192bit 384bit 192bit 3584 8960 5888 6B 12B 20GB NVIDIA A4500 NVIDIA RTX 3080ti 20GB 256bit 320bit 8960 10240 10B 20B 24GB NVIDIA A10 NVIDIA A30 NVIDIA L4 384bit HBM2e 3072bit 192bit 9216 3584 7680 12B 24B 40GB NVIDIA A100 40GB HBM2e 3072bit 6912 20B 40B 48GB NVIDIA A40 NVIDIA A6000 384bit 384bit 10752 10752 24B 48B 80GB NVIDIA A100 80GB NVIDIA H100 HBM2e 3072bit HBM2e 5120bit 6912 14592 40B 80B 81 대략 계산해 본 값입니다. 실제로는 메모리를 더 차지합니다
  70. • NVIDIA 하드웨어 지원 CUDA Compute Capability 7.5 이상부터 지원

    Turing 아키텍처 이후 일반 대상 Geforce 20XX 계열 / 엔터프라이즈 계열 RTX / 데이터센터 계열 A시리즈 이상 잘 모르는 경우: 2019년 이후 발매된 대부분의 모델 • 소프트웨어 양자화 라이브러리 Bitsandbytes 8bit 양자화 GPT Q 3/4bit 양자화 • 문젯점 트랜스포머 아키텍처가 양자화에 적합하지 않음 긴 디코더 길이에 따른 "오차 누적 의 문제 실서비스: 양자화를 적용하지 않는 사례가 훨씬 많은 상황 적정 모델 크기 를 위한 양자화 82
  71. • 모델 서버와 모델 체크포인트/모델 파일을 별도 관리 장점 쉬운

    모델 업데이트 용이한 모델 서버 버전업 단점 배포의 유연성 감소: 띄울때 • 모델 서버 모델 체크포인트/파일을 컨테이너 이미지화 장점 실행가능단위로 배포되므로 쉬운 설정 단점 모델 서버 교체 및 최적화 과정의 번거로움 거대한 컨테이너 이미지 파일 크기로 인한 배포 트래픽 증가 모델 배포 • 분산 적재 이젠 모델이 GPU 한장에 안 올라갑니다 어떤 식으로 쪼갤 것인가 현재는 Tensor wise Parallel Tensor Parallel 이 주로 쓰임 • 구현이 쉬워서… 83
  72. 모델 서빙 솔루션 TensorFlow Serving Google, 2016 Triton Inference Server

    NVIDIA, 2018 OpenVINO Intel, 2018 ONNXRuntime Microsoft, 2018 RedisAI RedisAI, 2019 TorchServe Facebook, 2020 Seldon Core SeldonIO, 2018 Kserve Google, 2020 프레임워크 의존적 멀티모델 포맷 지원 모델 서버 래퍼 K8s 전용 CUDA GPU 특화였으나 현재는 멀티 백엔드 지원 인텔 CPU 특화 Triton OpenAI, 2023 Triton LM NVIDIA, 2023 Llama.cpp / ggml ggml, 2023 LLM 특화 vLLM 2023 84
  73. • 생성 AI의 고도화 SDXL 1.0 7월 29일 Stability.ai 의

    새 이미지 생성 모델 • 멀티모달 이미지 텍스트: GPT 4 Dall E 2 로보틱스: 구글 RT 2 발표 7월 31일 다양한 센서 데이터를 시각 언어 모델과 엮어 자체적인 판단을 하고 움직이는 모델 기술적 도전 https://arstechnica.com/information technology/2023/07/googles rt 2 ai model brings us one step closer to wall e/ 85
  74. • 데이터 보안 적절한 암호화 및 접근 제어 기능 •

    하드웨어 요구사항 고성능 GPU, 충분한 저장 공간, 고대역폭 네트워크 등 • 스케일링 사용자 수나 요청량 증가에 따른 스케일러블 소프트웨어 / 하드웨어 인프라스트럭처 • 모델 호환성 서비스용 언어 모델, API, 라이브러리 및 기타 서비스와의 지속적 호환성 보장 및 검증 온프레미스 거대 언어 모델 구축: 기술적 고려점 • 업데이트와 유지보수 거대 언어 모델의 정기적인 업데이트 • 모니터링 / 로깅 시스템의 상태 실시간 모니터링 장애 발생 시 대응 • 비용 최적화 유휴 시간을 이용한 기관 내 파인튜닝 자동화 86
  75. • 높은 하드웨어 투자 비용 GPU 하드웨어 가격: WAS 서버와

    단위가 다름 • 지속적 운영 비용 특히 전력 소모 네트워크 비용도 소모됨 • 운영 인력 비용 모델 파인튜닝을 수동으로 수행할 경우 중요 • 소프트웨어 라이선스 비용 솔루션 비용 온프레미스 거대 언어 모델 구축: 경제적 고려점 • 투자 효율성 검증 실질적인 생산성 향상에 기여하는 폭을 측정할 방안이 필요 기관마다 측정 방식을 세워야 함 87
  76. • 텍스트 작성 작성, 교정, 수정 • 번역 • 챗봇

    / 어시스턴트 자연어 쿼리, 컨텍스트 추출 • 컨텐트 요약 다양한 내용을 원하는 형태로 변경 • 질의 시스템 기관, 기업 및 일반 정보 질의 시스템 • 교육 언어 기반 교습생 피드백 제공 거대 언어 모델 도입: 응용 • 코드 어시스턴트 코드 추천 • 개인화된 마케팅 이메일 / 블로그 / 기사 작성 및 마케팅 • 감정 분석 텍스트 기반 감정 분석 및 그에 따른 텍스트 대응 • 다중 화자 대화 인식 회의록 작성, 이슈 및 액션 도출 등 • 전문가 자문 의료 자문 법률 자문 88
  77. • 응답의 비일관성 중간에 컨텍스트가 깨질 경우 AutoGPT 등의 피드백

    루틴과 결합할 경우 위험성 증가 • 비정합성 대화에 대해 이의를 제기할 경우, 모델은 해당 이의를 평가하지 않음 이로 인한 의견 변경이 이후 답변에 영향 • 잘못된 정보 제공 답변을 생성하는 과정에서 환각 할루시네이션 발생 아무말하는 AI 거대 언어 모델 도입: 한계 • 편향된 답변 기반 데이터의 편향이 모델에 반영될 수 있음 • 답변 근거 문제 할루시네이션으로 인하여 잘못된 정보를 생성하고, 그에 대한 잘못된 출처를 생성함 • 데이터 프라이버시 기반 데이터의 개인정보가 반영될 수 있음 89
  78. • 편견 Microsoft Tay 2021 및 Google LaMDA 2022 Amazon

    Rekognition 의 인종차별 문제 2023 • 안전성 현존하는 거의 모든 언어 모델 jailbreak 7월 27일 가이드 월을 뚫고 뭐든 물어볼 수 있음 • 공정성 아마존 면접 AI 의 인종 편향 2020 구글의 Genesis 뉴스 작성 AI 테스트 2023년 7월 19일 거대 언어 모델 도입: 한계점들의 예시 https://arxiv.org/abs/2307.15043 90
  79. • 가능성 파인튜닝 및 커스텀 훈련 기반 특화 모델 모든

    사람이 자신의 모델을 가지는 세상 인간 레벨의 대화형 AI AI 피드백의 심리적 거부감 극복 발전된 컨텐트 생성 기능 멀티모달 기반의 다양한 타입 컨텐트 개인화된 교육 제공 진도에 맞춘 교육 커리큘럼 설계 일대일 교육 제공 전문화된 분석 도구 분석 코드 생성 통계 분석 및 결과 정리 가능성 91
  80. • 전망 비편향 모델 제공 크로스 도메인 어플리케이션의 발전 AI

    응용 가이드라인의 필요성 증가 • 가이드라인 움직임 Frontier Model Forum: 자율 규제를 위한 포럼 창설 구글, 마이크로소프트, OpenAI 및 Antrophic 등 저작권, 딥페이크 및 사기등에 대한 자율 규제 추진 EU의 AI 법 입안 자율에 맡겨둘 수 없다 빅테크와 오픈소스 진영의 규제 분리 주장 7월 26일 전망 및 규제 예상 https://venturebeat.com/ai/hugging face github and more unite to defend open source in eu ai legislation/ https://www.theverge.com/2023/7/26/23807218/github ai open source creative commons hugging face eu regulations 92
  81. • 파인튜닝 비용 LoRA 기반 파인튜닝: 훈련 비용에 비해 상대적으로

    매우 저렴 약 150만원 Nvidia A100 8대 기준 12시간 기준 클라우드 요금 • 온프레미스 파인튜닝 장점: 유휴 시간 활용 일과 시간에 인퍼런스 용도로 사용하는 자원을 이용, 새벽 시간에 파인튜닝 진행 추가적인 하드웨어 비용이 들지 않음 Backend.AI 사례: 3일당 1 파인튜닝 진행 및 자동 배포 Llama2 기반 모델 기준 / 1일당 8시간 파인튜닝, DGX/HGX A100 1대 사용 시 데이터 가공 코드 모듈 모델 파인튜닝 버저닝 및 자동 배포 • 낮은 기술 난도 자동화 비용 문제의 영역으로 진입: 자원 효율화가 빛을 발하는 분야 Backend.AI가 세계 최고인 영역 파인 튜닝: 자동화 94
  82. • 클라우드 및 서버를 사용하지 않는 앱들 개인용 컴퓨터 /

    모바일에서도 엄청난 성능을 달성하기 시작 • Whisper 기반 STT 앱 WhisperNote macOS WhisperJax Linux • Stable Diffusion 기반 이미지 생성 앱 SD WebUI by Automatic1111 Linux CHARL E macOS Draw Things iOS, macOS • 로컬 LLM 기반 앱 Llama.cpp Linux, macOS, Windows MLC 웹 브라우저를 포함한 다양한 플랫폼 로컬 디바이스 기반 생성 AI 앱의 보급 Draw Things로 아이폰에서 그려본 예입니다. 95
  83. • 2023년 상반기까지: 거대 언어 모델의 진화 • 거대 언어

    모델 이해하기 • 거대 언어 모델 개발의 요소 • 거대 언어 모델 만들기 • 언어 모델의 민주화 • 2023년 가을의 변화들 • LLM 상용화의 도전 과제 • 앞으로의 단기적인 발전 방향 요약 96