Upgrade to Pro — share decks privately, control downloads, hide ads and more …

[2024-01-22] Backend.AI와 거대 언어 모델: 금융 분석에서 비즈니스...

[2024-01-22] Backend.AI와 거대 언어 모델: 금융 분석에서 비즈니스 인사이트까지

2024-01-22
알짜 기업이 쓰는 진짜 AI - 24년 금융권 AI 도입 전략
올거나이즈 행사 발표자료입니다.

Avatar for Lablup Inc.

Lablup Inc. PRO

January 22, 2024
Tweet

More Decks by Lablup Inc.

Other Decks in Technology

Transcript

  1. Proprietary + Confidential Backend.AI와 거대 언어 모델: 금융 분석에서 비즈니스

    인사이트까지 알짜 기업이 쓰는 진짜 AI 2024. 1. 22 신정규 래블업 주식회사
  2. Proprietary + Confidential • 금융권의 수요 및 난제 • 생성AI의

    기여 • Backend.AI: 금융권을 위한 AI 플랫폼 – (GenAI Desktop, FastTrack, Reservoir) on Backend.AI • 금융 기관 활용 사례 • 마치며 오늘의 주제
  3. Proprietary + Confidential • 실용화된 생성 AI – 거대 언어

    모델 – 이미지 생성 모델 – 멀티모달 결합 모델 • 장점 – 컨텐트 생성하기 ✓ 정보를 주고 생성 – 컨텐트 변용하기 ✓ 컨텐트의 형식/포맷 변경 – 인사이트 도출하기 ✓ 컨텐트 요약 / 정리 / 평가 등 생성 AI generative fountain with steam punk style, starlight from the deep sky, breeze on the water surface.
  4. Proprietary + Confidential • 기반 모델 – 라벨링되지 않은 대규모

    데이터를 자기지도 방식으로 학습한 거대 AI 모델 – 광범위한 데이터 대상으로 대규모 사전학습 수행 – 다양한 용도의 임무에 맞추어 파인튜닝 또는 in-context 러닝 후 바로 사용 • 왜 큰 모델을? – 닭 잡는데 소 잡는 칼인가? – 필요한 건 닭고기 만큼인데, 모든 임무들의 크기가 소 만 하다. – 임무 ✓ 논리 구조에 따라 맥락 이해 ✓ 그 과정이 인간과 충분히 상호작용 하에 이루어져야 함 ✓ 이 두 가지가 엄청나게 큰 일 • 문제 – 기반 모델 훈련에는 막대한 자원이 들어감 사전 훈련 모델 / 기반 모델 Foundation Model
  5. Proprietary + Confidential • 서비스 모델 = 기반 모델 +

    미세 조정 (파인 튜닝) – 모든 모델을 처음부터 훈련하면 비용이 너무 많이 들어감 • 미세 조정 (Fine-tuning) – 언어 처리에 대해 특화한 기반 모델은 목적성이 없음 ✓ 언어의 구조에 기반하여 훈련한 모델 – 특화한 지식 및 답변 세트에 맞춰 미세 조정 – 실제 데이터 등은 외부 검색 엔진 및 데이터베이스를 참조하도록 중간에 코드를 넣는 방식 • 예: Pathways (Google) – Pathways: 기반 모델 구조 – PaLM: Pathways 구조 기반 언어 모델 – Med-PaLM: 의학 지식에 특화한 파인튜닝 모델 – Sec-PaLM: 보안 분야에 특화한 파인튜닝 모델 – Minerva: 수학 계산에 특화한 파인튜닝 모델 파인 튜닝
  6. Proprietary + Confidential • 금융 데이터 분석 자동화 및 인사이트

    도출 – 빅데이터 분석 및 딥 러닝 모델 기반 분석 – 대화형 인사이트 도출 플랫폼 • 코드 작성 – 데이터 분석용 코드 작성 코파일럿 – 엑셀 자동화 VBA용 코파일럿 • 언어 모델 기반 어시스턴트 – 보고서 작성 코파일럿 – 내부 자료 고급 검색 – 자동 뉴스 / 문서 요약 및 분석 금융권의 수요
  7. Proprietary + Confidential • 보안 최우선적 기관 – Air-gapped: 외부

    네트워크 연결 및 인터넷 접속이 불가능 ✓ 생성AI 분야의 엄청난 발전 속도 • 주 단위로 변화 및 혁신이 일어남 – 보안 관제의 필요성 ✓ 반입 / 반출 파일들의 보안 검토 및 적용 필요 – 내부 보안 시스템의 높은 난도 ✓ 시스템 도입 시 • 정확도의 중요성 – 거대 언어 모델의 환각 현상: 사실적 맥락에서 벗어난 컨텐트 생산 • 관리 자동화 – 개발자/연구자 그룹보다 사용자 그룹이 훨씬 큼 – 최대한 많은 개발 및 운영 수요를 자동화할 필요성 금융권의 난제
  8. Proprietary + Confidential – 구성원이 다양한 생성AI 앱을 자유롭게 사용

    – 기관 내 운영으로 보안 문제 원천 제거 – 앱 카탈로그로 다양한 모델 제공 – 정기적인 앱 추가 및 기능 업데이트 – 딥 러닝 워크로드를 돌리는 엔진 소프트웨어 – 세계 최고 성능 달성 – 유연한 규모 확장 금융 시스템 적용 AI 플랫폼 – Hyperscale MLOps 솔루션 – 템플릿 기반으로 바로 가져와 적용 – 다양한 딥 러닝 모델 개발 및 운영 – 데이터 가공부터 내부 서비스 배포 자동화까지 한번에 – 사전 보안 확인이 된 패키지들을 기관내에서 설치 및 사용 – Lablup 저장소 허브 서비스 + 로컬 패키지 서버 – 프라이빗 클라우드, 폐쇄 환경, 오프라인 사이트 – 정기 업데이트 지원 Backend.AI Enterprise GenAI DesktopBETA Backend.AI Reservoir Backend.AI FastTrack
  9. Proprietary + Confidential • Backend.AI – 세계 최고 성능의 AI

    워크로드 분산 처리 및 관리, 실행 플랫폼 – 거대 모델 훈련에 최적화된 기술들을 서비스에도 그대로 적용 • Backend.AI 23.03/23.09: GenAI-ready • 인퍼런스 기능 – Backend.AI Model Serving • 파인튜닝 및 훈련 – Backend.AI FastTrack +GenAI Pipeline • 기관 내부 서비스 – GenAI DesktopBETA Backend.AI: 생성AI 훈련 및 서비스 플랫폼
  10. Proprietary + Confidential • 딥 러닝 기반 데이터 분석 –

    딥 러닝 알고리즘 작성 및 내부 데이터 기반 모델 훈련 – R 지원: 기존 통계 도구 기반 코드들과 딥 러닝 통합 • 보고서 작성 – 개조식 입력 기반으로 만연체 형식으로 변환 – 메모를 개조식으로 변환 – 회의 및 메모 기반의 요약 문서 작성 – 특정 동작들을 사전 정의한 봇 기반 작업 워크플로우 금융권 사용 사례 • 온프렘 클러스터 Llama2-70B 파인 튜닝 – 낮에는 챗봇/어시스턴스 사용 – 밤에는 파인 튜닝 자동화 • GenAI DesktopBETA – 다양한 GenAI 기능들을 기관 내에서 앱처럼 사용 – 다양한 모델 운영 / API 서비스 자동화
  11. Proprietary + Confidential • 인사이트 및 연구 개발 플랫폼 –

    Backend.AI Enterprise • 거대 언어 모델 및 생성 AI 모델 운영 및 사용 – GenAI Desktop • AI 모델 파인 튜닝 – Backend.AI FastTrack • 에어갭 환경의 불편함 해결 – Backend.AI Reservoir 래블업 금융 플랫폼 구조 소개 FastTrack MLOps GenAI Desktop AI Training On-prem Cloud Business Insight
  12. 인사이트 및 연구개발 플랫폼: Backend.AI Enterprise 최신 하드웨어 가속 기술

    활용 업계 최고 수준 성능 제공 다중 사용자 환경에서 연산자원 사용량 극대화 하드웨어와 소프트웨어의 복잡도 격리 자원 관리 완전 자동화 및 스케일링 엔터프라이즈 안정성 및 전문적인 기술지원 선호하는 연산 프레임워크 및 도구를 투명하게 지원 AI 개발 및 서비스를 위한 올인원 엔터프라이즈 운영 플랫폼 솔루션
  13. 인사이트 및 연구개발 플랫폼: Backend.AI Enterprise 독자 기술 개발 및

    협력을 통한 최첨단 가속 기술 통합 아태지역 유일 NVIDIA DGX-Ready software (전세계 17개사) 다양한 하드웨어 플랫폼 벤더들과 기술 협약 및 협력 관계 클러스터 지원 GPUDirect Storage 세계 최초 구현 및 제공 15% Training Performance Boost 97% of theoretical GPU performance achieved 120Gb/s GPUDirect Storage throughput
  14. 인사이트 및 연구개발 플랫폼: Backend.AI Enterprise 다양한 고객 분야에서 검증된

    AI 플랫폼 다양한 분야에서 사용 및 검증 대기업부터 은행, 금융 기관, 의료 기관, 연구소 및 대학 등 75+ 엔터프라이즈 고객 1.6M AI 환경 다운로드 75+ and growing! 10k Enterprise GPUs Managing 500 GPU nodes on Single site
  15. Proprietary + Confidential • 생성 AI를 내 컴퓨터의 앱처럼 –

    Backend.AI 기반 모델 서비스 관리 자동화 – LLM부터 코드 작성 코파일럿, 데이터 분석 및 BI까지 ✓ Llama 7B~70B, Mixtral 8x7B 챗모델 및 파인튠 ✓ RAG 통합 기능 – 데스크탑용 앱의 API 게이트웨이 제공 ✓ 다양한 API 기반 앱들을 사내 자원으로 사용 ✓ 데스크탑 Visual Studio Code 코파일럿 통합 등 • 기관내 다양한 생성 AI 앱 사용 및 운영 – 다양한 AI 모델 앱 패키지 제공 – 지속적 앱 업데이트 – 직접 기관 전용 AI 앱 개발 및 배포 지원 거대 언어 모델 및 생성 AI 모델 사용: GenAI Desktop
  16. Proprietary + Confidential • Backend.AI 기반 Hyperscale MLOps 솔루션 •

    상세 – DAG 관리 및 멀티 파이프라인 기능 – YAML 기반 재사용 가능 파이프라인 – 예약, 큐잉, 반복 실행 및 모니터링 – 데이터부터 서비스 배포 자동화까지 한번에 지원 • 적용 – 사전 제공 및 업데이트되는 파이프라인 템플릿 – 적정 시간에 자동 실행 설정 – 데이터 변환 및 파인튜닝 전부 자동화 – Backend.AI FastTrack과 연계하여 파인튜닝 모델 실시간 배포 AI 모델 파인 튜닝: Backend.AI FastTrack
  17. Proprietary + Confidential • 인터넷 연결이 불가능한 에어갭 환경에서 자유롭게

    SW 패키지 설치 • Reservoir: Backend.AI 로컬 패키지 저장소 서버 + 서비스 – Lablup 저장소 허브 서비스와 로컬 패키지 서버로 구성 – Lablup 저장소 허브와의 주기적 동기화를 통한 패키지 최신화 (필요시) • 프라이빗 클라우드, 폐쇄 환경, 오프라인 사이트 최적 솔루션 – 보안 체크 파이프라인을 거친 패키지만 제공 • 지원 패키지 저장소 (Backend.AI Enterprise R2 / 23.09) – 언어: PyPi, CRAN® – 운영체제 ✓ Ubuntu (18.04 / 20.04 / 22.04) ✓ DGX OS (5 / 6) ✓ CentOS (7 / 8) 패키지 에어갭 환경의 불편함 해결: Backend.AI Reservoir
  18. Proprietary + Confidential • 사용자의 요구에 따른 구축 / 업데이트

    패턴 사례 • 자동 업데이트 파이프라인 (국내 케이스) – 자체 보유한 보안 전송 기술 적용 / 고객 사이트에서 추가 보안 검토 후 Site내로 반입 가능하도록 구축 – 고객 사 내 Backend.AI 연산 세션 및 Windows 개발 PC에서 Reservoir 저장소 사용 • 완전 차단망 업데이트 (해외) – 외부망과의 직접 연결 지양: 자동 업데이트 불가 – 업데이트 오브젝트 공유 후 내부 반입은 고객사 인력에 의해 진행 – 지정한 특정 위치에 해당 업데이트 파일들을 두면 Reservoir가 업데이트를 수행 – 고객 사 내 Backend.AI session 및 Windows 개발 PC에서 Reservoir 저장소 사용 Backend.AI Reservoir: 사례
  19. Proprietary + Confidential • 금융 기관 A (2021~) – 절대

    보안 유지 – 네트워크 및 파일 일반 반입 사용 불가능 – 사내 시스템 통합 지원 ✓ 로그인 통합 ✓ 포탈 내 기능 통합 – 일반 사용자 및 시스템 관리자 분리 ✓ 조직별 사용량 제약, 구분 및 통계 ✓ 사용률 통계 기반의 사용량 재배치 – 확장 및 재구성 ✓ 지속적 시스템 확장 ✓ 연구 플랫폼 – 서비스 플랫폼 등으로 기능 지속적 추가 금융 기관 도입 사례: 기관
  20. Proprietary + Confidential • 문제: 다수 사용자 대상의 유연한 딥

    러닝 자원 및 서비스 활용 – 내부 연구용 인프라스트럭처 – 딥 러닝 서비스 이용 용도 – 안정성 확보 • 해결책: Backend.AI Enterprise 및 기반 솔루션 GenAI 플랫폼 구축 – 다양한 요구사항을 단일 클러스터 팜에서 모두 처리 금융 기관 도입 사례: 문제 정의
  21. Proprietary + Confidential • 고가용성 (High-Availability) 구성 – 3 대에

    관리 서비스 분산 설치 운영 – 기 구축된 VM 환경+Backend.AI 기반 내부 연구용 인프라 S/W 연계 구축 • 베어메탈과 VM 하이브리드 운용 – 파인 튜닝한 LLM 서비스: 별도의 K8S 인프라를 통해 내부 서비스 • 소프트웨어 환경 – Reservoir 도입 ✓ 폐쇄망 환경에서 주요 패키지 설치 지원 – 연구용 이미지 ✓ 연구용 통합 이미지 빌드 및 공용 사용 금융 기관 도입 사례: 구성
  22. Proprietary + Confidential • 사용 가능 클러스터 노드 스펙에 따른

    사전 준비 – 네트워크 플레인별 사전 설정 파일 ✓ GPU 데이터 / 컨트롤 / 유저 플레인 – NCCL 도메인 / IP 설정 – 자동 설치에 필요한 모든 구성 확보 및 테스트 • 라이선스 발급 – GPU 하드웨어 당 라이선스 – 하드웨어 정보 기반의 키로 라이선스 발급 및 라이선스 서버 설정 • 설치 – 사전 준비가 끝난 경우, 이상적인 환경에서는 방문 1일 소요 – 처음 설치 시 트러블슈트가 필요한 경우 및 사내 보안 솔루션의 동작에 따른 추가 대응 발생 • 업데이트 – 사전 준비가 끝난 경우, 트러블 없는 경우 방문 1일 소요 금융 기관 도입 사례: 준비
  23. Proprietary + Confidential • 사용자 / 조직 별 자원 정책

    설정에 따른 자동 할당 – 사용자 / 그룹 별 자원 최대 허용량 설정 (CPU / GPU / RAM) – 최대 허용량 내에서 별도의 신청 / 허가 없이 사용 • 정책 설정에 따른 유휴 상태 검사 및 자원 회수 – 자원 점유율 기반 ✓ 예) GPU 사용률 0% 및 CPU 사용률 5% 이하 10분 이상 유지 시 종료 – 상호작용 기반 ✓ 예) 1시간 동안 연산 세션과 사용자 사이에 네트워크 트래픽 없으면 종료 – 시간 기반 ✓ 예) 세션 시작 후 12시간 지나면 종료 – 사용자·프로젝트 및 전역 단위 설정 지원 • 배치 및 파이프라인 작업 – 메인 프로그램이 종료되면 연산 세션도 자동으로 종료 ✓ 예) 내일 아침 10시에 배치 연산 세션을 실행하고 작업이 완료되면 자동으로 종료 및 자원 회수 금융 기관 도입 사례: 설정
  24. Proprietary + Confidential • 연구자 사용: 사내 포털 연계 –

    연구자나 관리자는 Web UI 접속해서 사용 – API 기반 통합: 사내 포털에 Jupyter, RStudio 등과 같은 아이콘 및 해당 사용자의 현재 세션 리스트 노출 – 로그인 후 Jupyter, RStudio 아이콘을 클릭하면 별도의 Backend.AI 플러그인을 거쳐 바로 해당 앱이 브라우저에서 동작 • 인증 통합 – 내부 사용자 인증 서버와 연동 – 포털 로그인이 되어 있으면 무인증으로 Backend.AI 사용 – 1인 세션 제한: 이미 실행 중인 연산 세션이 있으면 그 세션의 앱을 재활용 • 내부 시스템 통합 – 플러그인 및 이미지 레벨의 연동 – 내부 오브젝트 스토리지(MinIO) 자동 접속 및 사용자 폴더 자동 생성 마운트 • 파이프라인 자동화 – 매일 주기적으로 돌리는 작업 파이프라인을 FastTrack에 구축 및 기동 금융 기관 도입 사례: 사용
  25. Proprietary + Confidential • GenAI 훈련 / 서비스 과정의 일원화

    및 자동화 – 동일 하드웨어 자원으로 다양한 용도 활용 • GenAI 서비스 고도화를 위한 서빙 기능 – 자원량 사전 예약 및 사용자 부하에 따른 오토스케일링 – 사용자 지정 모델 저장소 및 임포트 기능 – 모델 저장소에서 원클릭 모델 서빙 • 파인 튜닝 / 디플로이 완전 자동화 – 사용 패턴에 따른 파이프라인 스케쥴링 기반 인퍼런스 – 파인튜닝 워크로드 전환 – 파인튠 모델 주기적 배포 금융 기관 도입 사례: 운영 및 파인튜닝 자동화
  26. Proprietary + Confidential • 금융권의 수요 및 난제 • 생성AI의

    기여 • Backend.AI: 금융권을 위한 AI 플랫폼 – (GenAI Desktop, FastTrack, Reservoir) on Backend.AI • 금융 기관 활용 사례 • 마치며 오늘의 요약
  27. Proprietary + Confidential Thank you! [email protected] https://www.facebook.com/lablupInc Lablup Inc. https://www.lablup.com

    Backend.AI https://www.backend.ai Backend.AI GitHub https://github.com/lablup/backend.ai Backend.AI Cloud https://cloud.backend.ai