Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- KEDA
- EKS
- amazon vpc lattice
- ansible
- VPA
- Timeout
- Kind
- AutoScaling
- HPA
- go
- aws
- kubernetes
- calico
- Karpenter
- upgrade
- ca
- 업그레이드
- AKS
- curl
- vscode
- device plugin
- inferentia
- Azure
- 쿠버네티스
- ubuntu
- 묘공단
- windows
- WSL
- fsx for lustre
- 컨테이너
Archives
- Today
- Total
목록device plugin (1)
a story

이번 포스트에서는 AI/ML 워크로드를 EKS에서 사용하기 위해 GPU 리소스를 활용하는 방안을 살펴보겠습니다.또한 AWS에서 제공하는 Build GenAI & ML for Performance and Scale, using Amazon EKS, Amazon FSx and AWS Inferentia 워크샵을 따라 실습을 진행하였습니다.워크샵 주소: https://catalog.workshops.aws/genaifsxeks/en-US 목차AI 워크로드의 컨테이너 사용 여정EKS 워크샵 실습2.1 실습 환경 구성2.2 스토리지 구성2.3 생성형 AI Chat 애플리케이션 배포 1. AI 워크로드의 컨테이너 사용 여정전통적으로 ML 엔지니어들은 베어메탈 서버에 직접 GPU드라이버와 라이브러리를 설치하여 작업을..
EKS
2025. 4. 20. 00:31