A100은 MiG 기능으로 여러개로 쪼개서 쓸 수 있음. A6000은 이 기능이 지원 안됨.
예를들어 80Gb GPU를 내 용도에 따라서 10Gb 20Gb 50Gb 이렇게 나눠서 3개의 GPU처럼 쓸 수 있다는 것임
이론상 7개까지 쪼갤 수 있다는데 이렇게 많이 쪼개면 학습속도가 얼마나 나올진 모르겠음..
일단 이 부분에선 A100 승
3. 확장성
같은 가격으로 더 GPU슬롯을 적게 먹으니 A100 승
당신의 선택은?!!
카카오 계정과 연동하여 게시글에 달린 댓글 알람, 소식등을 빠르게 받아보세요
댓글 3개
2022.03.01
A100
2022.03.01
연구실 내 쓸 수 있는 예산이 충분하면 A100 사는게 맞습니다.
왜 엔비디아에서 개발한 머신러닝용 그래픽카드 냅두고 다른 선택지를 하려는건지 모르겠네요.
예산 부족하면 A6000이나 지포스 3090 이런거 고민하는거지 살 수 있으면 A100 사는게 좋아요.
https://www.youtube.com/watch?v=zBAxiQi2nPc
지포스 3090 vs A100 (40GB) 성능 비교 영상이니 참고하세요.
2022.12.25
(Tensor F16 기준) A100 312 TFLOPS A6000 309.7 TFLOPS 3090ti 320 TFLOPs FLOPS기준으로만 보면 3090ti 많이 사다가 때려박는게 최고인것 같긴 합니다만... 캐쉬나 메모리 속도차이가 있으니 워크로드 따라 인것 같습니다. 메모리에 크게 의존해야 하면 A100쪽으로 갈수록 속도가 빨라지겠죠...?
2022.03.01
2022.03.01
2022.12.25