티스토리 뷰

02-레포트

도조 CFP8 CFP16 백서

sprits 2021. 10. 28. 13:58

이쪽 방면은 아예 문외한이라 대충 이해한건... FSD를 위한 전용 딥러닝 연산 체계를 별도로 만들었다고 이해함^^;;
1. 한글 번역기 요약
딥 러닝 신경망이 성장함에 따라 메모리 스토리지와 대역폭 압력은 메모리에 Float16 및 BFloat16 스토리지를 사용하더라도 계속해서 문제를 제시하고 많은 시스템에서 병목 현상을 만듭니다.
Tesla는 감소된 정밀도 지원을 더욱 확장하고 8비트 부동 소수점 형식인 Configurable Float8(CFloat8)을 도입하여 훈련에 필요한 가중치, 활성화 및 기울기 값을 저장할 때 메모리 저장 및 대역폭에 대한 엄청난 압력을 더욱 줄였습니다. 

2. 32비트 float을 양자화해 8비트 정수로 변환시켜 사용하면...딥러닝 모델 크기는 75%가 줄어 든다고 함.
(참고 블로그)
https://m.blog.naver.com/medosam/222550926520

라즈베리파이 기반 딥러닝 객체 인식 개발 방법

이 글은 어느 분이 블로그로 문의한 내용도 정리할 겸 라즈베리파이 기반 딥러닝 객체 인식 개발 방법에 대...

blog.naver.com


3.  꿀잼님 설명
https://youtu.be/O230qbLefZ4

tesla-dojo-technology(한글 번역).pdf
1.09MB

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
more
«   2025/05   »
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함