Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

ResNeXt101 번역 #100

Merged
merged 6 commits into from
Apr 2, 2023
Merged

Conversation

HyunKyungHan
Copy link
Contributor

@HyunKyungHan HyunKyungHan commented Sep 11, 2022

라이선스 동의

변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.

더 자세한 내용은 기여하기 문서를 참고해주세요.

동의하시면 아래 [ ][x]로 만들어주세요.

  • 기여하기 문서를 확인하였으며, 본 PR 내용에 BSD 3항 라이선스가 적용됨에 동의합니다.

관련 이슈 번호

이 Pull Request와 관련있는 이슈 번호를 적어주세요.

이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )

PR 종류

이 PR에 해당되는 종류 앞의 [ ][x]로 변경해주세요.

  • 오탈자를 수정하거나 번역을 개선하는 기여
  • 번역되지 않은 모델 소개를 번역하는 기여
  • 공식 허브의 내용을 반영하는 기여
  • 위 종류에 포함되지 않는 기여

PR 설명

이 PR로 무엇이 달라지는지 대략적으로 알려주세요.

ResNeXt101 모델 번역

Copy link
Contributor

@cepiloth cepiloth left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

큰 문제 없이 번역 잘되었습니다.
고생하셨습니다.

Copy link
Contributor

@Taeyoung96 Taeyoung96 left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

@HyunKyungHan
Mixed precision 기법을 대체할만한 단어가 없을까 고민이 됩니다... 😏


This model is trained with mixed precision using Tensor Cores on Volta, Turing, and the NVIDIA Ampere GPU architectures. Therefore, researchers can get results 3x faster than training without Tensor Cores, while experiencing the benefits of mixed precision training. This model is tested against each NGC monthly container release to ensure consistent accuracy and performance over time.
ResNeXt101 모델은 Volta, Turing 및 NVIDIA Ampere 아키텍처에서 Tensor Core를 사용하여 혼합 정밀도 방식으로 학습됩니다. 따라서 연구자들은 혼합 정밀도 학습(Mixed Precision Training)의 장점을 경험하는 동시에 Tensor Cores를 사용하지 않을 때보다 결과를 3배 빠르게 얻을 수 있습니다. 이 모델은 시간이 지남에도 지속적인 정확도와 성능을 유지하기 위해 월별 NGC 컨테이너 출시에 대해 테스트되고 있습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

mixed precision이 혼합 정밀도보다는
정밀도라는 단어가 조금 와닿지 않는데 마땅히 대체할 만한 단어가 떠오르지 않는군요.. 🥲
16비트와 32비트를 함께 사용하여 학습되었다는 의미로 의역을 해보면 어떨까요?

Copy link
Contributor Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

흠.. 생각해봤는데 두 방법 중 어떤 게 더 나을까요?🤨

  1. 첫 문장에서 혼합 정밀도 방식으로 학습됩니다. 대신 16비트 부동소수점과 32비트 부동소수점을 함께 사용해 학습합니다.라고 적는다.
  2. 혼합 정밀도 방식[1]와 같이 주석을 달고 본문 하단에 [1] 빠르고 효율적인 처리를 위해 16비트 부동소수점과 32비트 부동소수점을 함께 사용해 학습하는 방식라고 적는다.

Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

의견 달고 갑니다. 저는 후자가 더 깔끔해 보이네요!

Copy link
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

아래에도 혼합 정밀도 라는 용어가 나와서, 주석으로 설명하는 것도 괜찮을 것 같아요.

Copy link
Contributor Author

@HyunKyungHan HyunKyungHan Sep 14, 2022

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

저도 2번이 더 나은 것 같아서 주석 달았습니다!
의견 감사드립니다! :)

Copy link
Contributor

@Taeyoung96 Taeyoung96 left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

리뷰 반영해주셔서 감사드립니다. 고생하셨습니다.

Copy link
Member

@hyoyoung hyoyoung left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

good

@hyoyoung hyoyoung merged commit b576b52 into PyTorchKorea:master Apr 2, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Projects
None yet
Development

Successfully merging this pull request may close these issues.

6 participants