Skip to content

Conversation

@choincnp
Copy link
Collaborator

@choincnp choincnp commented Nov 9, 2025

개인사로 작업이 늦어져서 죄송합니다, 조금 더 문장을 native하게 번역하려고 노력했습니다!

Copy link
Collaborator

@hyeonseo2 hyeonseo2 left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

좋은 번역 감사합니다 👍 아래 몇 가지 리뷰를 남겼습니다!

Copy link
Collaborator

@eehyo eehyo left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

좋은 번역 감사합니다! 주요 용어들을 통일하여 수정해두었습니다 :) 마지막에 Acknowledgements 부분이 생략되어 있는 것으로 보이는데 혹시 의도하신 건지 확인 부탁드립니다!


커뮤니티에 더 나은 영향력을 제공하기 위해, 이 모델들은 최소한의 사용 정책과 함께 Apache 2.0 라이선스로 공개되었습니다:

> 우리는 도구가 안전하고 책임감 있게, 그리고 민주적으로 사용되기를 바라며, 동시에 사용 방식에 대한 여러분의 통제권을 최대화하고자 합니다. gpt-oss를 사용함으로써 모든 관련 법규를 준수하는 데 동의하게 됩니다.
Copy link
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
> 우리는 도구가 안전하고 책임감 있게, 그리고 민주적으로 사용되기를 바라며, 동시에 사용 방식에 대한 여러분의 통제권을 최대화하고자 합니다. gpt-oss를 사용함으로써 모든 관련 법규를 준수하는 데 동의하게 됩니다.
> 우리는 우리의 도구가 안전하고 책임감 있으며 민주적으로 사용되기를 바라며, 동시에 여러분이 이를 어떻게 사용할지에 대한 최대한의 통제권을 갖기를 원합니다. gpt-oss를 사용하는 경우, 관련 법규를 모두 준수해야 합니다.

좀 더 자연스럽게 수정해보았습니다!

Copy link
Collaborator Author

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

안녕하세요 효정님, 뒤에 Acknowledgements는 일부러 누락시켰습니다! 오탈자 및 잘못 번역한것들 검수해주셔서 감사합니다 :)

print(tokenizer.decode(generated[0][inputs["input_ids"].shape[-1]:]))
```

이 코드는 [이전 블로그 포스트](https://huggingface.co/blog/hello-hf-kernels)에서 설명한 대로 `kernels-community`에서 최적화되고 프리컴파일된 커널 코드를 다운로드합니다. transformers 팀이 코드를 빌드하고 패키징하고 테스트했으니 안심하고 사용하셔도 됩니다.
Copy link
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
이 코드는 [이전 블로그 포스트](https://huggingface.co/blog/hello-hf-kernels)에서 설명한 대로 `kernels-community`에서 최적화되고 프리컴파일된 커널 코드를 다운로드합니다. transformers 팀이 코드를 빌드하고 패키징하고 테스트했으니 안심하고 사용하셔도 됩니다.
이 코드는 [이전 블로그 포스트](https://huggingface.co/blog/hello-hf-kernels)에서 설명한 대로 `kernels-community`에서 최적화된 사전 컴파일 커널 코드를 다운로드합니다. transformers 팀이 코드를 빌드하고, 패키징하고, 테스트까지 완료했기 때문에 안심하고 사용하셔도 됩니다.

Copy link
Collaborator

@ahnjj ahnjj left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

흥미로운 주제 알려주셔서 감사해요~! 아주 사소한 부분만 리뷰드립니다 ㅎㅎ



# 모델 평가하기
GPT OSS 모델은 추론 모델입니다. 따라서 평가 시 매우 큰 생성 크기(최대 새 토큰 수)가 필요합니다. 모델의 생성 결과에는 먼저 추론 과정이 포함되고, 그 다음에 실제 답변이 나오기 때문입니다. 생성 크기가 너무 작으면 추론 중간에 예측이 중단될 위험이 있으며, 이는 위음성을 발생시킬 수 있습니다. 메트릭을 계산하기 전에 모델 답변에서 추론 과정을 제거해야 하는데, 특히 수학이나 instruction 평가에서 파싱 오류를 방지하기 위해 필수적입니다.
Copy link
Collaborator

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
GPT OSS 모델은 추론 모델입니다. 따라서 평가 시 매우 큰 생성 크기(최대 새 토큰 수)가 필요합니다. 모델의 생성 결과에는 먼저 추론 과정이 포함되고, 그 다음에 실제 답변이 나오기 때문입니다. 생성 크기가 너무 작으면 추론 중간에 예측이 중단될 위험이 있으며, 이는 위음성을 발생시킬 수 있습니다. 메트릭을 계산하기 전에 모델 답변에서 추론 과정을 제거해야 하는데, 특히 수학이나 instruction 평가에서 파싱 오류를 방지하기 위해 필수적입니다.
GPT OSS 모델은 추론 모델입니다. 따라서 평가 할 때 필요한 생성 크기(최대 새 토큰 수)가 매우 큽니다. 모델의 생성 결과에는 먼저 추론 과정이 포함되고, 그 다음에 실제 답변이 나오기 때문입니다. 생성 크기가 너무 작으면 추론 중간에 예측이 중단될 위험이 있으며, 이는 위음성을 발생시킬 수 있습니다. 메트릭을 계산하기 전에 모델 답변에서 추론 과정을 제거해야 하는데, 특히 수학이나 instruction 평가에서 파싱 오류를 방지하기 위해 필수적입니다.

자연스럽게 앞뒤를 바꾸어 보았어요~!

@Jwaminju Jwaminju force-pushed the main branch 4 times, most recently from 657a070 to 3ddf137 Compare November 20, 2025 14:53
@choincnp choincnp merged commit e17766d into Hugging-Face-KREW:main Dec 1, 2025
1 check failed
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

4 participants