-
Notifications
You must be signed in to change notification settings - Fork 315
[i18n-ko] Translated vector_search_with_hub_as_backend.ipynb
to Korean
#299
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
base: main
Are you sure you want to change the base?
[i18n-ko] Translated vector_search_with_hub_as_backend.ipynb
to Korean
#299
Conversation
Check out this pull request on See visual diffs & provide feedback on Jupyter Notebooks. Powered by ReviewNB |
vector_search_with_hub_as_backend.ipynb
to Korean
Hello and thanks for this PR! Can we get another Korean speaker to check this 👀 |
Hello @whybe-choi! May I review your translation? |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Nice translation! Good job 👍
Here are a few suggestions!
sections: | ||
- local: vector_search_with_hub_as_backend | ||
title: 허깅페이스에서 허브를 백엔드로 사용한 벡터 검색 |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
title: 허깅페이스에서 허브를 백엔드로 사용한 벡터 검색 | |
title: 허깅페이스 허브를 백엔드로 사용한 벡터 검색 |
I think this title will be more natural!
@@ -13,6 +13,7 @@ | |||
- [다중 에이전트 계층 구조에서 여러 에이전트가 협업하도록 하기](multiagent_web_assistant) | |||
|
|||
- [유사성 검색을 위한 멀티모달 데이터 임베딩](faiss_with_hf_datasets_and_clip) | |||
- [허깅페이스에서 허브를 백엔드로 사용한 벡터 검색](vector_search_with_hub_as_backend) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
- [허깅페이스에서 허브를 백엔드로 사용한 벡터 검색](vector_search_with_hub_as_backend) | |
- [허깅페이스 허브를 백엔드로 사용한 벡터 검색](vector_search_with_hub_as_backend) |
"id": "ksUdu7H7qBig" | ||
}, | ||
"source": [ | ||
"# 허깅페이스에서 허브를 백엔드로 사용한 벡터 검색\n", |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
"# 허깅페이스에서 허브를 백엔드로 사용한 벡터 검색\n", | |
"# 허깅페이스 허브를 백엔드로 사용한 벡터 검색\n", |
"id": "rXZDtCytqBii" | ||
}, | ||
"source": [ | ||
"이제 데이터셋에 대한 임베딩을 생성할 수 있습니다. 일반적으로 정밀도(precision)을 잃지 않기 위해 데이터를 더 작은 배치로 나누고 싶을 수 있지만, 이 예제에서는 데이터셋의 전체 텍스트에 대한 임베딩만 생성하겠습니다." |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
"이제 데이터셋에 대한 임베딩을 생성할 수 있습니다. 일반적으로 정밀도(precision)을 잃지 않기 위해 데이터를 더 작은 배치로 나누고 싶을 수 있지만, 이 예제에서는 데이터셋의 전체 텍스트에 대한 임베딩만 생성하겠습니다." | |
"이제 데이터셋에 대한 임베딩을 생성할 수 있습니다. 일반적으로 정밀도(precision)를 잃지 않기 위해 데이터를 더 작은 배치로 나누고 싶을 수 있지만, 이 예제에서는 데이터셋의 전체 텍스트에 대한 임베딩만 생성하겠습니다." |
"이제 `duckdb`를 사용하여 데이터셋에서 벡터 검색을 수행할 수 있습니다. 이때 인덱스를 사용하거나 사용하지 않을 수 있습니다. 인덱스를 **활용하지 않고** 검색하는 것은 더 느리지만 더 정확하고, 인덱스를 **활용하여** 검색하는 것은 더 빠르지만 덜 정확합니다.\n", | ||
"\n", | ||
"### 인덱스를 활용하지 않고 검색하기\n", | ||
"인덱스를 활용하지 않고 검색하려면 `duckdb` 라이브러리를 사용하여 데이터셋에 연결하고 벡터 검색을 수행할 수 있습니다. 이는 느린 작업지만 일반적으로 약 10만 행까지의 작은 데이터셋에서는 충분히 빠르게 동작합니다. 즉 우리가 사용하는 데이터셋에 대해서 쿼리를 날리는 것은 다소 느릴 것입니다." |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
"인덱스를 활용하지 않고 검색하려면 `duckdb` 라이브러리를 사용하여 데이터셋에 연결하고 벡터 검색을 수행할 수 있습니다. 이는 느린 작업지만 일반적으로 약 10만 행까지의 작은 데이터셋에서는 충분히 빠르게 동작합니다. 즉 우리가 사용하는 데이터셋에 대해서 쿼리를 날리는 것은 다소 느릴 것입니다." | |
"인덱스를 활용하지 않고 검색하려면 `duckdb` 라이브러리를 사용하여 데이터셋에 연결하고 벡터 검색을 수행할 수 있습니다. 이는 느린 작업지만 일반적으로 약 10만 행까지의 작은 데이터셋에서는 충분히 빠르게 동작합니다. 즉, 우리가 사용하는 데이터셋에 대해서 쿼리를 날리는 것은 다소 느릴 것입니다." |
출처 : 쉼표의 위치도 중요합니다. ‘곧’, ‘즉’, ‘다시 말해’, ‘이를테면’ 등과 같이 한 문장 안에서 앞말을 다시 설명하는 어구의 경우 앞말 다음에 쉼표를 써야 합니다.
What does this PR do?
Translated the
vector_search_with_hub_as_backend.ipynb
file to Korean.Who can review?
Hello, @merveenoyan ! Could you please review my PR when you have a chance?
Thank you :)