Skip to content

Add Japanese translation of "Partial match in alphabetic languages" #420

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Open
wants to merge 1 commit into
base: master
Choose a base branch
from
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
19 changes: 17 additions & 2 deletions _po/ja/reference/create-index-using-pgroonga.po
Original file line number Diff line number Diff line change
Expand Up @@ -337,7 +337,7 @@ msgstr ""
msgid ""
"#### Partial match in alphabetic languages {#partial-match-alphabetic-"
"languages}"
msgstr ""
msgstr "#### アルファベットでの部分一致 {#partial-match-alphabetic-languages}"

msgid ""
"If you plan to perform partial matching searches for keywords in alphabetic "
Expand All @@ -348,12 +348,20 @@ msgid ""
"it is strongly advised to set up your tokenizer as following `TokenNgram` "
"example."
msgstr ""
"キーワードがアルファベットの場合もキーワードの一部で検索をしたいときは、トー"
"クナイザーに`TokenNgram`を設定しオプションでトークナイザーの挙動を指定しま"
"す。PGroongaのデフォルトのトークナイザーは`TokenBigram`なので、'pp'というキー"
"ワードは'Apple'、'Pineapple'、'Ripple'などのキーワードにはマッチしません。次"
"の例のように`TokenNgram`にオプションを指定することでこの問題が回避できます。"

msgid ""
"Here is an example to use `TokenNgram` based tokenizer. You need to specify "
"`tokenizer='TokenNgram'`. See [`TokenNgram`][groonga-token-ngram] for more "
"detail."
msgstr ""
"TokenNgramベースのトークナイザーを使用する例は次の通りです。"
"`tokenizer='TokenNgram'`を指定します。詳しくは[`TokenNgram`][groonga-token-"
"ngram]を参照してください。"

msgid ""
"CREATE INDEX pgroonga_content_index\n"
Expand All @@ -365,9 +373,11 @@ msgid ""
msgstr ""

msgid ""
"You may also use `TokenBigramBigramSplitSymbolAlphaDigit` for partial match "
"You may also use `TokenBigramSplitSymbolAlphaDigit` for partial match "
"instead of `TokenNgram` above. **(Using `TokenNgram(...)` is recommended)**."
msgstr ""
"この例で使用したオプションを指定すると`TokenBigramSplitSymbolAlphaDigit`と同"
"じ挙動になりますが、**`TokenNgram(...)`の使用をおすすめします。**"

msgid ""
"**Remarks**\n"
Expand All @@ -376,6 +386,11 @@ msgid ""
"languages tend to introduce a lot of noise. `TokenNgram(\"unify_...)` should "
"only be utilized when it is truly necessary."
msgstr ""
"**注意**\n"
"`TokenNgram(\"unify_...)`を使用することでアルファベットの場合もキーワードの一"
"部で検索できるようになりますが、アルファベットでの部分一致は多くのノイズを含"
"む傾向があるため、本当に必要なときのみご利用ください。代わりに`TokenNgram`"
"(オプションの指定なし)や`TokenBigram`の使用をおすすめします。"

msgid "#### How to customize normalizer {#custom-normalizer}"
msgstr "#### ノーマライザーのカスタマイズ方法 {#custom-normalizer}"
Expand Down
12 changes: 6 additions & 6 deletions ja/reference/create-index-using-pgroonga.md
Original file line number Diff line number Diff line change
Expand Up @@ -149,11 +149,11 @@ CREATE INDEX pgroonga_tag_index

他のトークナイザーについては[トークナイザー][groonga-tokenizers]を参照してください。

#### Partial match in alphabetic languages {#partial-match-alphabetic-languages}
#### アルファベットでの部分一致 {#partial-match-alphabetic-languages}

If you plan to perform partial matching searches for keywords in alphabetic languages, it is recommended to configure your tokenizer to `TokenNgram` with extra options. The default tokenizer in `PGroonga` is `TokenBigram`, which means that if you search for the keyword 'pp', for instance, it won't match 'Apple', 'Pineapple', or 'Ripple' in your data. To avoid this issue, it is strongly advised to set up your tokenizer as following `TokenNgram` example.
キーワードがアルファベットの場合もキーワードの一部で検索をしたいときは、トークナイザーに`TokenNgram`を設定しオプションでトークナイザーの挙動を指定します。PGroongaのデフォルトのトークナイザーは`TokenBigram`なので、'pp'というキーワードは'Apple''Pineapple''Ripple'などのキーワードにはマッチしません。次の例のように`TokenNgram`にオプションを指定することでこの問題が回避できます。

Here is an example to use `TokenNgram` based tokenizer. You need to specify `tokenizer='TokenNgram'`. See [`TokenNgram`][groonga-token-ngram] for more detail.
TokenNgramベースのトークナイザーを使用する例は次の通りです。`tokenizer='TokenNgram'`を指定します。詳しくは[`TokenNgram`][groonga-token-ngram]を参照してください。

```sql
CREATE TABLE memos (
Expand All @@ -167,10 +167,10 @@ CREATE INDEX pgroonga_content_index
WITH(tokenizer='TokenNgram("unify_alphabet", false, "unify_symbol", false, "unify_digit", false)');
```

You may also use `TokenBigramBigramSplitSymbolAlphaDigit` for partial match instead of `TokenNgram` above. **(Using `TokenNgram(...)` is recommended)**.
この例で使用したオプションを指定すると`TokenBigramSplitSymbolAlphaDigit`と同じ挙動になりますが、**`TokenNgram(...)`の使用をおすすめします。**

**Remarks**
We however do not recommend using `TokenNgram("unify_...)`. It is advisable to use `TokenNgram/TokenBigram` instead, as partial matches in alphabetical languages tend to introduce a lot of noise. `TokenNgram("unify_...)` should only be utilized when it is truly necessary.
**注意**
`TokenNgram("unify_...)`を使用することでアルファベットの場合もキーワードの一部で検索できるようになりますが、アルファベットでの部分一致は多くのノイズを含む傾向があるため、本当に必要なときのみご利用ください。代わりに`TokenNgram`(オプションの指定なし)や`TokenBigram`の使用をおすすめします。

#### ノーマライザーのカスタマイズ方法 {#custom-normalizer}

Expand Down