@@ -1218,7 +1218,6 @@ struct llama_vocab::impl {
1218
1218
llama_token special_unk_id = 0 ;
1219
1219
llama_token special_sep_id = LLAMA_TOKEN_NULL;
1220
1220
llama_token special_pad_id = LLAMA_TOKEN_NULL;
1221
- llama_token special_cls_id = LLAMA_TOKEN_NULL; // TODO: revisit if this is really needed https://github.com/ggerganov/llama.cpp/pull/10930
1222
1221
llama_token special_mask_id = LLAMA_TOKEN_NULL;
1223
1222
1224
1223
llama_token linefeed_id = 13 ;
@@ -1352,7 +1351,6 @@ void llama_vocab::impl::load(llama_model_loader & ml, const LLM_KV & kv) {
1352
1351
special_unk_id = LLAMA_TOKEN_NULL;
1353
1352
special_sep_id = LLAMA_TOKEN_NULL;
1354
1353
special_pad_id = LLAMA_TOKEN_NULL;
1355
- special_cls_id = LLAMA_TOKEN_NULL;
1356
1354
special_mask_id = LLAMA_TOKEN_NULL;
1357
1355
linefeed_id = LLAMA_TOKEN_NULL;
1358
1356
@@ -1374,18 +1372,16 @@ void llama_vocab::impl::load(llama_model_loader & ml, const LLM_KV & kv) {
1374
1372
special_unk_id = 0 ;
1375
1373
special_sep_id = LLAMA_TOKEN_NULL;
1376
1374
special_pad_id = LLAMA_TOKEN_NULL;
1377
- special_cls_id = LLAMA_TOKEN_NULL;
1378
1375
special_mask_id = LLAMA_TOKEN_NULL;
1379
1376
} else if (tokenizer_model == " bert" ) {
1380
1377
type = LLAMA_VOCAB_TYPE_WPM;
1381
1378
1382
1379
// default special tokens
1383
- special_bos_id = LLAMA_TOKEN_NULL ;
1380
+ special_bos_id = 101 ;
1384
1381
special_eos_id = LLAMA_TOKEN_NULL;
1385
1382
special_unk_id = 100 ;
1386
1383
special_sep_id = 102 ;
1387
1384
special_pad_id = 0 ;
1388
- special_cls_id = 101 ;
1389
1385
special_mask_id = 103 ;
1390
1386
} else if (tokenizer_model == " gpt2" ) {
1391
1387
type = LLAMA_VOCAB_TYPE_BPE;
@@ -1420,7 +1416,6 @@ void llama_vocab::impl::load(llama_model_loader & ml, const LLM_KV & kv) {
1420
1416
special_unk_id = LLAMA_TOKEN_NULL;
1421
1417
special_sep_id = LLAMA_TOKEN_NULL;
1422
1418
special_pad_id = LLAMA_TOKEN_NULL;
1423
- special_cls_id = LLAMA_TOKEN_NULL;
1424
1419
special_mask_id = LLAMA_TOKEN_NULL;
1425
1420
} else if (tokenizer_model == " t5" ) {
1426
1421
type = LLAMA_VOCAB_TYPE_UGM;
@@ -1431,7 +1426,6 @@ void llama_vocab::impl::load(llama_model_loader & ml, const LLM_KV & kv) {
1431
1426
special_unk_id = 2 ;
1432
1427
special_sep_id = LLAMA_TOKEN_NULL;
1433
1428
special_pad_id = 0 ;
1434
- special_cls_id = LLAMA_TOKEN_NULL;
1435
1429
special_mask_id = LLAMA_TOKEN_NULL;
1436
1430
1437
1431
const int precompiled_charsmap_keyidx = gguf_find_key (ctx, kv (LLM_KV_TOKENIZER_PRECOMPILED_CHARSMAP).c_str ());
@@ -1712,7 +1706,6 @@ void llama_vocab::impl::load(llama_model_loader & ml, const LLM_KV & kv) {
1712
1706
{ LLM_KV_TOKENIZER_UNK_ID, special_unk_id },
1713
1707
{ LLM_KV_TOKENIZER_SEP_ID, special_sep_id },
1714
1708
{ LLM_KV_TOKENIZER_PAD_ID, special_pad_id },
1715
- { LLM_KV_TOKENIZER_CLS_ID, special_cls_id },
1716
1709
{ LLM_KV_TOKENIZER_MASK_ID, special_mask_id },
1717
1710
{ LLM_KV_TOKENIZER_FIM_PRE_ID, special_fim_pre_id },
1718
1711
{ LLM_KV_TOKENIZER_FIM_SUF_ID, special_fim_suf_id },
@@ -2406,8 +2399,8 @@ std::vector<llama_token> llama_vocab::impl::tokenize(
2406
2399
case LLAMA_VOCAB_TYPE_WPM:
2407
2400
{
2408
2401
if (add_special) {
2409
- GGML_ASSERT (special_cls_id != LLAMA_TOKEN_NULL);
2410
- output.push_back (special_cls_id );
2402
+ GGML_ASSERT (special_bos_id != LLAMA_TOKEN_NULL);
2403
+ output.push_back (special_bos_id );
2411
2404
}
2412
2405
2413
2406
llm_tokenizer_wpm_session session (vocab);
@@ -2700,7 +2693,6 @@ void llama_vocab::impl::print_info() const {
2700
2693
if (special_unk_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: UNK token = %d '%s'\n " , __func__, special_unk_id, id_to_token[special_unk_id].text .c_str () ); }
2701
2694
if (special_sep_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: SEP token = %d '%s'\n " , __func__, special_sep_id, id_to_token[special_sep_id].text .c_str () ); }
2702
2695
if (special_pad_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: PAD token = %d '%s'\n " , __func__, special_pad_id, id_to_token[special_pad_id].text .c_str () ); }
2703
- if (special_cls_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: CLS token = %d '%s'\n " , __func__, special_cls_id, id_to_token[special_cls_id].text .c_str () ); }
2704
2696
if (special_mask_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: MASK token = %d '%s'\n " , __func__, special_mask_id, id_to_token[special_mask_id].text .c_str () ); }
2705
2697
2706
2698
if (linefeed_id != LLAMA_TOKEN_NULL) { LLAMA_LOG_INFO ( " %s: LF token = %d '%s'\n " , __func__, linefeed_id, id_to_token[linefeed_id].text .c_str () ); }
@@ -2834,7 +2826,7 @@ llama_token_attr llama_vocab::token_get_attr(llama_token id) const {
2834
2826
}
2835
2827
2836
2828
llama_token llama_vocab::token_bos () const {
2837
- return pimpl->type != LLAMA_VOCAB_TYPE_WPM ? pimpl-> special_bos_id : pimpl-> special_cls_id ;
2829
+ return pimpl->special_bos_id ;
2838
2830
}
2839
2831
2840
2832
llama_token llama_vocab::token_eos () const {
@@ -2853,10 +2845,6 @@ llama_token llama_vocab::token_unk() const {
2853
2845
return pimpl->special_unk_id ;
2854
2846
}
2855
2847
2856
- llama_token llama_vocab::token_cls () const {
2857
- return pimpl->special_cls_id ;
2858
- }
2859
-
2860
2848
llama_token llama_vocab::token_sep () const {
2861
2849
return pimpl->special_sep_id ;
2862
2850
}
@@ -3069,8 +3057,9 @@ llama_token llama_vocab_eot(const struct llama_vocab * vocab) {
3069
3057
return vocab->token_eot ();
3070
3058
}
3071
3059
3060
+ // deprecated
3072
3061
llama_token llama_vocab_cls (const struct llama_vocab * vocab) {
3073
- return vocab->token_cls ();
3062
+ return vocab->token_bos ();
3074
3063
}
3075
3064
3076
3065
llama_token llama_vocab_sep (const struct llama_vocab * vocab) {
@@ -3159,7 +3148,8 @@ llama_token llama_token_eot(const struct llama_vocab * vocab) {
3159
3148
3160
3149
// deprecated
3161
3150
llama_token llama_token_cls (const struct llama_vocab * vocab) {
3162
- return llama_vocab_cls (vocab);
3151
+ // return llama_vocab_cls(vocab);
3152
+ return llama_vocab_bos (vocab); // avoid deprecation warning
3163
3153
}
3164
3154
3165
3155
// deprecated
0 commit comments