yoriis commited on
Commit
79365d8
·
verified ·
1 Parent(s): 289e3d9

Add new CrossEncoder model

Browse files
Files changed (7) hide show
  1. README.md +327 -0
  2. config.json +34 -0
  3. model.safetensors +3 -0
  4. special_tokens_map.json +37 -0
  5. tokenizer.json +0 -0
  6. tokenizer_config.json +339 -0
  7. vocab.txt +0 -0
README.md ADDED
@@ -0,0 +1,327 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - cross-encoder
5
+ - generated_from_trainer
6
+ - dataset_size:14805
7
+ - loss:BinaryCrossEntropyLoss
8
+ - dataset_size:10780
9
+ - dataset_size:7756
10
+ base_model: aubmindlab/bert-base-arabertv2
11
+ pipeline_tag: text-ranking
12
+ library_name: sentence-transformers
13
+ ---
14
+
15
+ # CrossEncoder based on aubmindlab/bert-base-arabertv2
16
+
17
+ This is a [Cross Encoder](https://www.sbert.net/docs/cross_encoder/usage/usage.html) model finetuned from [aubmindlab/bert-base-arabertv2](https://huggingface.co/aubmindlab/bert-base-arabertv2) using the [sentence-transformers](https://www.SBERT.net) library. It computes scores for pairs of texts, which can be used for text reranking and semantic search.
18
+
19
+ ## Model Details
20
+
21
+ ### Model Description
22
+ - **Model Type:** Cross Encoder
23
+ - **Base model:** [aubmindlab/bert-base-arabertv2](https://huggingface.co/aubmindlab/bert-base-arabertv2) <!-- at revision 97522efce17efa33036ac619802d5cec238dcad9 -->
24
+ - **Maximum Sequence Length:** 512 tokens
25
+ - **Number of Output Labels:** 1 label
26
+ <!-- - **Training Dataset:** Unknown -->
27
+ <!-- - **Language:** Unknown -->
28
+ <!-- - **License:** Unknown -->
29
+
30
+ ### Model Sources
31
+
32
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
33
+ - **Documentation:** [Cross Encoder Documentation](https://www.sbert.net/docs/cross_encoder/usage/usage.html)
34
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
35
+ - **Hugging Face:** [Cross Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=cross-encoder)
36
+
37
+ ## Usage
38
+
39
+ ### Direct Usage (Sentence Transformers)
40
+
41
+ First install the Sentence Transformers library:
42
+
43
+ ```bash
44
+ pip install -U sentence-transformers
45
+ ```
46
+
47
+ Then you can load this model and run inference.
48
+ ```python
49
+ from sentence_transformers import CrossEncoder
50
+
51
+ # Download from the 🤗 Hub
52
+ model = CrossEncoder("yoriis/arabert-tydi-quqa-task-ar")
53
+ # Get scores for pairs of texts
54
+ pairs = [
55
+ ['اتهم القرآن بأنه السبب في الدكتاتورية الإسلامية لكونه أباح ضرب النساء في حالة النشوز، كيف نرد على ذلك؟', 'من أجل ذلك كتبنا على بني إسرائيل أنه من قتل نفسا بغير نفس أو فساد في الأرض فكأنما قتل الناس جميعا ومن أحياها فكأنما أحيا الناس جميعا ولقد جاءتهم رسلنا بالبينات ثم إن كثيرا منهم بعد ذلك في الأرض لمسرفون. إنما جزاء الذين يحاربون الله ورسوله ويسعون في الأرض فسادا أن يقتلوا أو يصلبوا أو تقطع أيديهم وأرجلهم من خلاف أو ينفوا من الأرض ذلك لهم خزي في الدنيا ولهم في الآخرة عذاب عظيم. إلا الذين تابوا من قبل أن تقدروا عليهم فاعلموا أن الله غفور رحيم.'],
56
+ ['هل سيدنا محمد هو أفضل الأنبياء؟', 'ولقد آتينا موسى وهارون الفرقان وضياء وذكرا للمتقين. الذين يخشون ربهم بالغيب وهم من الساعة مشفقون. وهذا ذكر مبارك أنزلناه أفأنتم له منكرون.'],
57
+ ['كم استغرق سيدنا نوح عليه السلام في بناء السفينة؟', 'فإذا مس الإنسان ضر دعانا ثم إذا خولناه نعمة منا قال إنما أوتيته على علم بل هي فتنة ولكن أكثرهم لا يعلمون. قد قالها الذين من قبلهم فما أغنى عنهم ما كانوا يكسبون. فأصابهم سيئات ما كسبوا والذين ظلموا من هؤلاء سيصيبهم سيئات ما كسبوا وما هم بمعجزين. أولم يعلموا أن الله يبسط الرزق لمن يشاء ويقدر إن في ذلك لآيات لقوم يؤمنون.'],
58
+ ['هل يؤثم الحاكم الذي لا يحكم بما أنزل الله وشرّع؟', 'إنا أنزلنا إليك الكتاب بالحق لتحكم بين الناس بما أراك الله ولا تكن للخائنين خصيما.'],
59
+ ['ما هي اسماء المدن المذكورة في القرآن؟', 'حم. والكتاب المبين. إنا أنزلناه في ليلة مباركة إنا كنا منذرين. فيها يفرق كل أمر حكيم. أمرا من عندنا إنا كنا مرسلين. رحمة من ربك إنه هو السميع العليم. رب السماوات والأرض وما بينهما إن كنتم موقنين. لا إله إلا هو يحيي ويميت ربكم ورب آبائكم الأولين.'],
60
+ ]
61
+ scores = model.predict(pairs)
62
+ print(scores.shape)
63
+ # (5,)
64
+
65
+ # Or rank different texts based on similarity to a single text
66
+ ranks = model.rank(
67
+ 'اتهم القرآن بأنه السبب في الدكتاتورية الإسلامية لكونه أباح ضرب النساء في حالة النشوز، كيف نرد على ذلك؟',
68
+ [
69
+ 'من أجل ذلك كتبنا على بني إسرائيل أنه من قتل نفسا بغير نفس أو فساد في الأرض فكأنما قتل الناس جميعا ومن أحياها فكأنما أحيا الناس جميعا ولقد جاءتهم رسلنا بالبينات ثم إن كثيرا منهم بعد ذلك في الأرض لمسرفون. إنما جزاء الذين يحاربون الله ورسوله ويسعون في الأرض فسادا أن يقتلوا أو يصلبوا أو تقطع أيديهم وأرجلهم من خلاف أو ينفوا من الأرض ذلك لهم خزي في الدنيا ولهم في الآخرة عذاب عظيم. إلا الذين تابوا من قبل أن تقدروا عليهم فاعلموا أن الله غفور رحيم.',
70
+ 'ولقد آتينا موسى وهارون الفرقان وضياء وذكرا للمتقين. الذين يخشون ربهم بالغيب وهم من الساعة مشفقون. وهذا ذكر مبارك أنزلناه أفأنتم له منكرون.',
71
+ 'فإذا مس الإنسان ضر دعانا ثم إذا خولناه نعمة منا قال إنما أوتيته على علم بل هي فتنة ولكن أكثرهم لا يعلمون. قد قالها الذين من قبلهم فما أغنى عنهم ما كانوا يكسبون. فأصابهم سيئات ما كسبوا والذين ظلموا من هؤلاء سيصيبهم سيئات ما كسبوا وما هم بمعجزين. أولم يعلموا أن الله يبسط الرزق لمن يشاء ويقدر إن في ذلك لآيات لقوم يؤمنون.',
72
+ 'إنا أنزلنا إليك الكتاب بالحق لتحكم بين الناس بما أراك الله ولا تكن للخائنين خصيما.',
73
+ 'حم. والكتاب المبين. إنا أنزلناه في ليلة مباركة إنا كنا منذرين. فيها يفرق كل أمر حكيم. أمرا من عندنا إنا كنا مرسلين. رحمة من ربك إنه هو السميع العليم. رب السماوات والأرض وما بينهما إن كنتم موقنين. لا إله إلا هو يحيي ويميت ربكم ورب آبائكم الأولين.',
74
+ ]
75
+ )
76
+ # [{'corpus_id': ..., 'score': ...}, {'corpus_id': ..., 'score': ...}, ...]
77
+ ```
78
+
79
+ <!--
80
+ ### Direct Usage (Transformers)
81
+
82
+ <details><summary>Click to see the direct usage in Transformers</summary>
83
+
84
+ </details>
85
+ -->
86
+
87
+ <!--
88
+ ### Downstream Usage (Sentence Transformers)
89
+
90
+ You can finetune this model on your own dataset.
91
+
92
+ <details><summary>Click to expand</summary>
93
+
94
+ </details>
95
+ -->
96
+
97
+ <!--
98
+ ### Out-of-Scope Use
99
+
100
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
101
+ -->
102
+
103
+ <!--
104
+ ## Bias, Risks and Limitations
105
+
106
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
107
+ -->
108
+
109
+ <!--
110
+ ### Recommendations
111
+
112
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
113
+ -->
114
+
115
+ ## Training Details
116
+
117
+ ### Training Dataset
118
+
119
+ #### Unnamed Dataset
120
+
121
+ * Size: 7,756 training samples
122
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
123
+ * Approximate statistics based on the first 1000 samples:
124
+ | | sentence_0 | sentence_1 | label |
125
+ |:--------|:------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------|:---------------------------------------------------------------|
126
+ | type | string | string | float |
127
+ | details | <ul><li>min: 11 characters</li><li>mean: 41.75 characters</li><li>max: 201 characters</li></ul> | <ul><li>min: 47 characters</li><li>mean: 346.67 characters</li><li>max: 1086 characters</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.13</li><li>max: 1.0</li></ul> |
128
+ * Samples:
129
+ | sentence_0 | sentence_1 | label |
130
+ |:---------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
131
+ | <code>اتهم القرآن بأنه السبب في الدكتاتورية الإسلامية لكونه أباح ضرب النساء في حالة النشوز، كيف نرد على ذلك؟</code> | <code>من أجل ذلك كتبنا على بني إسرائيل أنه من قتل نفسا بغير نفس أو فساد في الأرض فكأنما قتل الناس جميعا ومن أحياها فكأنما أحيا الناس جميعا ولقد جاءتهم رسلنا بالبينات ثم إن كثيرا منهم بعد ذلك في الأرض لمسرفون. إنما جزاء الذين يحاربون الله ورسوله ويسعون في الأرض فسادا أن يقتلوا أو يصلبوا أو تقطع أيديهم وأرجلهم من خلاف أو ينفوا من الأرض ذلك لهم خزي في الدنيا ولهم في الآخرة عذاب عظيم. إلا الذين تابوا من قبل أن تقدروا عليهم فاعلموا أن الله غفور رحيم.</code> | <code>0.0</code> |
132
+ | <code>هل سيدنا محمد هو أفضل الأنبياء؟</code> | <code>ولقد آتينا موسى وهارون الفرقان وضياء وذكرا للمتقين. الذين يخشون ربهم بالغيب وهم من الساعة مشفقون. وهذا ذكر مبارك أنزلناه أفأنتم له منكرون.</code> | <code>0.0</code> |
133
+ | <code>كم استغرق سيدنا نوح عليه السلام في بناء السفينة؟</code> | <code>فإذا مس الإنسان ضر دعانا ثم إذا خولناه نعمة منا قال إنما أوتيته على علم بل هي فتنة ولكن أكثرهم لا يعلمون. قد قالها الذين من قبلهم فما أغنى عنهم ما كانوا يكسبون. فأصابهم سيئات ما كسبوا والذين ظلموا من هؤلاء سيصيبهم سيئات ما كسبوا وما هم بمعجزين. أولم يعلموا أن الله يبسط الرزق لمن يشاء ويقدر إن في ذلك لآيات لقوم يؤمنون.</code> | <code>0.0</code> |
134
+ * Loss: [<code>BinaryCrossEntropyLoss</code>](https://sbert.net/docs/package_reference/cross_encoder/losses.html#binarycrossentropyloss) with these parameters:
135
+ ```json
136
+ {
137
+ "activation_fn": "torch.nn.modules.linear.Identity",
138
+ "pos_weight": null
139
+ }
140
+ ```
141
+
142
+ ### Training Hyperparameters
143
+ #### Non-Default Hyperparameters
144
+
145
+ - `per_device_train_batch_size`: 16
146
+ - `per_device_eval_batch_size`: 16
147
+
148
+ #### All Hyperparameters
149
+ <details><summary>Click to expand</summary>
150
+
151
+ - `overwrite_output_dir`: False
152
+ - `do_predict`: False
153
+ - `eval_strategy`: no
154
+ - `prediction_loss_only`: True
155
+ - `per_device_train_batch_size`: 16
156
+ - `per_device_eval_batch_size`: 16
157
+ - `per_gpu_train_batch_size`: None
158
+ - `per_gpu_eval_batch_size`: None
159
+ - `gradient_accumulation_steps`: 1
160
+ - `eval_accumulation_steps`: None
161
+ - `torch_empty_cache_steps`: None
162
+ - `learning_rate`: 5e-05
163
+ - `weight_decay`: 0.0
164
+ - `adam_beta1`: 0.9
165
+ - `adam_beta2`: 0.999
166
+ - `adam_epsilon`: 1e-08
167
+ - `max_grad_norm`: 1
168
+ - `num_train_epochs`: 3
169
+ - `max_steps`: -1
170
+ - `lr_scheduler_type`: linear
171
+ - `lr_scheduler_kwargs`: {}
172
+ - `warmup_ratio`: 0.0
173
+ - `warmup_steps`: 0
174
+ - `log_level`: passive
175
+ - `log_level_replica`: warning
176
+ - `log_on_each_node`: True
177
+ - `logging_nan_inf_filter`: True
178
+ - `save_safetensors`: True
179
+ - `save_on_each_node`: False
180
+ - `save_only_model`: False
181
+ - `restore_callback_states_from_checkpoint`: False
182
+ - `no_cuda`: False
183
+ - `use_cpu`: False
184
+ - `use_mps_device`: False
185
+ - `seed`: 42
186
+ - `data_seed`: None
187
+ - `jit_mode_eval`: False
188
+ - `use_ipex`: False
189
+ - `bf16`: False
190
+ - `fp16`: False
191
+ - `fp16_opt_level`: O1
192
+ - `half_precision_backend`: auto
193
+ - `bf16_full_eval`: False
194
+ - `fp16_full_eval`: False
195
+ - `tf32`: None
196
+ - `local_rank`: 0
197
+ - `ddp_backend`: None
198
+ - `tpu_num_cores`: None
199
+ - `tpu_metrics_debug`: False
200
+ - `debug`: []
201
+ - `dataloader_drop_last`: False
202
+ - `dataloader_num_workers`: 0
203
+ - `dataloader_prefetch_factor`: None
204
+ - `past_index`: -1
205
+ - `disable_tqdm`: False
206
+ - `remove_unused_columns`: True
207
+ - `label_names`: None
208
+ - `load_best_model_at_end`: False
209
+ - `ignore_data_skip`: False
210
+ - `fsdp`: []
211
+ - `fsdp_min_num_params`: 0
212
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
213
+ - `fsdp_transformer_layer_cls_to_wrap`: None
214
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
215
+ - `deepspeed`: None
216
+ - `label_smoothing_factor`: 0.0
217
+ - `optim`: adamw_torch
218
+ - `optim_args`: None
219
+ - `adafactor`: False
220
+ - `group_by_length`: False
221
+ - `length_column_name`: length
222
+ - `ddp_find_unused_parameters`: None
223
+ - `ddp_bucket_cap_mb`: None
224
+ - `ddp_broadcast_buffers`: False
225
+ - `dataloader_pin_memory`: True
226
+ - `dataloader_persistent_workers`: False
227
+ - `skip_memory_metrics`: True
228
+ - `use_legacy_prediction_loop`: False
229
+ - `push_to_hub`: False
230
+ - `resume_from_checkpoint`: None
231
+ - `hub_model_id`: None
232
+ - `hub_strategy`: every_save
233
+ - `hub_private_repo`: None
234
+ - `hub_always_push`: False
235
+ - `hub_revision`: None
236
+ - `gradient_checkpointing`: False
237
+ - `gradient_checkpointing_kwargs`: None
238
+ - `include_inputs_for_metrics`: False
239
+ - `include_for_metrics`: []
240
+ - `eval_do_concat_batches`: True
241
+ - `fp16_backend`: auto
242
+ - `push_to_hub_model_id`: None
243
+ - `push_to_hub_organization`: None
244
+ - `mp_parameters`:
245
+ - `auto_find_batch_size`: False
246
+ - `full_determinism`: False
247
+ - `torchdynamo`: None
248
+ - `ray_scope`: last
249
+ - `ddp_timeout`: 1800
250
+ - `torch_compile`: False
251
+ - `torch_compile_backend`: None
252
+ - `torch_compile_mode`: None
253
+ - `include_tokens_per_second`: False
254
+ - `include_num_input_tokens_seen`: False
255
+ - `neftune_noise_alpha`: None
256
+ - `optim_target_modules`: None
257
+ - `batch_eval_metrics`: False
258
+ - `eval_on_start`: False
259
+ - `use_liger_kernel`: False
260
+ - `liger_kernel_config`: None
261
+ - `eval_use_gather_object`: False
262
+ - `average_tokens_across_devices`: False
263
+ - `prompts`: None
264
+ - `batch_sampler`: batch_sampler
265
+ - `multi_dataset_batch_sampler`: proportional
266
+
267
+ </details>
268
+
269
+ ### Training Logs
270
+ | Epoch | Step | Training Loss |
271
+ |:------:|:----:|:-------------:|
272
+ | 0.5400 | 500 | 0.0274 |
273
+ | 1.0799 | 1000 | 0.0003 |
274
+ | 1.6199 | 1500 | 0.0001 |
275
+ | 2.1598 | 2000 | 0.0001 |
276
+ | 2.6998 | 2500 | 0.0001 |
277
+ | 0.7418 | 500 | 0.9666 |
278
+ | 1.4837 | 1000 | 0.3318 |
279
+ | 2.2255 | 1500 | 0.2711 |
280
+ | 2.9674 | 2000 | 0.2051 |
281
+ | 1.0309 | 500 | 0.3163 |
282
+ | 2.0619 | 1000 | 0.2196 |
283
+
284
+
285
+ ### Framework Versions
286
+ - Python: 3.11.13
287
+ - Sentence Transformers: 4.1.0
288
+ - Transformers: 4.53.2
289
+ - PyTorch: 2.6.0+cu124
290
+ - Accelerate: 1.9.0
291
+ - Datasets: 2.14.4
292
+ - Tokenizers: 0.21.2
293
+
294
+ ## Citation
295
+
296
+ ### BibTeX
297
+
298
+ #### Sentence Transformers
299
+ ```bibtex
300
+ @inproceedings{reimers-2019-sentence-bert,
301
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
302
+ author = "Reimers, Nils and Gurevych, Iryna",
303
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
304
+ month = "11",
305
+ year = "2019",
306
+ publisher = "Association for Computational Linguistics",
307
+ url = "https://arxiv.org/abs/1908.10084",
308
+ }
309
+ ```
310
+
311
+ <!--
312
+ ## Glossary
313
+
314
+ *Clearly define terms in order to be accessible across audiences.*
315
+ -->
316
+
317
+ <!--
318
+ ## Model Card Authors
319
+
320
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
321
+ -->
322
+
323
+ <!--
324
+ ## Model Card Contact
325
+
326
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
327
+ -->
config.json ADDED
@@ -0,0 +1,34 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "BertForSequenceClassification"
4
+ ],
5
+ "attention_probs_dropout_prob": 0.1,
6
+ "classifier_dropout": null,
7
+ "hidden_act": "gelu",
8
+ "hidden_dropout_prob": 0.1,
9
+ "hidden_size": 768,
10
+ "id2label": {
11
+ "0": "LABEL_0"
12
+ },
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "label2id": {
16
+ "LABEL_0": 0
17
+ },
18
+ "layer_norm_eps": 1e-12,
19
+ "max_position_embeddings": 512,
20
+ "model_type": "bert",
21
+ "num_attention_heads": 12,
22
+ "num_hidden_layers": 12,
23
+ "pad_token_id": 0,
24
+ "position_embedding_type": "absolute",
25
+ "sentence_transformers": {
26
+ "activation_fn": "torch.nn.modules.activation.Sigmoid",
27
+ "version": "4.1.0"
28
+ },
29
+ "torch_dtype": "float32",
30
+ "transformers_version": "4.53.2",
31
+ "type_vocab_size": 2,
32
+ "use_cache": true,
33
+ "vocab_size": 64000
34
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:10804516ab0d49f097514ccd4d1d6682bc1632a995899f518438305a4796cfd8
3
+ size 540799996
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,339 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "+ا",
5
+ "lstrip": false,
6
+ "normalized": true,
7
+ "rstrip": false,
8
+ "single_word": true,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "+ك",
13
+ "lstrip": false,
14
+ "normalized": true,
15
+ "rstrip": false,
16
+ "single_word": true,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "ب+",
21
+ "lstrip": false,
22
+ "normalized": true,
23
+ "rstrip": false,
24
+ "single_word": true,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "+هم",
29
+ "lstrip": false,
30
+ "normalized": true,
31
+ "rstrip": false,
32
+ "single_word": true,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "+ات",
37
+ "lstrip": false,
38
+ "normalized": true,
39
+ "rstrip": false,
40
+ "single_word": true,
41
+ "special": true
42
+ },
43
+ "5": {
44
+ "content": "+ي",
45
+ "lstrip": false,
46
+ "normalized": true,
47
+ "rstrip": false,
48
+ "single_word": true,
49
+ "special": true
50
+ },
51
+ "6": {
52
+ "content": "ل+",
53
+ "lstrip": false,
54
+ "normalized": true,
55
+ "rstrip": false,
56
+ "single_word": true,
57
+ "special": true
58
+ },
59
+ "7": {
60
+ "content": "+هما",
61
+ "lstrip": false,
62
+ "normalized": true,
63
+ "rstrip": false,
64
+ "single_word": true,
65
+ "special": true
66
+ },
67
+ "8": {
68
+ "content": "+نا",
69
+ "lstrip": false,
70
+ "normalized": true,
71
+ "rstrip": false,
72
+ "single_word": true,
73
+ "special": true
74
+ },
75
+ "9": {
76
+ "content": "+ن",
77
+ "lstrip": false,
78
+ "normalized": true,
79
+ "rstrip": false,
80
+ "single_word": true,
81
+ "special": true
82
+ },
83
+ "10": {
84
+ "content": "+ها",
85
+ "lstrip": false,
86
+ "normalized": true,
87
+ "rstrip": false,
88
+ "single_word": true,
89
+ "special": true
90
+ },
91
+ "11": {
92
+ "content": "+كما",
93
+ "lstrip": false,
94
+ "normalized": true,
95
+ "rstrip": false,
96
+ "single_word": true,
97
+ "special": true
98
+ },
99
+ "12": {
100
+ "content": "+ة",
101
+ "lstrip": false,
102
+ "normalized": true,
103
+ "rstrip": false,
104
+ "single_word": true,
105
+ "special": true
106
+ },
107
+ "13": {
108
+ "content": "ف+",
109
+ "lstrip": false,
110
+ "normalized": true,
111
+ "rstrip": false,
112
+ "single_word": true,
113
+ "special": true
114
+ },
115
+ "14": {
116
+ "content": "+كم",
117
+ "lstrip": false,
118
+ "normalized": true,
119
+ "rstrip": false,
120
+ "single_word": true,
121
+ "special": true
122
+ },
123
+ "15": {
124
+ "content": "+كن",
125
+ "lstrip": false,
126
+ "normalized": true,
127
+ "rstrip": false,
128
+ "single_word": true,
129
+ "special": true
130
+ },
131
+ "16": {
132
+ "content": "+ت",
133
+ "lstrip": false,
134
+ "normalized": true,
135
+ "rstrip": false,
136
+ "single_word": true,
137
+ "special": true
138
+ },
139
+ "17": {
140
+ "content": "[بريد]",
141
+ "lstrip": false,
142
+ "normalized": true,
143
+ "rstrip": false,
144
+ "single_word": true,
145
+ "special": true
146
+ },
147
+ "18": {
148
+ "content": "[مستخدم]",
149
+ "lstrip": false,
150
+ "normalized": true,
151
+ "rstrip": false,
152
+ "single_word": true,
153
+ "special": true
154
+ },
155
+ "19": {
156
+ "content": "لل+",
157
+ "lstrip": false,
158
+ "normalized": true,
159
+ "rstrip": false,
160
+ "single_word": true,
161
+ "special": true
162
+ },
163
+ "20": {
164
+ "content": "ال+",
165
+ "lstrip": false,
166
+ "normalized": true,
167
+ "rstrip": false,
168
+ "single_word": true,
169
+ "special": true
170
+ },
171
+ "21": {
172
+ "content": "[رابط]",
173
+ "lstrip": false,
174
+ "normalized": true,
175
+ "rstrip": false,
176
+ "single_word": true,
177
+ "special": true
178
+ },
179
+ "22": {
180
+ "content": "س+",
181
+ "lstrip": false,
182
+ "normalized": true,
183
+ "rstrip": false,
184
+ "single_word": true,
185
+ "special": true
186
+ },
187
+ "23": {
188
+ "content": "+ان",
189
+ "lstrip": false,
190
+ "normalized": true,
191
+ "rstrip": false,
192
+ "single_word": true,
193
+ "special": true
194
+ },
195
+ "24": {
196
+ "content": "+وا",
197
+ "lstrip": false,
198
+ "normalized": true,
199
+ "rstrip": false,
200
+ "single_word": true,
201
+ "special": true
202
+ },
203
+ "25": {
204
+ "content": "+ه",
205
+ "lstrip": false,
206
+ "normalized": true,
207
+ "rstrip": false,
208
+ "single_word": true,
209
+ "special": true
210
+ },
211
+ "26": {
212
+ "content": "+ون",
213
+ "lstrip": false,
214
+ "normalized": true,
215
+ "rstrip": false,
216
+ "single_word": true,
217
+ "special": true
218
+ },
219
+ "27": {
220
+ "content": "+هن",
221
+ "lstrip": false,
222
+ "normalized": true,
223
+ "rstrip": false,
224
+ "single_word": true,
225
+ "special": true
226
+ },
227
+ "28": {
228
+ "content": "+ين",
229
+ "lstrip": false,
230
+ "normalized": true,
231
+ "rstrip": false,
232
+ "single_word": true,
233
+ "special": true
234
+ },
235
+ "29": {
236
+ "content": "��+",
237
+ "lstrip": false,
238
+ "normalized": true,
239
+ "rstrip": false,
240
+ "single_word": true,
241
+ "special": true
242
+ },
243
+ "30": {
244
+ "content": "ك+",
245
+ "lstrip": false,
246
+ "normalized": true,
247
+ "rstrip": false,
248
+ "single_word": true,
249
+ "special": true
250
+ },
251
+ "31": {
252
+ "content": "[PAD]",
253
+ "lstrip": false,
254
+ "normalized": false,
255
+ "rstrip": false,
256
+ "single_word": false,
257
+ "special": true
258
+ },
259
+ "32": {
260
+ "content": "[UNK]",
261
+ "lstrip": false,
262
+ "normalized": false,
263
+ "rstrip": false,
264
+ "single_word": false,
265
+ "special": true
266
+ },
267
+ "33": {
268
+ "content": "[CLS]",
269
+ "lstrip": false,
270
+ "normalized": false,
271
+ "rstrip": false,
272
+ "single_word": false,
273
+ "special": true
274
+ },
275
+ "34": {
276
+ "content": "[SEP]",
277
+ "lstrip": false,
278
+ "normalized": false,
279
+ "rstrip": false,
280
+ "single_word": false,
281
+ "special": true
282
+ },
283
+ "35": {
284
+ "content": "[MASK]",
285
+ "lstrip": false,
286
+ "normalized": false,
287
+ "rstrip": false,
288
+ "single_word": false,
289
+ "special": true
290
+ }
291
+ },
292
+ "clean_up_tokenization_spaces": false,
293
+ "cls_token": "[CLS]",
294
+ "do_basic_tokenize": true,
295
+ "do_lower_case": false,
296
+ "extra_special_tokens": {},
297
+ "mask_token": "[MASK]",
298
+ "max_len": 512,
299
+ "model_max_length": 512,
300
+ "never_split": [
301
+ "+ك",
302
+ "+كما",
303
+ "ك+",
304
+ "+وا",
305
+ "+ين",
306
+ "و+",
307
+ "+كن",
308
+ "+ان",
309
+ "+هم",
310
+ "+ة",
311
+ "[بريد]",
312
+ "لل+",
313
+ "+ي",
314
+ "+ت",
315
+ "+ن",
316
+ "س+",
317
+ "ل+",
318
+ "[مستخدم]",
319
+ "+كم",
320
+ "+ا",
321
+ "ب+",
322
+ "ف+",
323
+ "+نا",
324
+ "+ها",
325
+ "+ون",
326
+ "+هما",
327
+ "ال+",
328
+ "+ه",
329
+ "+هن",
330
+ "+ات",
331
+ "[رابط]"
332
+ ],
333
+ "pad_token": "[PAD]",
334
+ "sep_token": "[SEP]",
335
+ "strip_accents": null,
336
+ "tokenize_chinese_chars": true,
337
+ "tokenizer_class": "BertTokenizer",
338
+ "unk_token": "[UNK]"
339
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff