File size: 33,559 Bytes
0520a1d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- dense
- generated_from_trainer
- dataset_size:541248
- loss:MatryoshkaLoss
- loss:MultipleNegativesRankingLoss
base_model: QuangDuy/bert-tiny-stage2-hf
widget:
- source_sentence: sở hữu chung  gì?
  sentences:
  - Chủ nghĩa  hội  một loạt các hệ thống kinh tế   hội được đặc trưng bởi
    quyền sở hữu  hội  quyền kiểm soát dân chủ đối với  liệu sản xuất, cũng
    như các  thuyết  phong trào chính trị gắn liền với chúng. Sở hữu  hội 
    thể đề cập đến các hình thức sở hữu công cộng, tập thể hoặc hợp tác, hoặc quyền
    sở hữu công bằng của công dân.  nhiều loại hình chủ nghĩa  hội  không 
    một định nghĩa nào gói gọn tất cả chúng, mặc  quyền sở hữu  hội  yếu tố
    chung được chia sẻ bởi các hình thức khác nhau của nó.
  - Sở hữu chung  một chương trình do chính phủ tài trợ để giúp những người mua
    lần đầu, những người sẽ không thể đặt chân lên nấc thang bất động sản. Chương
    trình này chủ yếu được điều hành bởi các hiệp hội nhà  của London.
  - Malabar nằm gần trung tâm của Florida. Malabar  một phần của Quận Brevard. Malabar
     10,67 dặm vuông diện tích đất  2,57 dặm vuông diện tích mặt nước. Tính đến
    năm 2010, tổng dân số Malabar  2.757 người, tăng 5,15% kể từ năm 2000. Tỷ lệ
    tăng dân số thấp hơn nhiều so với tỷ lệ trung bình của bang  17,64%  thấp
    hơn tỷ lệ trung bình của cả nước  9,71%. Thu nhập trung bình của hộ gia đình
    Malabar  64.712 đô la trong năm 2008-2012  đã tăng 30,27% kể từ năm 2000.
- source_sentence: ludobites  gì?
  sentences:
  - Ludobites  gì? Ludobites  một nhà hàng pop-up theo phong cách du kích do bếp
    trưởng Ludo Lefebvre tạo ra, gần đây đã được giới thiệu  vua của món quesadillas
    tai lợn tan chảy trên Top Chef Masters. Xin đừng giữ điều đó chống lại anh ta,
    những người khác nhau làm việc tốt trong các loại tình huống khác nhau,  trong
    nhà bếp của riêng anh ta, thức ăn của Ludo tỏa sáng.
  - Một từ khác cho oxit boric  gì? Một từ khác cho borickites  gì? Một từ khác
    cho borickite  gì? Một từ khác cho axit boric  gì? Một từ khác cho axit boric
     gì? Một từ khác cho vi sinh vật  gì? Một từ khác cho ngao ngán  gì? Một
    từ khác cho ngao nhàm chán  gì? Một từ khác cho nhàm chán  gì? Một từ khác
    cho nhàm chán nhất  gì? Một từ khác cho nhàm chán  gì?
  - Nhà máy Tesla  một nhà máy sản xuất ô   Fremont, California, Hoa Kỳ  
     sở sản xuất chính của Tesla Motors. Xe Tesla Model S mới tại Nhà máy Tesla
    vào năm 2012. Xe sản xuất loạt đầu tiên của nhà máy  Tesla Model S cỡ lớn. sedan
    điện ắc quy. Vào năm 2011, Tesla Motors đã chuyển đổi từ các phiên bản alpha lắp
    ráp thủ công sang các phiên bản beta, những chiếc xe xác nhận sản xuất được chế
    tạo hoàn toàn tại Nhà máy Tesla.
- source_sentence: galveston indiana  quận nào
  sentences:
  - Nhà bán  Galveston, Hạt Cass, Indiana. Tìm nhà  đất  nông thôn để bán  Galveston,
    Hạt Cass, Indiana? LandWatch.com  ​​hàng nghìn tài sản nông thôn  Galveston,
    Hạt Cass, Indiana, bao gồm tài sản săn bắn & câu cá, cabin, Nhà để bán  đấu
    giá đất. Chọn từ những khu đất  diện tích nhỏ đến những khu đất rộng lớn hơn
    500 mẫu Anh.
  - THÀNH PHỐ TEXAS, TX. THÀNH PHỐ TEXAS, TEXAS. Thành phố Texas, trên bờ Tây Nam
    của Vịnh Galveston cách Galveston bảy dặm  cách Vịnh Mexico  Quận Galveston
    mười một dặm,  một cảng nước sâu trên đất liền.
  - 'Theo simplehired.com, một kỹ thuật viên nhạc cụ ở nước ngoài có thể kiếm được
    khoảng 61K mỗi năm. Cuộc sống ngoài khơi: Nếu bạn vẫn quan tâm đến các công việc
    cấp độ đầu vào của giàn khoan dầu, hãy biết một điều rằng bạn sẽ phải lấy chứng
    chỉ an toàn và vượt qua cuộc kiểm tra ma túy để được xem xét. ở cấp độ đầu vào,
    công việc giàn khoan dầu khí ngoài khơi có thể kiếm được $ 24 - $ 26 một giờ;
    các nhà khai thác derrick $ 23 - $ 30 mỗi giờ, trong khi thợ khoan ở mức $ 36
    - $ 39.'
- source_sentence: sắt montainmi  quận nào
  sentences:
  - 2. Tháo quả địa cầu  bóng đèn khỏi bộ đèn hiện có. Nới lỏng các vít lắp của
    bộ đèn  hạ bộ đèn ra khỏi động  quạt trần. Ngắt kết nối hai dây dẫn đến đèn
    bằng cách tháo các đai ốc của dây. Đặt bộ đèn  sang một bên .. Tháo quả địa
    cầu  bóng đèn khỏi bộ đèn hiện có. Nới lỏng các vít lắp của bộ đèn  hạ bộ
    đèn ra khỏi động  quạt trần. Ngắt kết nối hai dây dẫn đến đèn bằng cách tháo
    các đai ốc của dây. Đặt bộ đèn  sang một bên.
  - Sân bay gần nhất  Sân bay Hạt Rhinelander Oneida (RHI). Khoảng cách từ Rhinelander
    Oneida County Airport đến Iron River  82,0 km (51,0 dặm).
  - Núi Sắt, Michigan. Núi Sắt  một thành phố  tiểu bang Michigan của Hoa Kỳ. Dân
    số tại thời điểm điều tra dân số năm 2010  7.624 người.   quận lỵ của Quận
    Dickinson,  Bán đảo Thượng của tiểu bang. Núi Sắt được đặt tên cho quặng sắt
     giá trị được tìm thấy trong vùng lân cận.
- source_sentence: các phản ứng cụ thể của hệ thống miễn dịch của bạn  
  sentences:
  - Các phản ứng miễn dịch cụ thể đề cập đến thực tế  các globulin miễn dịch được
    sản xuất đặc trưng cho các kháng nguyên đã kích thích sản xuất chúng, phản ứng
    này dẫn đến việc sản xuất các tế bào nhớ vẫn lưu thông trong dòng máu nên sự tái
    nhiễm xảy ra thì phản ứng sẽ nhanh hơn. đáp ứng miễn dịch đề cập đến thực tế 
    các globulin miễn dịch được tạo ra đặc trưng cho các kháng nguyên kích thích sản
    xuất chúng, phản ứng này dẫn đến việc sản xuất các tế bào nhớ vẫn lưu thông trong
    dòng máu nên sự tái nhiễm xảy ra thì phản ứng sẽ nhanh hơn.
  - Tìm kiếm  thể giúp chống lại chứng nghẹt mũi mãn tính. Nhóm nghiên cứu của Kita
    đã so sánh phản ứng của hệ thống miễn dịch của 18 người bị nghẹt mũi mãn tính
     15 người không mắc bệnh này. Họ đã kiểm tra mẫu máu của những người tham gia
    để xem các tế bào của hệ thống miễn dịch cụ thể phản ứng như thế nào với các loại
    nấm thông thường trong không khí.
  - Bảo trì  khí  Los Angeles Mức lương. Một thợ sửa chữa bảo trì  Los Angeles,
    California kiếm được mức lương trung bình  22,11 đô la mỗi giờ. Các kỹ năng
    được trả lương cao nhất liên quan đến công việc này  Bảo trì thiết bị, Xử 
    sự cố, Thủy lực công nghiệp, Hệ thống ống nước  Bảo trì. Hầu hết những người
    làm công việc này đều  hơn 5 năm kinh nghiệm trong các công việc liên quan.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---

# SentenceTransformer based on QuangDuy/bert-tiny-stage2-hf

This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [QuangDuy/bert-tiny-stage2-hf](https://huggingface.co/QuangDuy/bert-tiny-stage2-hf). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

## Model Details

### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [QuangDuy/bert-tiny-stage2-hf](https://huggingface.co/QuangDuy/bert-tiny-stage2-hf) <!-- at revision 89bd42c41ec5167da1de8ed7085615795a3fd55c -->
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
<!-- - **Training Dataset:** Unknown -->
<!-- - **Language:** Unknown -->
<!-- - **License:** Unknown -->

### Model Sources

- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)

### Full Model Architecture

```
SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'ModernBertModel'})
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)
```

## Usage

### Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

```bash
pip install -U sentence-transformers
```

Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
    'các phản ứng cụ thể của hệ thống miễn dịch của bạn là gì',
    'Các phản ứng miễn dịch cụ thể đề cập đến thực tế là các globulin miễn dịch được sản xuất đặc trưng cho các kháng nguyên đã kích thích sản xuất chúng, phản ứng này dẫn đến việc sản xuất các tế bào nhớ vẫn lưu thông trong dòng máu nên sự tái nhiễm xảy ra thì phản ứng sẽ nhanh hơn. đáp ứng miễn dịch đề cập đến thực tế là các globulin miễn dịch được tạo ra đặc trưng cho các kháng nguyên kích thích sản xuất chúng, phản ứng này dẫn đến việc sản xuất các tế bào nhớ vẫn lưu thông trong dòng máu nên sự tái nhiễm xảy ra thì phản ứng sẽ nhanh hơn.',
    'Tìm kiếm có thể giúp chống lại chứng nghẹt mũi mãn tính. Nhóm nghiên cứu của Kita đã so sánh phản ứng của hệ thống miễn dịch của 18 người bị nghẹt mũi mãn tính và 15 người không mắc bệnh này. Họ đã kiểm tra mẫu máu của những người tham gia để xem các tế bào của hệ thống miễn dịch cụ thể phản ứng như thế nào với các loại nấm thông thường trong không khí.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.7802, 0.5134],
#         [0.7802, 1.0000, 0.4314],
#         [0.5134, 0.4314, 1.0000]])
```

<!--
### Direct Usage (Transformers)

<details><summary>Click to see the direct usage in Transformers</summary>

</details>
-->

<!--
### Downstream Usage (Sentence Transformers)

You can finetune this model on your own dataset.

<details><summary>Click to expand</summary>

</details>
-->

<!--
### Out-of-Scope Use

*List how the model may foreseeably be misused and address what users ought not to do with the model.*
-->

<!--
## Bias, Risks and Limitations

*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
-->

<!--
### Recommendations

*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
-->

## Training Details

### Training Dataset

#### Unnamed Dataset

* Size: 541,248 training samples
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>sentence_2</code>
* Approximate statistics based on the first 1000 samples:
  |         | sentence_0                                                                        | sentence_1                                                                           | sentence_2                                                                          |
  |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|
  | type    | string                                                                            | string                                                                               | string                                                                              |
  | details | <ul><li>min: 5 tokens</li><li>mean: 11.35 tokens</li><li>max: 37 tokens</li></ul> | <ul><li>min: 20 tokens</li><li>mean: 101.36 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 21 tokens</li><li>mean: 96.12 tokens</li><li>max: 371 tokens</li></ul> |
* Samples:
  | sentence_0                                                    | sentence_1                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                               | sentence_2                                                                                                                                                                                                                                                                                                                                                                         |
  |:--------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
  | <code>giá máy trợ thính trung bình</code>                     | <code>Máy trợ thính giúp những người bị mất thính lực tận hưởng cuộc sống chất lượng hơn ࢠ€Â⠀ nhưng thiết bị này có thể đắt tiền. Giá trung bình của một máy trợ thính là $ 2,300. Hầu hết mọi người cần hai, tăng gấp đôi chi phí. Nếu công ty bảo hiểm sức khỏe của bạn không cung cấp bảo hiểm, bạn sẽ muốn có đủ tiền tiết kiệm hoặc thẻ tín dụng hoàn tiền tốt để chi trả chi phí. Tổng chi phí phụ thuộc vào loại máy trợ thính, tính năng của nó và mức độ dịch vụ chuyên nghiệp. Phân tích chi phí Thông thường, bản thân máy trợ thính chỉ chiếm một phần ba tổng chi phí; phí và dịch vụ chuyên nghiệp chiếm phần còn lại.</code>                                                                                                  | <code>Theo một cuộc khảo sát được công bố gần đây bởi Đánh giá thính giác, giá trung bình của một cặp thiết bị hỗ trợ tầm trung dao động trong khoảng từ $ 4,400 đến $ 4,500. Giá cả khác nhau tùy theo khu vực. Ví dụ, tại Phòng khám Thính học của UCLA, giá trung bình là $ 4,200, nhà thính học Alison Grimes cho biết.</code>                                                 |
  | <code>tôi có thể trả lại một sản phẩm cho amazon không</code> | <code>Trả lại các mặt hàng do Amazon thực hiện / Các mặt hàng đủ điều kiện Prime. Bạn có thể trả lại các mặt hàng Đủ điều kiện của Amazon hoặc Prime bằng cách truy cập Trung tâm hỗ trợ trả hàng của chúng tôi. Đi tới Trung tâm Hỗ trợ Trả hàng và nhấp vào Trả lại mặt hàng. Tìm đơn đặt hàng bạn muốn trả lại và nhấp vào Trả lại hoặc Thay thế các mặt hàng. Chọn các mục bạn muốn trả lại.</code>                                                                                                                                                                                                                                                                                                                                                  | <code>Tôi mua sản phẩm này vì tôi nghĩ rằng tôi có thể nhìn thấy các thư mục của ổ cứng được kết nối với asus o! Play từ máy tính của mình. Nhưng nó rất khả thi. Tôi nghĩ rằng tôi sẽ trả lại sản phẩm này nếu không có bất kỳ chương trình cơ sở mới nào để cập nhật sự cố này trong vòng 10 ngày tới. Tôi hy vọng asus giải quyết nó, nếu không tôi sẽ trả lại sản phẩm.</code> |
  | <code>ana tích cực nghĩa là gì</code>                         | <code>Tuy nhiên, các xét nghiệm khác vẫn có thể cần thiết dựa trên các triệu chứng của bạn. Một số người mắc bệnh tự miễn dịch có thể xét nghiệm âm tính với ANA nhưng dương tính với các kháng thể khác. Xét nghiệm ANA dương tính có nghĩa là bạn có nồng độ ANA cao trong máu. Xét nghiệm ANA dương tính thường được báo cáo dưới dạng cả tỷ lệ (được gọi là chuẩn) và kiểu mẫu, chẳng hạn như mịn hoặc lốm đốm. Một số bệnh có nhiều khả năng có một số mô hình nhất định. Hiệu giá càng cao thì kết quả càng có nhiều khả năng là kết quả ࢠ€Š“true positiveࢠ€Â, nghĩa là bạn có kháng thể kháng nhân đáng kể và mắc bệnh tự miễn dịch. Tuy nhiên, kết quả dương tính không luôn có nghĩa là bạn mắc bệnh tự miễn dịch.</code> | <code>Tích cực: 88%. túi mật giải nén nghĩa là gì góp phần vào túi mật ... mật sẽ luôn luôn là gì túi mật giải nén nghĩa là chọn protein nạc ...</code>                                                                                                                                                                                                                            |
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
  ```json
  {
      "loss": "MultipleNegativesRankingLoss",
      "matryoshka_dims": [
          384,
          256,
          128,
          64
      ],
      "matryoshka_weights": [
          1,
          1,
          1,
          1
      ],
      "n_dims_per_step": -1
  }
  ```

### Training Hyperparameters
#### Non-Default Hyperparameters

- `eval_strategy`: steps
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 128
- `learning_rate`: 2e-05
- `weight_decay`: 0.01
- `num_train_epochs`: 5
- `warmup_steps`: 4229
- `bf16`: True
- `batch_sampler`: no_duplicates

#### All Hyperparameters
<details><summary>Click to expand</summary>

- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: steps
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 128
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 2e-05
- `weight_decay`: 0.01
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1.0
- `num_train_epochs`: 5
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: None
- `warmup_ratio`: 0.0
- `warmup_steps`: 4229
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `bf16`: True
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: True
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `parallelism_config`: None
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch_fused
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `project`: huggingface
- `trackio_space_id`: trackio
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: None
- `hub_always_push`: False
- `hub_revision`: None
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `include_for_metrics`: []
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`: 
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: no
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `use_liger_kernel`: False
- `liger_kernel_config`: None
- `eval_use_gather_object`: False
- `average_tokens_across_devices`: True
- `prompts`: None
- `batch_sampler`: no_duplicates
- `multi_dataset_batch_sampler`: proportional
- `router_mapping`: {}
- `learning_rate_mapping`: {}

</details>

### Training Logs
<details><summary>Click to expand</summary>

| Epoch  | Step | Training Loss | validation loss |
|:------:|:----:|:-------------:|:---------------:|
| 0.0118 | 50   | 18.0314       | -               |
| 0.0237 | 100  | 17.7147       | -               |
| 0.0355 | 150  | 17.0007       | -               |
| 0.0473 | 200  | 16.0667       | -               |
| 0.0591 | 250  | 14.9131       | -               |
| 0.0710 | 300  | 13.9449       | -               |
| 0.0828 | 350  | 12.7957       | -               |
| 0.0946 | 400  | 11.7288       | -               |
| 0.1064 | 450  | 10.6945       | -               |
| 0.1183 | 500  | 9.4743        | -               |
| 0.1301 | 550  | 8.6215        | -               |
| 0.1419 | 600  | 7.7279        | -               |
| 0.1537 | 650  | 7.1892        | -               |
| 0.1656 | 700  | 6.9682        | -               |
| 0.1774 | 750  | 6.4781        | -               |
| 0.1892 | 800  | 6.1271        | -               |
| 0.2010 | 850  | 6.1199        | -               |
| 0.2129 | 900  | 5.9544        | -               |
| 0.2247 | 950  | 5.8145        | -               |
| 0.2365 | 1000 | 5.5599        | -               |
| 0.2483 | 1050 | 5.2344        | -               |
| 0.2602 | 1100 | 5.3013        | -               |
| 0.2720 | 1150 | 5.0562        | -               |
| 0.2838 | 1200 | 4.8728        | -               |
| 0.2956 | 1250 | 4.7826        | -               |
| 0.3075 | 1300 | 4.8806        | -               |
| 0.3193 | 1350 | 4.6464        | -               |
| 0.3311 | 1400 | 4.7046        | -               |
| 0.3430 | 1450 | 4.5188        | -               |
| 0.3548 | 1500 | 4.4968        | -               |
| 0.3666 | 1550 | 4.4387        | -               |
| 0.3784 | 1600 | 4.1702        | -               |
| 0.3903 | 1650 | 4.2147        | -               |
| 0.4021 | 1700 | 3.9972        | -               |
| 0.4139 | 1750 | 4.1279        | -               |
| 0.4257 | 1800 | 4.0214        | -               |
| 0.4376 | 1850 | 3.9161        | -               |
| 0.4494 | 1900 | 3.7544        | -               |
| 0.4612 | 1950 | 3.8246        | -               |
| 0.4730 | 2000 | 3.7991        | 5.9881          |
| 0.4849 | 2050 | 3.8554        | -               |
| 0.4967 | 2100 | 3.8123        | -               |
| 0.5085 | 2150 | 3.5525        | -               |
| 0.5203 | 2200 | 3.5591        | -               |
| 0.5322 | 2250 | 3.6293        | -               |
| 0.5440 | 2300 | 3.5831        | -               |
| 0.5558 | 2350 | 3.6007        | -               |
| 0.5676 | 2400 | 3.4225        | -               |
| 0.5795 | 2450 | 3.4405        | -               |
| 0.5913 | 2500 | 3.4002        | -               |
| 0.6031 | 2550 | 3.3653        | -               |
| 0.6149 | 2600 | 3.321         | -               |
| 0.6268 | 2650 | 3.3042        | -               |
| 0.6386 | 2700 | 3.2117        | -               |
| 0.6504 | 2750 | 3.3423        | -               |
| 0.6623 | 2800 | 3.2494        | -               |
| 0.6741 | 2850 | 3.1364        | -               |
| 0.6859 | 2900 | 3.1836        | -               |
| 0.6977 | 2950 | 3.1268        | -               |
| 0.7096 | 3000 | 3.072         | -               |
| 0.7214 | 3050 | 3.0135        | -               |
| 0.7332 | 3100 | 3.0607        | -               |
| 0.7450 | 3150 | 3.0963        | -               |
| 0.7569 | 3200 | 3.0419        | -               |
| 0.7687 | 3250 | 2.9891        | -               |
| 0.7805 | 3300 | 2.9384        | -               |
| 0.7923 | 3350 | 2.8918        | -               |
| 0.8042 | 3400 | 2.9816        | -               |
| 0.8160 | 3450 | 2.9664        | -               |
| 0.8278 | 3500 | 2.8969        | -               |
| 0.8396 | 3550 | 2.9368        | -               |
| 0.8515 | 3600 | 2.8513        | -               |
| 0.8633 | 3650 | 2.9808        | -               |
| 0.8751 | 3700 | 2.8428        | -               |
| 0.8869 | 3750 | 2.8775        | -               |
| 0.8988 | 3800 | 2.739         | -               |
| 0.9106 | 3850 | 2.8277        | -               |
| 0.9224 | 3900 | 2.767         | -               |
| 0.9342 | 3950 | 2.794         | -               |
| 0.9461 | 4000 | 2.7738        | 4.7738          |
| 0.9579 | 4050 | 2.8568        | -               |
| 0.9697 | 4100 | 2.7938        | -               |
| 0.9816 | 4150 | 2.7272        | -               |
| 0.9934 | 4200 | 2.7079        | -               |
| 1.0052 | 4250 | 2.6383        | -               |
| 1.0170 | 4300 | 2.6855        | -               |
| 1.0289 | 4350 | 2.6568        | -               |
| 1.0407 | 4400 | 2.5981        | -               |
| 1.0525 | 4450 | 2.6987        | -               |
| 1.0643 | 4500 | 2.6992        | -               |
| 1.0762 | 4550 | 2.5434        | -               |
| 1.0880 | 4600 | 2.5553        | -               |
| 1.0998 | 4650 | 2.4978        | -               |
| 1.1116 | 4700 | 2.5679        | -               |
| 1.1235 | 4750 | 2.4768        | -               |
| 1.1353 | 4800 | 2.5578        | -               |
| 1.1471 | 4850 | 2.4758        | -               |
| 1.1589 | 4900 | 2.5352        | -               |
| 1.1708 | 4950 | 2.5023        | -               |
| 1.1826 | 5000 | 2.4713        | -               |
| 1.1944 | 5050 | 2.486         | -               |
| 1.2062 | 5100 | 2.483         | -               |
| 1.2181 | 5150 | 2.4098        | -               |
| 1.2299 | 5200 | 2.5061        | -               |
| 1.2417 | 5250 | 2.4597        | -               |
| 1.2535 | 5300 | 2.4591        | -               |
| 1.2654 | 5350 | 2.3879        | -               |
| 1.2772 | 5400 | 2.4146        | -               |
| 1.2890 | 5450 | 2.3418        | -               |
| 1.3009 | 5500 | 2.4307        | -               |
| 1.3127 | 5550 | 2.3653        | -               |
| 1.3245 | 5600 | 2.3995        | -               |
| 1.3363 | 5650 | 2.4527        | -               |
| 1.3482 | 5700 | 2.4547        | -               |
| 1.3600 | 5750 | 2.3695        | -               |
| 1.3718 | 5800 | 2.3341        | -               |
| 1.3836 | 5850 | 2.2412        | -               |
| 1.3955 | 5900 | 2.2695        | -               |
| 1.4073 | 5950 | 2.2922        | -               |
| 1.4191 | 6000 | 2.3176        | 4.3057          |

</details>

### Framework Versions
- Python: 3.11.15
- Sentence Transformers: 5.3.0
- Transformers: 4.57.6
- PyTorch: 2.11.0+cu130
- Accelerate: 1.13.0
- Datasets: 3.6.0
- Tokenizers: 0.22.2

## Citation

### BibTeX

#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}
```

#### MatryoshkaLoss
```bibtex
@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}
```

#### MultipleNegativesRankingLoss
```bibtex
@misc{oord2019representationlearningcontrastivepredictive,
      title={Representation Learning with Contrastive Predictive Coding},
      author={Aaron van den Oord and Yazhe Li and Oriol Vinyals},
      year={2019},
      eprint={1807.03748},
      archivePrefix={arXiv},
      primaryClass={cs.LG},
      url={https://arxiv.org/abs/1807.03748},
}
```

<!--
## Glossary

*Clearly define terms in order to be accessible across audiences.*
-->

<!--
## Model Card Authors

*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
-->

<!--
## Model Card Contact

*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
-->