yukihamada commited on
Commit
25ed45a
·
verified ·
1 Parent(s): b1d8e9d

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +136 -0
README.md ADDED
@@ -0,0 +1,136 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: other
3
+ license_name: qwen
4
+ license_link: https://huggingface.co/Qwen/Qwen3-1.7B/blob/main/LICENSE
5
+ language:
6
+ - ja
7
+ - en
8
+ base_model: Qwen/Qwen3-1.7B
9
+ tags:
10
+ - gguf
11
+ - japanese
12
+ - thinking
13
+ - llama.cpp
14
+ - ios
15
+ - iphone
16
+ - local-llm
17
+ library_name: transformers
18
+ pipeline_tag: text-generation
19
+ ---
20
+
21
+ # ElioChat-1.7B-Instruct-v3
22
+
23
+ iPhoneで動く日本語思考AI。Qwen3-1.7Bベースに日本語思考データでファインチューニング。
24
+
25
+ ## 特徴
26
+
27
+ - **思考過程が見える**: `<think>...</think>` タグで推論プロセスを表示
28
+ - **日本語最適化**: 日本語・日本文化に特化した1,166件の学習データ
29
+ - **軽量**: Q5_K_M量子化で約1.2GB、iPhone 13以降で快適動作
30
+ - **学習コスト**: わずか$0.70(約100円)
31
+
32
+ ## ダウンロード
33
+
34
+ | ファイル | サイズ | 用途 |
35
+ |----------|--------|------|
36
+ | `ElioChat-1.7B-Instruct-v3-Q5_K_M.gguf` | 1.2 GB | 推奨(バランス型)|
37
+ | `ElioChat-1.7B-Instruct-v3-F16.gguf` | 3.2 GB | 高品質版 |
38
+
39
+ ## 使用例
40
+
41
+ ### llama.cpp
42
+
43
+ ```bash
44
+ llama-cli -m ElioChat-1.7B-Instruct-v3-Q5_K_M.gguf \
45
+ -p "<|im_start|>user\n2の10乗は?<|im_end|>\n<|im_start|>assistant\n" \
46
+ -n 200 --temp 0.7
47
+ ```
48
+
49
+ ### iPhoneアプリ
50
+
51
+ - [ElioChat](https://eliochat.com) - iOS向けローカルLLMアプリ
52
+ - [PocketPal AI](https://pocketpal.ai) - iOS向けLLMアプリ
53
+
54
+ ## 応答例
55
+
56
+ ### 数学問題
57
+
58
+ ```
59
+ Q: 2の10乗はいくつ?
60
+
61
+ A: <think>
62
+ 2を10回かけます。
63
+ 2^1 = 2
64
+ 2^2 = 4
65
+ 2^3 = 8
66
+ ...
67
+ 2^10 = 1024
68
+ </think>
69
+
70
+ 答えは1024です。
71
+ ```
72
+
73
+ ### 論理推論
74
+
75
+ ```
76
+ Q: AはBより背が高い。BはCより背が高い。一番背が高いのは誰?
77
+
78
+ A: <think>
79
+ AはBより高い、BはCより高い。
80
+ A > B > C の関係。
81
+ </think>
82
+
83
+ 一番背が高いのはAです。
84
+ ```
85
+
86
+ ## ベンチマーク(2025年1月)
87
+
88
+ | モデル | 正答率 | 思考タグ | 平均応答時間 |
89
+ |--------|--------|----------|--------------|
90
+ | **ElioChat-1.7B-v3** | 70% | **45%** | 20.7s |
91
+ | Qwen3-1.7B | 65% | 20% | 16.3s |
92
+ | TinySwallow-1.5B | 90% | 0% | 14.9s |
93
+ | Sarashina2.2-3B | 90% | 0% | 8.8s |
94
+
95
+ > ElioChat-v3は思考過程を可視化する唯一のモデル。「なぜその答えなのか」が分かる。
96
+
97
+ ## 学習データ構成
98
+
99
+ | カテゴリ | 件数 |
100
+ |---------|------|
101
+ | コア推論(論理・数学) | 515 |
102
+ | 日本語・文化 | 193 |
103
+ | 会話・ユーモア | 116 |
104
+ | 実用・教養 | 153 |
105
+ | その他 | 189 |
106
+ | **合計** | **1,166** |
107
+
108
+ ## 学習詳細
109
+
110
+ | 項目 | 値 |
111
+ |------|-----|
112
+ | ベースモデル | Qwen/Qwen3-1.7B |
113
+ | 学習方式 | LoRA (PEFT) |
114
+ | LoRA Rank | 64 |
115
+ | GPU | NVIDIA A100-SXM4-40GB |
116
+ | 学習時間 | 32.7分 |
117
+ | **コスト** | **$0.70** |
118
+ | 最終Loss | 1.25 |
119
+
120
+ ## オフライン利用
121
+
122
+ モデルをダウンロードすれば、ネット接続なしで使えます:
123
+ - 飛行機の中
124
+ - 山の中
125
+ - 地下鉄
126
+ - プライバシーが必要な場面
127
+
128
+ ## 関連リンク
129
+
130
+ - **GitHub**: [yukihamada/qwen-jp](https://github.com/yukihamada/qwen-jp)
131
+ - **ElioChat App**: [eliochat.com](https://eliochat.com)
132
+
133
+ ## ライセンス
134
+
135
+ - ベースモデル: Qwen License
136
+ - 学習データ・コード: MIT License