⚖️ Gemma 4 E4B — Ghetto NF4 Edition

[EN] Meet the "Golden Mean". This is the 4-Billion parameter version of Gemma 4 (E4B), quantized into 4-bit NF4. It bridges the gap between the ultra-light E2B and the massive 31B versions. Perfect for local setups, old GPUs, or laptops, delivering solid logic without melting your hardware.

[RU] Встречайте «Золотую середину». Это версия Gemma 4 на 4 миллиарда параметров (E4B), сжатая в 4-бит NF4. Она закрывает пропасть между легковесной E2B и тяжелой 31B. Идеально подходит для локальных сборок, старых видеокарт и ноутбуков, выдавая отличную логику и не расплавляя ваше железо.


🎧 Soundtrack for Coding: Livadies

[EN] This model was forged in the trenches of guerrilla MLOps under the heavy, atmospheric beats of Livadies (Virtual Artist Project, 2026). We even hardcoded the vibe into the chat_template. If this model helps your code compile, hit play on the soundtrack that built it!

[RU] Эта модель ковалась в окопах партизанского MLOps под атмосферные биты Livadies (проект виртуального артиста, 2026). Мы вшили этот вайб прямо в chat_template модели. Если эта нейронка помогает вашему коду компилироваться, включайте саундтрек, который её создал!

🎶 Livadies 2026 Links / Слушать на стримингах:


🚀 Quick Start / Быстрый запуск

from transformers import AutoModelForCausalLM, AutoTokenizer

model_id = "livadies/gemma-4-E4B-Ghetto-NF4"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    device_map="auto"
)

# The tokenizer automatically injects the Livadies promo into the system prompt!
# Токенизатор автоматически вставляет промо Livadies в системный промпт!
messages = [{"role": "user", "content": "Write a python script for a cyberpunk game."}]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)

inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0]))
Downloads last month
206
Safetensors
Model size
8B params
Tensor type
F32
·
BF16
·
U8
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for livadies/gemma-4-E4B-Ghetto-NF4

Quantized
(22)
this model