A newer version of this model is available: Mattimax/DAC5.3-0.5B

☕ Support my research

Buy Me a Coffee

Model Card: DAC5-0.5B (M.INC. Research)

DAC5 Logo

DAC5-0.5B (M.INC. Research)

DAC5-0.5B è un Large Language Model (LLM) di piccole dimensioni ottimizzato per l'inferenza locale e l'automazione di sistema. Il modello rappresenta l'evoluzione del lavoro di ricerca condotto da M.INC. Research sulla massimizzazione dell'efficienza dei parametri (Parameter Efficiency), utilizzando come architettura di base Qwen2.5-0.5B-Instruct.

Descrizione del Modello

Il progetto DAC5 nasce dalla necessità di fornire un'intelligenza on-device capace di operare in scenari con risorse computazionali estremamente limitate, garantendo al contempo una precisione elevata nell'esecuzione di task specifici. Nonostante l'architettura di partenza non sia l'ultima release sul mercato, la scelta di Qwen2.5-0.5B è stata dettata dalla sua eccezionale densità informativa e dalla velocità di processamento dei token, rendendolo il candidato ideale per l'integrazione in sistemi operativi mobili.

Caratteristiche Principali

  • Architettura: Transformer Causal Decoder-only (basato su Qwen2.5).
  • Specializzazione Italiana: Il dataset di fine-tuning è stato pesantemente bilanciato per correggere le debolezze sintattiche e semantiche del modello base nella lingua italiana.
  • Agentic Capabilities: Ottimizzato per il Function Calling deterministico su ambiente Android.
  • Efficienza: Progettato per l'esecuzione su CPU e NPU di smartphone di fascia media e bassa.

Integrazione Tool Calling (Android OS)

M.INC. Research ha implementato un protocollo di istruzioni specifico per permettere al modello di interfacciarsi con le API di sistema Android. Il modello è in grado di mappare il linguaggio naturale in chiamate funzionali per i seguenti tool:

Sistema e Connettività: enable_wifi, disable_wifi, open_wifi_settings, enable_bluetooth, disable_bluetooth, open_bluetooth_settings, enable_gps, disable_gps, enable_hotspot, disable_hotspot, enable_nfc, disable_nfc, enable_airplane_mode, disable_airplane_mode, enable_battery_saver, disable_battery_saver, open_settings, open_network_settings, open_display_settings, open_sound_settings, open_security_settings, open_privacy_settings, open_account_settings, open_language_settings, open_notification_settings.

Media e Interfaccia: set_brightness, increase_brightness, decrease_brightness, set_volume, increase_volume, decrease_volume, set_silent_mode, disable_silent_mode, set_vibration_mode, enable_auto_rotate, disable_auto_rotate, enable_dark_mode, disable_dark_mode, lock_screen, take_screenshot, play_music, pause_music, stop_music, next_track, previous_track, enable_shuffle, enable_repeat.

Applicazioni e Produttività: open_app, open_browser, open_url, web_search, make_call, redial_last_number, send_sms, send_email, open_email_app, create_contact, search_contact, open_contacts, create_note, open_notes_app, create_calendar_event, get_calendar_events, open_calendar, set_alarm, delete_alarm, set_timer, stop_timer, pause_timer, navigate_to, open_maps, get_current_location, get_weather, open_calculator.

Camera e Registrazione: open_camera, take_photo, take_selfie, start_video_recording, stop_video_recording, start_screen_recording, stop_screen_recording, turn_on_flashlight, turn_off_flashlight.


Dati di Training e Metodologia

Il fine-tuning è stato condotto attraverso una pipeline di Supervised Fine-Tuning (SFT) proprietaria di M.INC. Research. L'attenzione è stata focalizzata sulla compressione della logica di ragionamento per evitare la degradazione delle capacità conversazionali durante l'apprendimento dei task esecutivi. Il risultato è un modello capace di mantenere un dialogo fluido e naturale in lingua italiana, pur essendo pronti a eseguire comandi complessi su richiesta.

Limitazioni

Data la dimensione di 0.5B parametri, il modello potrebbe presentare limiti nel ragionamento matematico astratto o nella generazione di testi creativi estremamente lunghi. È ottimizzato per compiti di assistenza e automazione.


Termini di Utilizzo e Citazione

Il modello DAC5-0.5B è rilasciato per scopi di ricerca e sviluppo. M.INC. Research ne incoraggia l'integrazione in progetti open-source e commerciali volti a migliorare l'accessibilità dei dispositivi mobili.

Se desiderate utilizzare questo modello o i risultati della nostra ricerca nei vostri progetti, vi preghiamo di includere la seguente citazione:

M.INC. Research, DAC5-0.5B: Optimized Small Language Model for Android Automation (2026). Sviluppato da Mattimax.

Per collaborazioni, integrazioni personalizzate o report sull'utilizzo del modello, si prega di contattare il team di ricerca tramite il profilo Hugging Face ufficiale.

Downloads last month
118
Safetensors
Model size
0.5B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Mattimax/DAC5-0.5B

Finetuned
(740)
this model
Quantizations
2 models

Collection including Mattimax/DAC5-0.5B