☕ Support my research
Model Card: DAC5-0.5B (M.INC. Research)
DAC5-0.5B (M.INC. Research)
DAC5-0.5B è un Large Language Model (LLM) di piccole dimensioni ottimizzato per l'inferenza locale e l'automazione di sistema. Il modello rappresenta l'evoluzione del lavoro di ricerca condotto da M.INC. Research sulla massimizzazione dell'efficienza dei parametri (Parameter Efficiency), utilizzando come architettura di base Qwen2.5-0.5B-Instruct.
Descrizione del Modello
Il progetto DAC5 nasce dalla necessità di fornire un'intelligenza on-device capace di operare in scenari con risorse computazionali estremamente limitate, garantendo al contempo una precisione elevata nell'esecuzione di task specifici. Nonostante l'architettura di partenza non sia l'ultima release sul mercato, la scelta di Qwen2.5-0.5B è stata dettata dalla sua eccezionale densità informativa e dalla velocità di processamento dei token, rendendolo il candidato ideale per l'integrazione in sistemi operativi mobili.
Caratteristiche Principali
- Architettura: Transformer Causal Decoder-only (basato su Qwen2.5).
- Specializzazione Italiana: Il dataset di fine-tuning è stato pesantemente bilanciato per correggere le debolezze sintattiche e semantiche del modello base nella lingua italiana.
- Agentic Capabilities: Ottimizzato per il Function Calling deterministico su ambiente Android.
- Efficienza: Progettato per l'esecuzione su CPU e NPU di smartphone di fascia media e bassa.
Integrazione Tool Calling (Android OS)
M.INC. Research ha implementato un protocollo di istruzioni specifico per permettere al modello di interfacciarsi con le API di sistema Android. Il modello è in grado di mappare il linguaggio naturale in chiamate funzionali per i seguenti tool:
Sistema e Connettività:
enable_wifi, disable_wifi, open_wifi_settings, enable_bluetooth, disable_bluetooth, open_bluetooth_settings, enable_gps, disable_gps, enable_hotspot, disable_hotspot, enable_nfc, disable_nfc, enable_airplane_mode, disable_airplane_mode, enable_battery_saver, disable_battery_saver, open_settings, open_network_settings, open_display_settings, open_sound_settings, open_security_settings, open_privacy_settings, open_account_settings, open_language_settings, open_notification_settings.
Media e Interfaccia:
set_brightness, increase_brightness, decrease_brightness, set_volume, increase_volume, decrease_volume, set_silent_mode, disable_silent_mode, set_vibration_mode, enable_auto_rotate, disable_auto_rotate, enable_dark_mode, disable_dark_mode, lock_screen, take_screenshot, play_music, pause_music, stop_music, next_track, previous_track, enable_shuffle, enable_repeat.
Applicazioni e Produttività:
open_app, open_browser, open_url, web_search, make_call, redial_last_number, send_sms, send_email, open_email_app, create_contact, search_contact, open_contacts, create_note, open_notes_app, create_calendar_event, get_calendar_events, open_calendar, set_alarm, delete_alarm, set_timer, stop_timer, pause_timer, navigate_to, open_maps, get_current_location, get_weather, open_calculator.
Camera e Registrazione:
open_camera, take_photo, take_selfie, start_video_recording, stop_video_recording, start_screen_recording, stop_screen_recording, turn_on_flashlight, turn_off_flashlight.
Dati di Training e Metodologia
Il fine-tuning è stato condotto attraverso una pipeline di Supervised Fine-Tuning (SFT) proprietaria di M.INC. Research. L'attenzione è stata focalizzata sulla compressione della logica di ragionamento per evitare la degradazione delle capacità conversazionali durante l'apprendimento dei task esecutivi. Il risultato è un modello capace di mantenere un dialogo fluido e naturale in lingua italiana, pur essendo pronti a eseguire comandi complessi su richiesta.
Limitazioni
Data la dimensione di 0.5B parametri, il modello potrebbe presentare limiti nel ragionamento matematico astratto o nella generazione di testi creativi estremamente lunghi. È ottimizzato per compiti di assistenza e automazione.
Termini di Utilizzo e Citazione
Il modello DAC5-0.5B è rilasciato per scopi di ricerca e sviluppo. M.INC. Research ne incoraggia l'integrazione in progetti open-source e commerciali volti a migliorare l'accessibilità dei dispositivi mobili.
Se desiderate utilizzare questo modello o i risultati della nostra ricerca nei vostri progetti, vi preghiamo di includere la seguente citazione:
M.INC. Research, DAC5-0.5B: Optimized Small Language Model for Android Automation (2026). Sviluppato da Mattimax.
Per collaborazioni, integrazioni personalizzate o report sull'utilizzo del modello, si prega di contattare il team di ricerca tramite il profilo Hugging Face ufficiale.
- Downloads last month
- 118