Instructions to use Mattimax/DAC5-0.5B with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use Mattimax/DAC5-0.5B with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="Mattimax/DAC5-0.5B") messages = [ {"role": "user", "content": "Who are you?"}, ] pipe(messages)# Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("Mattimax/DAC5-0.5B") model = AutoModelForCausalLM.from_pretrained("Mattimax/DAC5-0.5B") messages = [ {"role": "user", "content": "Who are you?"}, ] inputs = tokenizer.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use Mattimax/DAC5-0.5B with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "Mattimax/DAC5-0.5B" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Mattimax/DAC5-0.5B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/Mattimax/DAC5-0.5B
- SGLang
How to use Mattimax/DAC5-0.5B with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "Mattimax/DAC5-0.5B" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Mattimax/DAC5-0.5B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "Mattimax/DAC5-0.5B" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Mattimax/DAC5-0.5B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use Mattimax/DAC5-0.5B with Docker Model Runner:
docker model run hf.co/Mattimax/DAC5-0.5B
☕ Support my research
Model Card: DAC5-0.5B (M.INC. Research)
DAC5-0.5B (M.INC. Research)
DAC5-0.5B è un Large Language Model (LLM) di piccole dimensioni ottimizzato per l'inferenza locale e l'automazione di sistema. Il modello rappresenta l'evoluzione del lavoro di ricerca condotto da M.INC. Research sulla massimizzazione dell'efficienza dei parametri (Parameter Efficiency), utilizzando come architettura di base Qwen2.5-0.5B-Instruct.
Descrizione del Modello
Il progetto DAC5 nasce dalla necessità di fornire un'intelligenza on-device capace di operare in scenari con risorse computazionali estremamente limitate, garantendo al contempo una precisione elevata nell'esecuzione di task specifici. Nonostante l'architettura di partenza non sia l'ultima release sul mercato, la scelta di Qwen2.5-0.5B è stata dettata dalla sua eccezionale densità informativa e dalla velocità di processamento dei token, rendendolo il candidato ideale per l'integrazione in sistemi operativi mobili.
Caratteristiche Principali
- Architettura: Transformer Causal Decoder-only (basato su Qwen2.5).
- Specializzazione Italiana: Il dataset di fine-tuning è stato pesantemente bilanciato per correggere le debolezze sintattiche e semantiche del modello base nella lingua italiana.
- Agentic Capabilities: Ottimizzato per il Function Calling deterministico su ambiente Android.
- Efficienza: Progettato per l'esecuzione su CPU e NPU di smartphone di fascia media e bassa.
Integrazione Tool Calling (Android OS)
M.INC. Research ha implementato un protocollo di istruzioni specifico per permettere al modello di interfacciarsi con le API di sistema Android. Il modello è in grado di mappare il linguaggio naturale in chiamate funzionali per i seguenti tool:
Sistema e Connettività:
enable_wifi, disable_wifi, open_wifi_settings, enable_bluetooth, disable_bluetooth, open_bluetooth_settings, enable_gps, disable_gps, enable_hotspot, disable_hotspot, enable_nfc, disable_nfc, enable_airplane_mode, disable_airplane_mode, enable_battery_saver, disable_battery_saver, open_settings, open_network_settings, open_display_settings, open_sound_settings, open_security_settings, open_privacy_settings, open_account_settings, open_language_settings, open_notification_settings.
Media e Interfaccia:
set_brightness, increase_brightness, decrease_brightness, set_volume, increase_volume, decrease_volume, set_silent_mode, disable_silent_mode, set_vibration_mode, enable_auto_rotate, disable_auto_rotate, enable_dark_mode, disable_dark_mode, lock_screen, take_screenshot, play_music, pause_music, stop_music, next_track, previous_track, enable_shuffle, enable_repeat.
Applicazioni e Produttività:
open_app, open_browser, open_url, web_search, make_call, redial_last_number, send_sms, send_email, open_email_app, create_contact, search_contact, open_contacts, create_note, open_notes_app, create_calendar_event, get_calendar_events, open_calendar, set_alarm, delete_alarm, set_timer, stop_timer, pause_timer, navigate_to, open_maps, get_current_location, get_weather, open_calculator.
Camera e Registrazione:
open_camera, take_photo, take_selfie, start_video_recording, stop_video_recording, start_screen_recording, stop_screen_recording, turn_on_flashlight, turn_off_flashlight.
Dati di Training e Metodologia
Il fine-tuning è stato condotto attraverso una pipeline di Supervised Fine-Tuning (SFT) proprietaria di M.INC. Research. L'attenzione è stata focalizzata sulla compressione della logica di ragionamento per evitare la degradazione delle capacità conversazionali durante l'apprendimento dei task esecutivi. Il risultato è un modello capace di mantenere un dialogo fluido e naturale in lingua italiana, pur essendo pronti a eseguire comandi complessi su richiesta.
Limitazioni
Data la dimensione di 0.5B parametri, il modello potrebbe presentare limiti nel ragionamento matematico astratto o nella generazione di testi creativi estremamente lunghi. È ottimizzato per compiti di assistenza e automazione.
Termini di Utilizzo e Citazione
Il modello DAC5-0.5B è rilasciato per scopi di ricerca e sviluppo. M.INC. Research ne incoraggia l'integrazione in progetti open-source e commerciali volti a migliorare l'accessibilità dei dispositivi mobili.
Se desiderate utilizzare questo modello o i risultati della nostra ricerca nei vostri progetti, vi preghiamo di includere la seguente citazione:
M.INC. Research, DAC5-0.5B: Optimized Small Language Model for Android Automation (2026). Sviluppato da Mattimax.
Per collaborazioni, integrazioni personalizzate o report sull'utilizzo del modello, si prega di contattare il team di ricerca tramite il profilo Hugging Face ufficiale.
- Downloads last month
- 204