·
AI & ML interests
model compression
Recent Activity
Organizations
None yet
ChenMnZ/Llama-3-70b-EfficientQAT-w2g64-GPTQ
Text Generation
•
71B
•
Updated
•
3
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g64
Text Generation
•
2B
•
Updated
•
4
ChenMnZ/Llama-3-70b-EfficientQAT-w2g128-GPTQ
Text Generation
•
71B
•
Updated
•
5
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g128
Text Generation
•
2B
•
Updated
•
3
ChenMnZ/Llama-3-8b-EfficientQAT-w4g128
Text Generation
•
2B
•
Updated
•
2
ChenMnZ/Llama-3-8b-EfficientQAT-w3g128
Text Generation
•
2B
•
Updated
•
7
ChenMnZ/Llama-3-8b-EfficientQAT-w2g64
Text Generation
•
2B
•
Updated
•
4
ChenMnZ/Llama-3-8b-EfficientQAT-w2g128
Text Generation
•
2B
•
Updated
•
4
ChenMnZ/Llama-2-7b-EfficientQAT-w4g128-GPTQ
Text Generation
•
7B
•
Updated
•
2
ChenMnZ/Llama-2-7b-EfficientQAT-w2g64-GPTQ
Text Generation
•
7B
•
Updated
•
2
•
1
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w3g128
Text Generation
•
10B
•
Updated
•
4
ChenMnZ/Llama-2-7b-EfficientQAT-w2g128-GPTQ
Text Generation
•
7B
•
Updated
•
48
ChenMnZ/Llama-2-70b-EfficientQAT-w4g128-GPTQ
Text Generation
•
69B
•
Updated
•
3
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g64
Text Generation
•
8B
•
Updated
•
3
ChenMnZ/Llama-2-70b-EfficientQAT-w2g64-GPTQ
Text Generation
•
69B
•
Updated
•
1
ChenMnZ/Llama-2-70b-EfficientQAT-w2g128-BitBLAS
Text Generation
•
274B
•
Updated
•
2
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g128
Text Generation
•
7B
•
Updated
•
2
ChenMnZ/Llama-2-70b-EfficientQAT-w2g128-GPTQ
Text Generation
•
69B
•
Updated
•
3
ChenMnZ/Llama-2-13b-EfficientQAT-w4g128-GPTQ
Text Generation
•
13B
•
Updated
•
1
ChenMnZ/Llama-2-13b-EfficientQAT-w4g128-BitBLAS
Text Generation
•
51B
•
Updated
•
4
ChenMnZ/Llama-2-13b-EfficientQAT-w2g64-GPTQ
Text Generation
•
13B
•
Updated
•
6
ChenMnZ/Llama-3-70b-EfficientQAT-w4g128
Text Generation
•
11B
•
Updated
•
2
•
1
ChenMnZ/Llama-2-13b-EfficientQAT-w2g64-BitBLAS
Text Generation
•
51B
•
Updated
ChenMnZ/Llama-3-70b-EfficientQAT-w3g128
Text Generation
•
10B
•
Updated
•
3
•
1
ChenMnZ/Llama-3-70b-EfficientQAT-w2g64
Text Generation
•
8B
•
Updated
•
5
•
1
ChenMnZ/Llama-3-70b-EfficientQAT-w2g128
Text Generation
•
7B
•
Updated
•
5
•
1
ChenMnZ/Llama-2-13b-EfficientQAT-w2g128-GPTQ
Text Generation
•
13B
•
Updated
•
5
ChenMnZ/Llama-2-7b-EfficientQAT-w4g128
Text Generation
•
1B
•
Updated
•
4
ChenMnZ/Llama-2-7b-EfficientQAT-w3g128
Text Generation
•
1.0B
•
Updated
•
7
ChenMnZ/Llama-2-7b-EfficientQAT-w2g64
Text Generation
•
0.8B
•
Updated
•
4