EE-Model-1.5B (Electronic Information Discipline Model)
模型概述 (Model Overview)
EE-Model-1.5B 是"鸿斛"电子信息专业引擎的核心组件之一,专为电子信息学科设计的轻量化语言模型。
针对该学科知识点复杂、技术迭代快、跨学科性强等痛点,我们构建了包含3万余条高质量数据的 EE-Bench 评测基准,并基于 昇腾 (Ascend) 全栈技术体系(MindSpore + MindIE + CANN)进行了全流程的训练与微调。
EE-Model-1.5B 专为 端侧/边侧 (Edge) 部署设计(如昇腾香橙派 OrangePi AIPro),拥有极致的推理速度和极低的资源占用,能够与云端大模型(EE-Model-72B)协同工作,实现智能路由与高效负载均衡。
核心亮点 (Key Features)
- 学科专精:填补了电子信息领域学科大模型的空白,涵盖"信号与系统"、"通信原理"、"数字信号处理"等八大核心课程。
- 端侧优化:1.5B 参数量经过知识蒸馏与剪枝,适配资源受限的边缘设备,支持快速响应简单任务与路由决策。
- 全栈国产化:从训练(Ascend 910B + MindSpore)到推理(MindIE),完全基于国产算力底座构建,安全可控。
- 多语言支持:支持中、英、法、德四国语言,面向全球学术交流场景。
训练数据 (Training Data)
本模型基于全球首个电子信息学科能力评测基准数据集 EE-Bench 进行微调。
- 数据规模:30,000+ 条高质量专业指令数据。
- 覆盖范围:涵盖 20+ 电子信息核心知识点体系。
- 题型多样:包含编程、单选、多选、计算、简答、判断、填空、证明、综合九大题型。
- 构建方式:基于 Mineru 自动化提取教材/真题 + 人工清洗 + 专家校验。
模型训练 (Model Training)
EE-Model-1.5B 的训练依托于 Ascend 910B 集群,利用 LLaMA-Factory 统一训练框架进行微调。
- 基础模型:Qwen2.5-1.5B (Base) / DeepSeek (Distilled)
- 硬件环境:Huawei Ascend 910B (NPU)
- 训练框架:MindSpore, MindSpeed
- 训练方法:
- SFT (Supervised Fine-Tuning)
- DPO (Direct Preference Optimization)
- Knowledge Distillation (from EE-Model-72B)
模型推理 (Inference)
本模型完美适配 MindIE 推理加速框架,也可通过 Hugging Face transformers 库进行通用推理。
快速开始 (Python)
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
# 加载模型
model_path = "HongHuTeam/EE-Model-1.5B"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
model_path,
device_map="auto",
torch_dtype=torch.float16
)
# 电子信息专业问题示例
prompt = "请解释麦克斯韦方程组在电磁场理论中的物理意义。"
messages = [
{"role": "system", "content": "你是一名电子信息学科的专业助教。"},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
昇腾 MindIE 部署 (Ascend MindIE)
针对昇腾硬件(如 OrangePi AIPro),建议使用 MindIE 进行高性能推理:
# MindIE Service 启动示例
# Coming Soon: 详细的 MindIE 配置文件和启动脚本将在后续更新中提供
模型效果 (Model Performance)
EE-Model-1.5B 在 EE-Bench 上展现了优秀的性能,特别是在处理基础概念问答和路由判别任务上。
| Model | Parameters | EE-Bench Score |
|---|---|---|
| EE-Model-72B | 72B | 94.70% |
| EE-Model-1.5B | 1.5B | 68.35% |
| GPT-4o | - | 71.00% |
| Qwen2.5-72B-Instruct | 72B | 70.12% |
| Qwen2.5-1.5B-Instruct | 1.5B | 45.28% |
注:EE-Model-1.5B 在同等参数量级下显著超越基座模型,且接近 GPT-4o 水平。1.5B 版本主要侧重于轻量化与边缘端快速响应。
应用场景 (Applications)
基于 端边云协同智能路由架构,EE-Model-1.5B 主要承担以下职责:
- L3-路由决策:精准判别用户提问的文本复杂度,决定任务是在本地处理还是上传云端。
- 简单任务速答:快速处理概念查询、名词解释等低算力需求任务。
- 本地隐私保护:在边缘端处理敏感数据,减少上云需求。
协议与引用 (License & Citation)
本项目遵循 Apache 2.0 开源协议。
如果您在研究中使用了本模型或数据集,请按如下格式引用:
@misc{honghu2025eemodel,
title={EE-Model: Electronic Information Professional Engine based on Ascend},
author={Honghu Team},
year={2025},
publisher={GitHub/HuggingFace},
howpublished={\url{https://huggingface.co/HongHuTeam/EE-Model-1.5B}}
}
免责声明 (Disclaimer)
虽然 EE-Model 在电子信息专业数据上进行了深度微调,但作为语言模型,它仍可能产生幻觉或错误信息。涉及电路设计、安全规范等关键决策时,请务必咨询专业人士或参考权威教材。
Last Update: 2025-12-07
Created by the Honghu Team (鸿斛战队)
Model tree for HongHuTeam/EE-Model-1.5B
Base model
Qwen/Qwen2.5-1.5B