EE-Model-1.5B (Electronic Information Discipline Model)

English | 简体中文

全球首个电子信息学科轻量化大模型

赋能高校教研,基于昇腾端边云协同架构

模型概述 (Model Overview)

EE-Model-1.5B 是"鸿斛"电子信息专业引擎的核心组件之一,专为电子信息学科设计的轻量化语言模型。

针对该学科知识点复杂、技术迭代快、跨学科性强等痛点,我们构建了包含3万余条高质量数据的 EE-Bench 评测基准,并基于 昇腾 (Ascend) 全栈技术体系(MindSpore + MindIE + CANN)进行了全流程的训练与微调。

EE-Model-1.5B 专为 端侧/边侧 (Edge) 部署设计(如昇腾香橙派 OrangePi AIPro),拥有极致的推理速度和极低的资源占用,能够与云端大模型(EE-Model-72B)协同工作,实现智能路由与高效负载均衡。

核心亮点 (Key Features)

  • 学科专精:填补了电子信息领域学科大模型的空白,涵盖"信号与系统"、"通信原理"、"数字信号处理"等八大核心课程。
  • 端侧优化:1.5B 参数量经过知识蒸馏与剪枝,适配资源受限的边缘设备,支持快速响应简单任务与路由决策。
  • 全栈国产化:从训练(Ascend 910B + MindSpore)到推理(MindIE),完全基于国产算力底座构建,安全可控。
  • 多语言支持:支持中、英、法、德四国语言,面向全球学术交流场景。

训练数据 (Training Data)

本模型基于全球首个电子信息学科能力评测基准数据集 EE-Bench 进行微调。

  • 数据规模:30,000+ 条高质量专业指令数据。
  • 覆盖范围:涵盖 20+ 电子信息核心知识点体系。
  • 题型多样:包含编程、单选、多选、计算、简答、判断、填空、证明、综合九大题型。
  • 构建方式:基于 Mineru 自动化提取教材/真题 + 人工清洗 + 专家校验。

模型训练 (Model Training)

EE-Model-1.5B 的训练依托于 Ascend 910B 集群,利用 LLaMA-Factory 统一训练框架进行微调。

  • 基础模型:Qwen2.5-1.5B (Base) / DeepSeek (Distilled)
  • 硬件环境:Huawei Ascend 910B (NPU)
  • 训练框架:MindSpore, MindSpeed
  • 训练方法
    • SFT (Supervised Fine-Tuning)
    • DPO (Direct Preference Optimization)
    • Knowledge Distillation (from EE-Model-72B)

模型推理 (Inference)

本模型完美适配 MindIE 推理加速框架,也可通过 Hugging Face transformers 库进行通用推理。

快速开始 (Python)

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# 加载模型
model_path = "HongHuTeam/EE-Model-1.5B"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
    model_path,
    device_map="auto",
    torch_dtype=torch.float16
)

# 电子信息专业问题示例
prompt = "请解释麦克斯韦方程组在电磁场理论中的物理意义。"
messages = [
    {"role": "system", "content": "你是一名电子信息学科的专业助教。"},
    {"role": "user", "content": prompt}
]

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=512
)
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)

昇腾 MindIE 部署 (Ascend MindIE)

针对昇腾硬件(如 OrangePi AIPro),建议使用 MindIE 进行高性能推理:

# MindIE Service 启动示例
# Coming Soon: 详细的 MindIE 配置文件和启动脚本将在后续更新中提供

模型效果 (Model Performance)

EE-Model-1.5B 在 EE-Bench 上展现了优秀的性能,特别是在处理基础概念问答和路由判别任务上。

Model Parameters EE-Bench Score
EE-Model-72B 72B 94.70%
EE-Model-1.5B 1.5B 68.35%
GPT-4o - 71.00%
Qwen2.5-72B-Instruct 72B 70.12%
Qwen2.5-1.5B-Instruct 1.5B 45.28%

注:EE-Model-1.5B 在同等参数量级下显著超越基座模型,且接近 GPT-4o 水平。1.5B 版本主要侧重于轻量化与边缘端快速响应。

应用场景 (Applications)

基于 端边云协同智能路由架构,EE-Model-1.5B 主要承担以下职责:

  1. L3-路由决策:精准判别用户提问的文本复杂度,决定任务是在本地处理还是上传云端。
  2. 简单任务速答:快速处理概念查询、名词解释等低算力需求任务。
  3. 本地隐私保护:在边缘端处理敏感数据,减少上云需求。

协议与引用 (License & Citation)

本项目遵循 Apache 2.0 开源协议。

如果您在研究中使用了本模型或数据集,请按如下格式引用:

@misc{honghu2025eemodel,
  title={EE-Model: Electronic Information Professional Engine based on Ascend},
  author={Honghu Team},
  year={2025},
  publisher={GitHub/HuggingFace},
  howpublished={\url{https://huggingface.co/HongHuTeam/EE-Model-1.5B}}
}

免责声明 (Disclaimer)

虽然 EE-Model 在电子信息专业数据上进行了深度微调,但作为语言模型,它仍可能产生幻觉或错误信息。涉及电路设计、安全规范等关键决策时,请务必咨询专业人士或参考权威教材。


Last Update: 2025-12-07

Created by the Honghu Team (鸿斛战队)

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for HongHuTeam/EE-Model-1.5B

Base model

Qwen/Qwen2.5-1.5B
Finetuned
(275)
this model