昇思25天学习打卡营第8天|保存与加载
今天主要学习了如何保存和加载之前的模型。其中我认为最重要的知识点是中间表示(IR)。中间表示是程序编译过程中介于源语言和目标语言之间的程序表示,以方便编译器进行程序分析和优化。通过IR,可以实现跨框架兼容性和优化和部署等功能。期待进一步的学习相关知识。
一、保存与加载
上一章节主要介绍了如何调整超参数,并进行网络模型训练。在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们将介绍如何保存与加载模型。
二、具体实现
1.引入库
import numpy as np
import mindspore
from mindspore import nn
from mindspore import Tensor
2.创建网络
代码如下(示例):
def network():
model = nn.SequentialCell(
nn.Flatten(),
nn.Dense(28*28, 512),
nn.ReLU(),
nn.Dense(512, 512),
nn.ReLU(),
nn.Dense(512, 10))
return model
3.保存和加载模型权重
保存模型使用save_checkpoint接口,传入网络和指定的保存路径:
model = network()
mindspore.save_checkpoint(model, "model.ckpt")
要加载模型权重,需要先创建相同模型的实例,然后使用load_checkpoint和load_param_into_net方法加载参数。
model = network()
param_dict = mindspore.load_checkpoint("model.ckpt")
param_not_load, _ = mindspore.load_param_into_net(model, param_dict)
print(param_not_load)
输出为:
[]
因为param_not_load是未被加载的参数列表,为空时代表所有参数均加载成功。
4.保存和加载MindIR
除Checkpoint外,MindSpore提供了云侧(训练)和端侧(推理)统一的中间表示(Intermediate Representation,IR)。可使用export接口直接将模型保存为MindIR。
model = network()
inputs = Tensor(np.ones([1, 1, 28, 28]).astype(np.float32))
mindspore.export(model, inputs, file_name="model", file_format="MINDIR")
mindspore.set_context(mode=mindspore.GRAPH_MODE)
graph = mindspore.load("model.mindir")
model = nn.GraphCell(graph)
outputs = model(inputs)
print(outputs.shape)
输出为:
(1, 10)
总结
今天主要学习了如何保存和加载之前的模型。其中我认为最重要的知识点是中间表示(IR)。中间表示是程序编译过程中介于源语言和目标语言之间的程序表示,以方便编译器进行程序分析和优化。通过IR,可以实现跨框架兼容性和优化和部署等功能。期待进一步的学习相关知识。
鲲鹏昇腾开发者社区是面向全社会开放的“联接全球计算开发者,聚合华为+生态”的社区,内容涵盖鲲鹏、昇腾资源,帮助开发者快速获取所需的知识、经验、软件、工具、算力,支撑开发者易学、好用、成功,成为核心开发者。
更多推荐


所有评论(0)