在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署,本章节我们来学习如何保存与加载模型。

def network():
    model = nn.SequentialCell(
                nn.Flatten(),
                nn.Dense(28*28, 512),
                nn.ReLU(),
                nn.Dense(512, 512),
                nn.ReLU(),
                nn.Dense(512, 10))
    return model

保存和加载模型权重

保存模型使用save_checkpoint接口,传入网络和指定的保存路径:

model = network()
mindspore.save_checkpoint(model, "model.ckpt")

要加载模型权重,需要先创建相同模型的实例,然后使用load_checkpointload_param_into_net方法加载参数。

model = network()
param_dict = mindspore.load_checkpoint("model.ckpt")
param_not_load, _ = mindspore.load_param_into_net(model, param_dict)
print(param_not_load)

 

param_not_load是未被加载的参数列表,为空时代表所有参数均加载成功。 

保存和加载MindIR

除Checkpoint外,MindSpore提供了云侧(训练)和端侧(推理)统一的中间表示(Intermediate Representation,IR)

model = network()
inputs = Tensor(np.ones([1, 1, 28, 28]).astype(np.float32))
mindspore.export(model, inputs, file_name="model", file_format="MINDIR")

MindIR同时保存了Checkpoint和模型结构,因此需要定义输入Tensor来获取输入shape。 

已有的MindIR模型可以方便地通过`load`接口加载,传入`nn.GraphCell`即可进行推理。

mindspore.set_context(mode=mindspore.GRAPH_MODE)

graph = mindspore.load("model.mindir")
model = nn.GraphCell(graph)
outputs = model(inputs)
print(outputs.shape)

 

时间打卡

 

学习心得 

第九天的学习内容较少,学习了如何保存和加载MindSpore中的模型。模型保存与加载是深度学习工作流中的重要环节,确保我们可以保存训练好的模型,并在需要时重新加载模型进行微调或推理。

保存和加载模型权重
 通过示例代码熟悉了保存和加载模型权重的具体步骤。

保存和加载MindIR

今天的学习让我更加深刻地理解了模型保存与加载在深度学习工作流中的重要性。

在实际项目中,模型的保存与加载是必不可少的环节,能够有效地提升模型开发和部署的效率,通过学习MindIR格式的保存与加载,我了解了如何将模型导出为统一的中间表示格式,利用保存和加载MindIR达成云侧(训练)和端侧(推理)统一

 

 

 

Logo

鲲鹏昇腾开发者社区是面向全社会开放的“联接全球计算开发者,聚合华为+生态”的社区,内容涵盖鲲鹏、昇腾资源,帮助开发者快速获取所需的知识、经验、软件、工具、算力,支撑开发者易学、好用、成功,成为核心开发者。

更多推荐