load_model
点击返回网站首页

常用的模型加载方式

提示:开发web应用时候,请参考 6_web_app 文件夹下的项目是如何加载模型的

1. 如何下载模型?

2. 如何修改模型路径?

  • 请用 .optModelPath 搜索项目,修改默认的模型路径,如何修改,参考下面第三条。

3. 如何本地加载模型?

3.1 加载相对路径 (模型打成zip包,或者直接加载都可以)
  • models/mobile_det_infer.pt
  • 或者 models/mobile_det_infer.zip
# 使用 optModelPath 加载zip压缩包模型
    Path modelPath = Paths.get("models/mobile_det_infer.zip");
	// Path modelPath = Paths.get("models/mobile_det_infer.pt");
    Criteria<Image, DetectedObjects> criteria =
        Criteria.builder()
            .optEngine("PyTorch")
            .setTypes(Image.class, DetectedObjects.class)
            .optModelPath(modelPath)
            .optTranslator(new DetectionTranslator(new ConcurrentHashMap<String, String>()))
            .optProgress(new ProgressBar())
            .build();      
3.2 mac,linux 加载绝对路径例子 (模型打成zip包,或者直接加载都可以)
  • /home/models/mobile_det_infer.zip
# 使用 optModelPath 加载zip压缩包模型
    Path modelPath = Paths.get("/home/models/mobile_det_infer.zip");
	// Path modelPath = Paths.get("src/test/resources/mobile_det_infer.pt");
    Criteria<Image, DetectedObjects> criteria =
        Criteria.builder()
            .optEngine("PyTorch")
            .setTypes(Image.class, DetectedObjects.class)
            .optModelPath(modelPath)
            .optTranslator(new DetectionTranslator(new ConcurrentHashMap<String, String>()))
            .optProgress(new ProgressBar())
            .build();      
3.3 windows 加载绝对路径例子 (模型打成zip包,或者直接加载都可以)
  • D:\ai_projects\models\mobile_det_infer.zip
# 使用 optModelPath 加载zip压缩包模型
    Path modelPath = Paths.get("D:\\ai_projects\\models\\mobile_det_infer.zip");
	// Path modelPath = Paths.get("D:\\ai_projects\\models\\mobile_det_infer.pt");
    Criteria<Image, DetectedObjects> criteria =
        Criteria.builder()
            .optEngine("PyTorch")
            .setTypes(Image.class, DetectedObjects.class)
            .optModelPath(modelPath)
            .optTranslator(new DetectionTranslator(new ConcurrentHashMap<String, String>()))
            .optProgress(new ProgressBar())
            .build();      

4. 如何加载打包到jar中模型?

# 使用 optModelUrls 加载模型
# 假设:打包好的jar包,模型在jar包的: BOOT-INF/classes/mobile_det_infer.zip

    Criteria<Image, DetectedObjects> criteria =
        Criteria.builder()
            .optEngine("PyTorch")
            .setTypes(Image.class, DetectedObjects.class)
            .optModelUrls("jar:///mobile_det_infer.zip")
            .optTranslator(new DetectionTranslator(new ConcurrentHashMap<String, String>()))
            .optProgress(new ProgressBar())
            .build();

5. 如何通过url在线加载模型?

# 使用 optModelUrls 在线加载url模型

    Criteria<Image, DetectedObjects> criteria =
        Criteria.builder()
            .optEngine("PyTorch")
            .setTypes(Image.class, DetectedObjects.class)
            .optModelUrls("https://xxx.xxx.com/models/xxxx.zip")
            .optTranslator(new DetectionTranslator(new ConcurrentHashMap<String, String>()))
            .optProgress(new ProgressBar())
            .build();
点击返回网站首页