This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] PROCESSOR-SDK-AM69A:PROCESSOR-SDK-AM69A:PROCESSOR-SDK-AM69A:在运行 TIDL 的 AM69A 上部署定制的 Yolov8s 模型时遇到问题

Guru**** 2416110 points
Other Parts Discussed in Thread: AM69A

请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/processors-group/processors/f/processors-forum/1528140/processor-sdk-am69a-processor-sdk-am69a-processor-sdk-am69a-issue-deploying-custom-yolov8s-model-self-trained-on-am69a-with-tidl

器件型号:PROCESSOR-SDK-AM69A
主题中讨论的其他器件:AM69A

工具/软件:

我按照与 resnet101.onnx 示例中相同的过程导入定制训练的 yolov8s.onnx 模型。 但是、在使用导入过程中、我遇到了以下错误日志 tidl_model_import.out

[TIDL Import]警告:无法读取   Add/Mul  运算符变量输入的 DIM... 无法在   节点/model.22/Slice_1 [TIDL Import]的索引–1 中找到初始化  器不支持:层层:无法找到浮点初始化器... [TIDL Import]致命错误:ONNX 模型 导入 失败...

这是指向 YOLOv8s 模型的链接、该模型在套件上运行成功、但当前在 CPU 上运行 100%。

https://drive.google.com/file/d/118MAtNP7NhmTVkG37ZhY8LyynUdLcCbp/view?usp=sharing
您能帮助我们了解这些错误的原因以及如何解决这些错误吗?

 

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好:  

    此 TT 已被重定向、现已发送给正确的人员。 对延迟深表歉意。

    此致、

    Christina

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好:

    您是否还能发送导入配置和完整日志?

    请根据您的能力填写此表。  

    卷积 详细信息
    频率 J721S2(示例)
    SDK 版本 请参阅 https://www.ti.com/tool/PROCESSOR-SDK-J721S2 (J721S2 示例)
    TIDL 固件版本 10.01.04.00(示例)
    TIDL 工具版本 10.01.04.00(示例)
    问题类别
    • 编译失败
    • 性能(延迟)问题
    • 精度问题
    • 主机仿真与目标之间不匹配
    • 挂起/崩溃
    • 任何其他 — 描述
    AI 模型示例 提供有问题的 AI 模型
    编译方法
    编译日志

    为编译日志提供最高调试/跟踪级别

    debugTraceLevel  = 3(具有 TIDL 导入配置)

     使用 python 接口时、DEBUG_LEVEL = 2

    编译工件 提供编译后的工件
    推理方法
    推理日志

    为推理日志提供最高调试/跟踪级别

    debugTraceLevel = 2、如果推理方法是 使用 CPP 进行 TIDL 采样测试、则 writeTraceLevel = 3

     使用 python 接口时、DEBUG_LEVEL = 5

    推理伪影 通过主机仿真模式和目标模式提供推理工件

    谢谢、

    Christina

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。


    尊敬的 Chris:
    我们希望针对您的套件测试我们经过自我训练的模型。 以前、我们获得了支持、可以成功地使用 ResNet101 进行测试、但现在我们正在尝试相同的步骤、但它无法正常工作。 报告了一个错误—您能否在此处查看信息流
    e2e.ti.com/.../5856873

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Le:

    您能否通过 E2E 直接共享您的文件? 由于 TI 的安全保障、我在从 Google Drive 下载时遇到问题。 此外、我认为我们也失去了对该链路的访问权限。  

    此致、

    Christina

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。


    尊敬的 Chris:

    这是我们在 AM69A 板上测试推理时间时遇到问题的模型文件

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Chris:  
    您有任何更新吗?

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Le:

    此模型中有不受支持的图层。  注意到 SVG 文件中的灰色块?  这些是不受支持的层。  该模型无法  在 TIDLRT 下编译或运行。  要 编译此模型、您需要通过 OSRT 导入它。

    要在 OSRT 下导入:

    转到 edgeai-tidl-tools/examples/osrt_python/ort

    vi ./ model_config.py

    添加以下配置、调整模型所在的 model_path。

    “yolov8s":“:create_model_config (
    Source=AttrDict (
    model_url=“Not_importable",“,</s>、
    推断形状=真、
    )、
    前进程=AttrDict(
    调整大小=256、
    作物=224、
    data_layout=“NCHW",“,</s>、
    resize_with_pad=False、
    REVERSE_CHANNES=False、
    )、
    Session=AttrDict(
    session_name=“onnxrt",“,</s>、
    model_path=“/home/root/yolov8s/yolov8s.onnx
    Input_Mean=[123.675,116116.28,103.53]、
    INPUT_SCALE=[0.017125、0.017507、0.017429]、
    Input_optimization=True、
    )、
    TASK_TYPE=“Classification",“,</s>、
    Extra_info=AttrDict (num_images=numImages、num_class=1000)、
    可选_options=AttrDict (
    DEBUG_LEVEL= 1、
    )、
    )、

    然后通过以下方式运行:

    python3 ./onnxrt_ep.py -c -m yolov8s.  

    这将在 edgeai-tools-tidl/model-artifacts/yolov8s/下生成工件

    此致、

    Chris

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好!

    您的 onnx 测试文件不是 10.01 版、因为它使用的是以下内容:

    CONFIG[model_path']

    而不是  

    CONFIG[“session"]["model_path"]</s>“ ““

    这表明它不是来自当前版本。  您可以尝试使用 10.01 版本吗?

    此致、

    Chris

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    尊敬的 Chris:  

    我们使用 了 edgeai-tidl-tools-10_01_00_02 和固件版本 10.01

    根据您之前关于测试 ResNet 模型的说明、我们被告知使用 高级路径
    /opt/edgeai-tidl-tools/examples/osrt_python/advanced_examples/unit_tests_validation/ort、因为当我们尝试在/opt/edgeai-tidl-tools/examples/osrt_python/ort脚本下进行测试时、报告模型将在上运行 模块 而不是 TIDL 加速器。

    我还尝试运行 YOLOv8 /opt/edgeai-tidl-tools/examples/osrt_python/ort看到相同的消息、声称它会回退到 CPU。 当我切换到高级路径/opt/edgeai-tidl-tools/examples/osrt_python/advanced_examples/unit_tests_validation/ort时,我得到了 A 先生之前共享的日志输出。