工具与软件:
嗨、团队:
我尝试/edgeai-tidl-tools/examples/osrt_python/ort/onnxrt_ep.py 转换 onnx 文件,我有一些问题如下:
1. 哪种类型的模型在运行推理时具有最佳性能: uint8或 float ?
2.如何导出 uint8/float 模型并确保转换成功?(因为在二进制文件中看不到权重类型)
>tensor_bits=8无论输入类型是 float 还是 uint8、是否将模型转换为 uint8?
3. 是否有任何文件解释这一过程?
>(例如、 输入类型= uint8、由 uint8进行推理、然后针对输出类型解量化为浮点。)
[测试]
我尝试使用输入类型= uint8并使用浮点转换模型(mobilenetv1)、然后运行推理。 处理时间相同。
我感到困惑的地方在于、转换后输入类型是否会影响模型权重类型。
感谢您的帮助。

