This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

[参考译文] TDA2EXEVM:TIDL 运行 SSD 模型问题

Guru**** 2609685 points


请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

https://e2e.ti.com/support/processors-group/processors/f/processors-forum/652903/tda2exevm-tidl-run-ssd-model-issues

器件型号:TDA2EXEVM

我使用 Caffe-Jacinto (voc0712od-ssd512x512_jdetnet21v2_iter_120000.caffemodel")训练了演示 SSD 模型。

由于某些不受支持的图层、我删除了 deploy prototxt 文件(deploy_1024x512_delete_layers.prototxt")中的最后几个图层

然后、我将其导入到 TIDL 中。 ("import.log")

问题:

1、有“Max Pass:-2147483648”这样的东西,这个值不正确,为什么?

2、我在 TIDL 和 Caffe-Jacinto 之间逐层匹配结果、但"ctx_output1/Relu_mbox_loc"或"ctx_output1/Relu_mbox_conf"等最后一层的结果错误、值始终为"255"或"0"。

我检查 了"ctx_output1/Relu_mbox_loc"或"ctx_output1/Relu_mbox_conf"的输入、结果正确、但输出错误。  

我不知道 TIDL 为什么 会产生这个结果。

部署文件:

名称:"jdetnet21v2_deploy"
输入:"数据"
Input_Shape{
调光:1.
调光:3.
DIM:512
DIM:1024

第{
名称:"data/bias (数据/偏置)"
类型:"偏置"
底部:"数据"
顶部:"数据/偏置"
参数{
LR_mult:0
DECAY_MUT:0

BIAS_param{
填充{
类型:"常量"
值:-128



第{
名称:“conv1a”
类型:"卷积"
底部:"数据/偏置"
顶部:"conv1a"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:32
BIAS_TERM:true
焊盘:2.
kernel_size:5.
组:1.
跨度:2.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"conv1a/bn"
类型:"BatchNorm"
底部:"conv1a"
顶部:"conv1a"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"conv1a/Relu"
类型:"Relu"
底部:"conv1a"
顶部:"conv1a"

第{
名称:"conv1b"
类型:"卷积"
底部:"conv1a"
顶部:"conv1b"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:32
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:4.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"conv1b/bn"
类型:"BatchNorm"
底部:"conv1b"
顶部:"conv1b"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"conv1b/Relu"
类型:"Relu"
底部:"conv1b"
顶部:"conv1b"

第{
名称:"Pool1"
类型:"池化"
底部:"conv1b"
顶部:"Pool1"

池:最大
kernel_size:2.
跨度:2.


第{
名称:"res2a_branch2a"
类型:"卷积"
底部:"Pool1"
顶部:"res2a_branch2a"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:64
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"res2a_branch2a/bn"
类型:"BatchNorm"
底部:"res2a_branch2a"
顶部:"res2a_branch2a"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"res2a_branch2a/Relu"
类型:"Relu"
底部:"res2a_branch2a"
顶部:"res2a_branch2a"

第{
名称:"res2a_branch2b"
类型:"卷积"
底部:"res2a_branch2a"
顶部:"res2a_branch2b"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:64
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:4.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"res2a_branch2b/bn"
类型:"BatchNorm"
底部:"res2a_branch2b"
顶部:"res2a_branch2b"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"res2a_branch2B/Relu"
类型:"Relu"
底部:"res2a_branch2b"
顶部:"res2a_branch2b"

第{
名称:"Pool2"
类型:"池化"
底部:"res2a_branch2b"
顶部:"Pool2"

池:最大
kernel_size:2.
跨度:2.


第{
名称:"res3a_branch2a"
类型:"卷积"
底部:"Pool2"
顶部:"res3a_branch2a"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:128
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"res3a_branch2a/bn"
类型:"BatchNorm"
底部:"res3a_branch2a"
顶部:"res3a_branch2a"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"res3a_branch2a/Relu"
类型:"Relu"
底部:"res3a_branch2a"
顶部:"res3a_branch2a"

第{
名称:"res3a_branch2b"
类型:"卷积"
底部:"res3a_branch2a"
顶部:"res3a_branch2b"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:128
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:4.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"res3a_branch2b/bn"
类型:"BatchNorm"
底部:"res3a_branch2b"
顶部:"res3a_branch2b"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"res3a_branch2B/Relu"
类型:"Relu"
底部:"res3a_branch2b"
顶部:"res3a_branch2b"

第{
名称:"pool3"
类型:"池化"
底部:"res3a_branch2b"
顶部:"pool3"

池:最大
kernel_size:2.
跨度:2.


第{
名称:"res4a_branch2a"
类型:"卷积"
底部:"pool3"
顶部:"res4a_branch2a"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:256
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"res4a_branch2a/bn"
类型:"BatchNorm"
底部:"res4a_branch2a"
顶部:"res4a_branch2a"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"res4a_branch2a/Relu"
类型:"Relu"
底部:"res4a_branch2a"
顶部:"res4a_branch2a"

第{
名称:"res4a_branch2b"
类型:"卷积"
底部:"res4a_branch2a"
顶部:"res4a_branch2b"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:256
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:4.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"res4a_branch2b/bn"
类型:"BatchNorm"
底部:"res4a_branch2b"
顶部:"res4a_branch2b"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"res4a_branch2B/Relu"
类型:"Relu"
底部:"res4a_branch2b"
顶部:"res4a_branch2b"

第{
名称:"pool4"
类型:"池化"
底部:"res4a_branch2b"
顶部:"pool4"

池:最大
kernel_size:1.
跨度:1.


第{
名称:"res5a_branch2a"
类型:"卷积"
底部:"pool4"
顶部:"res5a_branch2a"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:512
BIAS_TERM:true
焊盘:2.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:2.


第{
名称:"res5a_branch2a/bn"
类型:"BatchNorm"
底部:"res5a_branch2a"
顶部:"res5a_branch2a"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"res5a_branch2a/Relu"
类型:"Relu"
底部:"res5a_branch2a"
顶部:"res5a_branch2a"

第{
名称:"res5a_branch2b"
类型:"卷积"
底部:"res5a_branch2a"
顶部:"res5a_branch2b"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:512
BIAS_TERM:true
焊盘:2.
kernel_size:3.
组:4.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:2.


第{
名称:"res5a_branch2b/bn"
类型:"BatchNorm"
底部:"res5a_branch2b"
顶部:"res5a_branch2b"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"res5a_branch2B/Relu"
类型:"Relu"
底部:"res5a_branch2b"
顶部:"res5a_branch2b"

第{
名称:"pool6"
类型:"池化"
底部:"res5a_branch2b"
顶部:"pool6"

池:最大
kernel_size:3.
跨度:2.
焊盘:1.


第{
名称:"pool7"
类型:"池化"
底部:"pool6"
顶部:"pool7"

池:最大
kernel_size:3.
跨度:2.
焊盘:1.


第{
名称:"pool8"
类型:"池化"
底部:"pool7"
顶部:"pool8"

池:最大
kernel_size:3.
跨度:2.
焊盘:1.


第{
名称:"ctx_output1"
类型:"卷积"
底部:"res5a_branch2b"
顶部:"ctx_output1"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:512
BIAS_TERM:true
焊盘:0
kernel_size:1.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output1/bn"
类型:"BatchNorm"
底部:"ctx_output1"
顶部:"ctx_output1"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"ctx_output1/Relu"
类型:"Relu"
底部:"ctx_output1"
顶部:"ctx_output1"

第{
名称:"ctx_output2"
类型:"卷积"
底部:"pool6"
顶部:"ctx_output2"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:512
BIAS_TERM:true
焊盘:0
kernel_size:1.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output2/bn"
类型:"BatchNorm"
底部:"ctx_output2"
顶部:"ctx_output2"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"ctx_output2/Relu"
类型:"Relu"
底部:"ctx_output2"
顶部:"ctx_output2"

第{
名称:"ctx_output3"
类型:"卷积"
底部:"pool7"
顶部:"ctx_output3"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:512
BIAS_TERM:true
焊盘:0
kernel_size:1.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output3/bn"
类型:"BatchNorm"
底部:"ctx_output3"
顶部:"ctx_output3"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"ctx_output3/Relu"
类型:"Relu"
底部:"ctx_output3"
顶部:"ctx_output3"

第{
名称:"ctx_output4"
类型:"卷积"
底部:"pool8"
顶部:"ctx_output4"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:512
BIAS_TERM:true
焊盘:0
kernel_size:1.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output4/bn"
类型:"BatchNorm"
底部:"ctx_output4"
顶部:"ctx_output4"
batch_norm_param{
Moving_Avery_Fraction:0.99
EPS:0.0001
SCALL_BIAS:true


第{
名称:"ctx_output4/Relu"
类型:"Relu"
底部:"ctx_output4"
顶部:"ctx_output4"

第{
名称:"ctx_output1/Relu_mbox_loc"
类型:"卷积"
底部:"ctx_output1"
顶部:"ctx_output1/Relu_mbox_loc"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:16.
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output1/Relu_mbox_conf"
类型:"卷积"
底部:"ctx_output1"
顶部:"ctx_output1/Relu_mbox_conf"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:84
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output2/Relu_mbox_loc"
类型:"卷积"
底部:"ctx_output2"
顶部:"ctx_output2/Relu_mbox_loc"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:16.
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output2/Relu_mbox_conf"
类型:"卷积"
底部:"ctx_output2"
顶部:"ctx_output2/Relu_mbox_conf"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:84
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output3/Relu_mbox_loc"
类型:"卷积"
底部:"ctx_output3"
顶部:"ctx_output3/Relu_mbox_loc"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:16.
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output3/Relu_mbox_conf"
类型:"卷积"
底部:"ctx_output3"
顶部:"ctx_output3/Relu_mbox_conf"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:84
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output4/Relu_mbox_loc"
类型:"卷积"
底部:"ctx_output4"
顶部:"ctx_output4/Relu_mbox_loc"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:16.
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.


第{
名称:"ctx_output4/Relu_mbox_conf"
类型:"卷积"
底部:"ctx_output4"
顶部:"ctx_output4/Relu_mbox_conf"
参数{
LR_mult:1.
DECAY_MUT:1.

参数{
LR_mult:2.
DECAY_MUT:0

卷积_param{
num_output:84
BIAS_TERM:true
焊盘:1.
kernel_size:3.
组:1.
跨度:1.
weight_ciller{
类型:"MSRA"

BIAS_Filler{
类型:"常量"
值:0

稀释:1.

导入文件:

Caffe 网络文件:deploy_1024x512_delete_layers.prototxt
Caffe Model File (咖啡因模型文件):voc0712od-ssd512x512_jdetnet21v2_iter_120000.caffemodel
TIDL 网络文件:NET.BIN
TIDL 模型文件:PRM.bin
网络名称:jdetnet21v2_deploy
数字输入:1.
检测到的层数:28
0、TIDL_DataLayer、数据0、-1、1、 x、x、x、x、x、 x、x、x、0、0、 0、0、0、1、3、 512、1024、0、
1、TIDL_BatchNormalLayer、data/bias 1、1、1、 0、x、x、x、x、 x、x、x、1、1、 3、512、1024、1、3、 512、1024、1572864、
2、TIDL_ConvolutionLayer、conv1a 1、1、1、 1、x、x、x、x、 x、x、x、2、1、 3、512、1024、1、32、 256、512、314572800、
3、TIDL_ConvolutionLayer、conv1b 1、1、1、 2、x、x、x、x、 x、x、x、3、1、 32、256、512、1、32、 128、256、301989888、
4、TIDL_ConvolutionLayer、res2a_branch2a 1、1、1、 3、x、x、x、x、 x、x、x、4、1、 32、128、256、1、64、 128、256、603979776、
5、TIDL_ConvolutionLayer、res2a_branch2b 1、1、1、 4、x、x、x、x、 x、x、x、5、1、 64、128、256、1、64、 64、128、301989888、
6、TIDL_ConvolutionLayer、res3a_branch2a 1、1、1、 5、x、x、x、x、 x、x、x、6、1、 64、64、128、1、128、 64、128、603979776、
7、TIDL_ConvolutionLayer、res3a_branch2b 1、1、1、 6、x、x、x、x、 x、x、x、7、1、 128、64、128、1、128、 32、64、301989888、
8、TIDL_ConvolutionLayer、res4a_branch2a 1、1、1、 7、x、x、x、x、 x、x、x、8、1、 128、32、64、1、256、 32、64、603979776、
9、TIDL_ConvolutionLayer、res4a_branch2b 1、1、1、 8、x、x、x、x、 x、x、x、9、1、 256、32、64、1、256、 32、64、301989888、
10、TIDL_PoolingLayer、pool4 1、1、1、 9、x、x、x、x、 x、x、x、10、1、 256、32、64、1、256、 32、64、524288、
11、TIDL_ConvolutionLayer、res5a_branch2a 1、1、1、 10、x、x、x、x、 x、x、x、11、1、 256、32、64、1、512、 32、64、2415919104、
12、TIDL_ConvolutionLayer、res5a_branch2b 1、1、1、 11、x、x、x、x、 x、x、x、12、1、 512、32、64、1、512、 32、64、1207959552、
13、TIDL_PoolingLayer、pool6 1、1、1、 12、x、x、x、x、 x、x、x、13、1、 512、32、64、1、512、 17、33、2585088、
14、TIDL_PoolingLayer、pool7 1、1、1、 13、x、x、x、x、 x、x、x、14、1、 512、17、33、1、512、 9、17、705024、
15、TIDL_PoolingLayer、pool8 1、1、1、 14、x、x、x、x、 x、x、x、15、1、 512、9、17、1、512、 5、9、207360、
16、TIDL_ConvolutionLayer、ctx_output1、1、1、 12、x、x、x、x、 x、x、x、16、1、 512、32、64、1、512、 32、64、536870912、
17、TIDL_ConvolutionLayer、ctx_output2 1、1、1、 13、x、x、x、x、 x、x、x、17、1、 512、17、33、1、512、 17、33、147062784、
18、TIDL_ConvolutionLayer、ctx_output3 1、1、1、 14、x、x、x、x、 x、x、x、18、1、 512、9、17、1、512、 9、17、40108032、
19、TIDL_ConvolutionLayer、ctx_output4 1、1、1、 15、x、x、x、x、 x、x、x、19、1、 512、5、9、1、512、 5、9、11796480、
20、TIDL_ConvolutionLayer、ctx_output1/Relu_mbox_loc 1、1、1、 16、x、x、x、x、 x、x、x、20、1、 512、32、64、1、16、 32、64、150994944、
21、TIDL_ConvolutionLayer、ctx_output1/Relu_mbox_conf 1、1、1、 16、x、x、x、x、 x、x、x、21、1、 512、32、64、1、84、 32、64、792723456、
22、TIDL_ConvolutionLayer、ctx_output2/Relu_mbox_loc 1、1、1、 17、x、x、x、x、 x、x、x、22、1、 512、17、33、1、16、 17、33、41361408、
23、TIDL_ConvolutionLayer、ctx_output2/Relu_mbox_conf 1、1、1、 17、x、x、x、x、 x、x、x、23、1、 512、17、33、1、84、 17、33、217147392、
24、TIDL_ConvolutionLayer、ctx_output3/Relu_mbox_loc 1、1、1、 18、x、x、x、x、 x、x、x、24、1、 512、9、17、1、16、 9、17、11280384、
25、TIDL_ConvolutionLayer、ctx_output3/Relu_mbox_conf 1、1、1、 18、x、x、x、x、 x、x、x、25、1、 512、9、17、1、84、 9、17、59222016、
26、TIDL_ConvolutionLayer、ctx_output4/Relu_mbox_loc 1、1、1、 19、x、x、x、x、 x、x、x、26、1、 512、5、9、1、16、 5、9、3317760、
27、TIDL_ConvolutionLayer、ctx_output4/Relu_mbox_conf 1、1、1、 19、x、x、x、x、 x、x、x、27、1、 512、5、9、1、84、 5、9、17418240、

正在处理配置文件.\tempDir\qunat_stats_config.txt!
0、TIDL_DataLayer、0、-1、1、 x、x、x、x、x、 x、x、x、0、0、 0、0、0、1、3、 512、1024、
1、TIDL_BatchNormalLayer、1、1、1、 0、x、x、x、x、 x、x、x、1、1、 3、512、1024、1、3、 512、1024、
2、TIDL_ConvolutionLayer、1、1、1、 1、x、x、x、x、 x、x、x、2、1、 3、512、1024、1、32、 256、512、
3、TIDL_ConvolutionLayer、1、1、1、 2、x、x、x、x、 x、x、x、3、1、 32、256、512、1、32、 128、256、
4、TIDL_ConvolutionLayer、1、1、1、 3、x、x、x、x、 x、x、x、4、1、 32、128、256、1、64、 128、256、
5、TIDL_ConvolutionLayer、1、1、1、 4、x、x、x、x、 x、x、x、5、1、 64、128、256、1、64、 64、128、
6、TIDL_ConvolutionLayer、1、1、1、 5、x、x、x、x、 x、x、x、6、1、 64、64、128、1、128、 64、128、
7、TIDL_ConvolutionLayer、1、1、1、 6、x、x、x、x、 x、x、x、7、1、 128、64、128、1、128、 32、64、
8、TIDL_ConvolutionLayer、1、1、1、 7、x、x、x、x、 x、x、x、8、1、 128、32、64、1、256、 32、64、
9、TIDL_ConvolutionLayer、1、1、1、 8、x、x、x、x、 x、x、x、9、1、 256、32、64、1、256、 32、64、
10、TIDL_PoolingLayer、1、1、1、 9、x、x、x、x、 x、x、x、10、1、 256、32、64、1、256、 32、64、
11、TIDL_ConvolutionLayer、1、1、1、 10、x、x、x、x、 x、x、x、11、1、 256、32、64、1、512、 32、64、
12、TIDL_ConvolutionLayer、1、1、1、 11、x、x、x、x、 x、x、x、12、1、 512、32、64、1、512、 32、64、
13、TIDL_PoolingLayer、1、1、1、 12、x、x、x、x、 x、x、x、13、1、 512、32、64、1、512、 17、33、
14、TIDL_PoolingLayer、1、1、1、 13、x、x、x、x、 x、x、x、14、1、 512、17、33、1、512、 9、17、
15、TIDL_PoolingLayer、1、1、1、 14、x、x、x、x、 x、x、x、15、1、 512、9、17、1、512、 5、9、
16、TIDL_ConvolutionLayer、1、1、1、 12、x、x、x、x、 x、x、x、16、1、 512、32、64、1、512、 32、64、
17、TIDL_ConvolutionLayer、1、1、1、 13、x、x、x、x、 x、x、x、17、1、 512、17、33、1、512、 17、33、
18、TIDL_ConvolutionLayer、1、1、1、 14、x、x、x、x、 x、x、x、18、1、 512、9、17、1、512、 9、17、
19、TIDL_ConvolutionLayer、1、1、1、 15、x、x、x、x、 x、x、x、19、1、 512、5、9、1、512、 5、9、
20、TIDL_ConvolutionLayer、1、1、1、 16、x、x、x、x、 x、x、x、20、1、 512、32、64、1、16、 32、64、
21、TIDL_ConvolutionLayer、1、1、1、 16、x、x、x、x、 x、x、x、21、1、 512、32、64、1、84、 32、64、
22、TIDL_ConvolutionLayer、1、1、1、 17、x、x、x、x、 x、x、x、22、1、 512、17、33、1、16、 17、33、
23、TIDL_ConvolutionLayer、1、1、1、 17、x、x、x、x、 x、x、x、23、1、 512、17、33、1、84、 17、33、
24,TIDL_ConvolutionLayer,1,1,1, 18、x、x、x、x、 x、x、x、24、1、 512、9、17、1、16、 9、17、
25、TIDL_ConvolutionLayer、1、1、1、 18、x、x、x、x、 x、x、x、25、1、 512、9、17、1、84、 9、17、
26、TIDL_ConvolutionLayer、1、1、1、 19、x、x、x、x、 x、x、x、26、1、 512、5、9、1、16、 5、9、
27、TIDL_ConvolutionLayer、1、1、1、 19、x、x、x、x、 x、x、x、27、1、 512、5、9、1、84、 5、9、
28、TIDL_DataLayer、0、1、-1、 27、x、x、x、x、 x、x、x、0、1、 84、5、9、0、0、 0、0、
层 ID、inBlkWidth、inBlkHeight、inBlkPitch、outBlkWidth、outBlkHeight、outBlkPitch、numInChs、numOutChs、numLclInChs、numLclOutChs、numProcItrs、numHorBlock numVerinChc、NpitInCht、numBlinSpitch
2 72 72 72 32 32 3 32 3 32 3 1 8 1 3 16 8 5184 1024 1
3 40 34 40 32 32 8 8 4 8 1 2 16 8 1360 1024 1
4 40 34 40 32 32 32 64 32 6 8 1 6 8 4 1360 1024 1
5 40 34 40 32 32 16 16 6 8 1 3 8 4 1360 1024 1
6 40 34 40 32 32 64 128 64 6 8 1 11 4 2 1360 1024 1
7 40 34 40 32 32 32 32 32 32 32 32 32 6 8 1 6 4 2 1360 1024 1
8 40 34 40 32 32 128 256 128 6 8 1 22 2 1 1360 1024 1
9 40 34 40 32 32 64 64 64 6 8 1 11 2 1 1360 1024 1
11 40 20 40 32 16 32 256 512 256 8 8 1 32 2 800 512 1
12 40 36 40 32 32 128 128 128 5 8 1 26 2 1 1440 1024 1
16 32 16 32 32 16 32 512 512 8 8 1 64 2 512 1
17 32 17 32 32 17 32 512 512 8 8 1 64 2 1 544 544 1
18 32 9 32 9 32 512 512 512 8 8 1 64 1 288 1
19 16 5 16 5 16 512 512 8 8 1 64 1 80 1
20 40 18 40 32 16 32 512 16 256 8 2 32 2 720 512 1
21 40 18 40 32 16 32 512 84 256 8 2 32 2 720 512 1
22 40 18 40 32 16 32 512 16 256 8 2 32 2 720 512 1
23 40 18 40 32 16 32 512 84 256 8 2 32 2 720 512 1
24 40 11 40 32 9 32 512 16 512 8 8 1 64 1 440 288 1
25 40 11 40 32 9 32 512 84 512 8 8 1 64 1 440 288 1
26 24 7 24 16 5 16 512 16 512 8 8 1 64 1 168 80 1
27 24 7 24 16 5 16 512 84 512 8 8 1 64 1 168 80 1

正在处理帧编号:0

第1层:最大通过数:-2147483648:15301输出量:254,43861,TIDL_BatchNormalLayer,通过数#MMACS = 1.57,0.00,1.57,稀疏度:0.00,100.00
第2层:最大通过数:-2147483648:105994输出量:11467、106410, TIDL_ConvolutionLayer,通过数#MMACS = 314.57、279.97、300.94,稀疏度:4.33、11.00
第3层:最大通过数:-2147483648:19171输出数:11355、19246、TIDL_ConvolutionLayer,通过数#MMACS = 301.99、261.88、272.63、稀疏度:9.72、13.28
第4层:最大传递数:-2147483648:48257输出数:22744、48446、TIDL_ConvolutionLayer,传递数#MMACS = 603.98、558.43、578.81、稀疏度:4.17、7.54
第5层:最大传递数:-2147483648:41123输出数:15555、41284、TIDL_ConvolutionLayer,传递数#MMACS = 301.99、284.26、292.16、稀疏度:3.26、5.87
第6层:最大通过数:-2147483648:71895输出量:19140,72177,TIDL_ConvolutionLayer,通过数#MMACS = 603.98,563.72,581.21,稀疏度:3.77,6.67
第7层:最大通过数:-2147483648:57803输出量:18455,58030,TIDL_ConvolutionLayer,通过数#MMACS = 301.99,288.17,298.35,稀疏度:1.20,4.58
第8层:最大通过数:-2147483648:112088输出量:20457、112528、TIDL_ConvolutionLayer,通过数#MMACS = 603.98、571.37、588.81、稀疏度:2.51、5.40
第9层:最大传递数:-2147483648:57972输出数:22662,58199,TIDL_ConvolutionLayer,传递数#MMACS = 301.99,287.32,296.04,稀疏度:1.97,4.86
第10层:TIDL_PoolingLayer,通过#MMACS = 0.52、0.00、0.52、sparsity:0.00、100.00
第11层:最大通过数:-2147483648:52315输出数:39664、52520、TIDL_ConvolutionLayer,通过数#MMACS = 2415.92、2246.56、2297.30、稀疏度:4.91、7.01
第12层:最大通过数:-2147483648:50735输出量 Q:3152、50934、TIDL_ConvolutionLayer,通过数#MMACS = 1207.96、1094.96、1135.71、稀疏度:5.98、9.35
第13层:TIDL_PoolingLayer,传递#MMACS = 0.29、0.00、0.29、sparsity:0.00、100.00
第14层:TIDL_PoolingLayer,通过#MMACS = 0.08、0.00、0.08、sparsity:0.00、100.00
第15层:TIDL_PoolingLayer,通过#MMACS = 0.02、0.00、0.02、sparsity:0.00、100.00
第16层:最大通过数:-2147483648:42410输出量:22305,42576,TIDL_ConvolutionLayer,通过数#MMACs = 536.87,512.22,536.80,稀疏度:0.01,4.59
第17层:最大通过数:-2147483648:51785输出数:28329,51988,TIDL_ConvolutionLayer,通过数#MMACS = 147.06,140.29,147.03,稀疏度:0.02,4.61
第18层:最大通过数:-2147483648:54221输出量 Q:25702、54434、TIDL_ConvolutionLayer,通过数#MMACS = 40.11、38.12、40.10、稀疏度:0.02、4.95
第19层:最大通过率:-2147483648:63420输出 Q:24673,63669,TIDL_ConvolutionLayer,通过#MMACS = 11.80,11.33,11.80,稀疏度:0.01,3.92
第20层:最大通过数:-2147483648:93195输出数:3094,353782,TIDL_ConvolutionLayer,通过数#MMACS = 150.99,126.10,129.25,稀疏度:14.40,16.49
第21层:最大通过率:-2147483648:717460输出 Q:1965,1446219,TIDL_ConvolutionLayer,通过#MMACS = 792.72,734.32,750.56,稀疏度:5.32,7.37
第22层:最大通过数:-2147483648:100259输出数:7823、302286、TIDL_ConvolutionLayer,通过数#MMACS = 41.36、36.99、37.83、稀疏度:8.53、10.57
第23层:最大通过数:-2147483648:661541输出数:2025,1333500,TIDL_ConvolutionLayer,通过数#MMACS = 217.15,197.41,201.89,稀疏度:7.03,9.09
第24层:最大通过数:-2147483648:132514输出量:9805,267115,TIDL_ConvolutionLayer,通过数#MMACS = 11.28,10.32,10.56,稀疏度:6.39,8.51
第25层:最大通过率:-2147483648:618447输出 Q:2022、1246633、TIDL_ConvolutionLayer,通过#MMACS = 59.22、57.15、58.45、稀疏度:1.30、3.50
第26层:最大传递数:-2147483648:186789输出数:10431、376520、TIDL_ConvolutionLayer,传递数#MMACS = 3.32、3.08、3.15、稀疏度:5.03、7.15
第27层:最大传递数:-2147483648:837833输出量 Q:1679、1688860、TIDL_ConvolutionLayer,传递数#MMACS = 17.42、16.92、17.28、稀疏度:0.78、2.87
找到配置列表的末尾!

千兆马卡:8.9932
总千兆位 MAC:134.8987 @15 fps
总千兆位 MAC:269.7975 @30 fps

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    您好!

    对于问题1:您可以在导入时忽略"Max pass"值、在实际 TIDL 执行期间、您将获得正确的 Max Pass 值。

    对于问题2:我们将在结尾重复问题并告知您

    谢谢、
    Praveen
  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好,

    我们无法重新生成此问题。 我们在该层获得正确的输出。 您能在下面澄清一下。

    您在导入或实际处理期间是否观察到以下日志。?

    您是否还观察到导入生成的跟踪中的不匹配情况? 如果是、您是否正在使用版本包中的导入可执行文件(tidlStatsTool ="..\quantStatsTool\eve_test_dl_algo out.exe")、或者您是否重建了它?

    第1层:最大通过数:-2147483648:15301输出量:254,43861,TIDL_BatchNormalLayer,通过数#MMACS = 1.57,0.00,1.57,稀疏度:0.00,100.00

    第2层:最大通过数:-2147483648:105994输出量:11467、106410, TIDL_ConvolutionLayer,通过数#MMACS = 314.57、279.97、300.94,稀疏度:4.33、11.00

    谢谢、

    Praveen

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    您好 Praveen、
    这是我的导入 txt、我不重建 tidlStatsTool、您可以看到我正在使用 vsdk_03_01。
    我的日志与您相同。
    顺便说一下、我构建 EVE 调试模式(TIDL 文件 I/O 用例)并使用 CCS 来匹配结果。
    您是否正在使用我的部署文件?

    #默认值- 0
    randParams = 0

    # 0:Caffe、1:TensorFlow、默认值- 0
    modelType = 0

    # 0:按 tarininng Framework 进行固定量化、1:按 TIDL 进行动态量化、默认值- 1.
    量化样式= 1.

    将在舍入为整数时添加# quantRoundadd/100,默认值为-50
    quantRoundAdd = 25

    numParamBits = 8
    0:8位无符号数,1:8位有符号数缺省值-1
    元素类型 = 0

    InputNetFile =" deploy_1024x512_delete_layers.prototxt"
    inputParamsFile ="voc0712od-ssd512x512_jdetnet21v2_iter_120000.caffemodel"

    outputNetFile ="NET.bin"
    outputParamsFile ="PRM.bin"

    rawSampleInData = 1.
    SampleInData ="000100_1024x512_BGR.y"
    tidlStatsTool ="C:\processor_sdk_vision_03_01_00_00\ti_components \Algorithms\REL.TIDL.00.08.00.00\modules\ti_dl\utils\quantStatsTool\eve_test_dl_algo out.exe"
  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    您好!

    我们仍然无法复制您共享的文件的问题。
    我正在使用您共享的所有文件以及在发行版中预编译的可执行文件
    1. eve_test_dl_algo.out.exe ("..\quantStatsTool\eve_test_dl_algo.out.exe")
    tipdl_model_import.out.exe ("ti_dl\utils\tidlModelImport\ tidl_model_import.out.exe)、以运行导入并连接我的导入控制台。

    您能否重新尝试发行版中预构建的可执行文件,并共享不匹配的 conv 层的一些跟踪转储(输入和输出)以进行调试?

    我的控制台:
    --------------------------------------------------------------------
    咖啡因网络文件:..\..\test\testvecs\config\Caffe_models\SSD\deploy_e2e.prototxt
    咖啡因模型文件:..\..\test\testvecs\config\Caffe_models\SSD\voc0712od-ssd512x512_jdetnet21v2_iter_120000.caffemodel
    TIDL 网络文件:..\..\test\testvecs\config\tidl_models\tidl_net_imagenet_jacintonet11v2_ssd.bin
    TIDL 模型文件:..\..\test\testvecs\config\tidl_models\tidl_param_imagenet_jacintonet11v2_ssd.bin
    网络名称:jdetnet21v2_deploy
    输入数量: 1
    检测到的层数:28
    TIDL_DataLayer ,数据 0、-1、1、x、x、 x、x、x、x、x、 X、0、 0、 0、 0、 0、 1、 3、
    512、1024、 0、
    1、TIDL_BatchNormalLayer ,数据/偏置 1、1、1、0、x、 x、x、x、x、x、 X、1、 1、 3、 512、1024、 1、 3、
    512、1024、1572864、
    2、TIDL_ConvolutionLayer ,凸面1a 1、1、1、1、x、 x、x、x、x、x、 X、2、 1、 3、 512、1024、 1、 32、
    256、 512、314572800、
    3、TIDL_ConvolutionLayer ,conv1b 1、1、1、2、x、 x、x、x、x、x、 X、3、 1、 32、 256、 512、 1、 32、
    128、 256、301989888、
    4、TIDL_ConvolutionLayer ,res2a_branch2a 1、1、1、3、x、 x、x、x、x、x、 X、4、 1、 32、 128、 256、 1、 64、
    128、 256、603979776、
    5、TIDL_ConvolutionLayer ,res2a_branch2b 1、1、1、4、x、 x、x、x、x、x、 X、5、 1、 64、 128、 256、 1、 64、
    64、 128、301989888、
    6、TIDL_ConvolutionLayer ,res3a_branch2a 1、1、1、5、x、 x、x、x、x、x、 X、6、 1、 64、 64、 128、 1、 128、
    64、 128、603979776、
    7、TIDL_ConvolutionLayer ,res3a_branch2b 1、1、1、6、x、 x、x、x、x、x、 X、7、 1、 128、 64、 128、 1、 128、
    32、 64、301989888、
    8、TIDL_ConvolutionLayer ,res4a_branch2a 1、1、1、7、x、 x、x、x、x、x、 X、8、 1、 128、 32、 64、 1、 256、
    32、 64、603979776、
    9、TIDL_ConvolutionLayer ,res4a_branch2b 1、1、1、8、x、 x、x、x、x、x、 X、9、 1、 256、 32、 64、 1、 256、
    32、 64、301989888、
    10、TIDL_PoolingLayer ,池4. 1、1、1、9、x、 x、x、x、x、x、 X、10、 1、 256、 32、 64、 1、 256、
    32、 64、524288、
    11、TIDL_ConvolutionLayer ,res5a_branch2a 1、1、1、10、x、 x、x、x、x、x、 X、11、 1、 256、 32、 64、 1、 512、
    32、 64、2415919104、
    12、TIDL_ConvolutionLayer ,res5a_branch2b 1、1、1、11、x、 x、x、x、x、x、 X、12、 1、 512、 32、 64、 1、 512、
    32、 64、1207959552、
    13、TIDL_PoolingLayer ,池6. 1、1、1、12、x、 x、x、x、x、x、 X、13、 1、 512、 32、 64、 1、 512、
    17、 33、2585088、
    14、TIDL_PoolingLayer ,池7 1、1、1、13、x、 x、x、x、x、x、 X、14、 1、 512、 17、 33、 1、 512、
    9、 17、705024、
    15、TIDL_PoolingLayer ,池8 1、1、1、14、x、 x、x、x、x、x、 X、15、 1、 512、 9、 17、 1、 512、
    5、 9、207360、
    16、TIDL_ConvolutionLayer ,ctx_output1 1、1、1、12、x、 x、x、x、x、x、 X、16、 1、 512、 32、 64、 1、 512、
    32、 64、536870912、
    17、TIDL_ConvolutionLayer 、ctx_output2 1、1、1、13、x、 x、x、x、x、x、 X、17、 1、 512、 17、 33、 1、 512、
    17、 33、147062784、
    18、TIDL_ConvolutionLayer ,ctx_output3 1、1、1、14、x、 x、x、x、x、x、 X、18、 1、 512、 9、 17、 1、 512、
    9、 17、40108032、
    19、TIDL_ConvolutionLayer 、ctx_output4 1、1、1、15、x、 x、x、x、x、x、 X、19、 1、 512、 5、 9、 1、 512、
    5、 9、11796480、
    20、TIDL_ConvolutionLayer ,ctx_output1/Relu_mbox_loc 1、1、1、16、x、 x、x、x、x、x、 X、20、 1、 512、 32、 64、 1、 16、
    32、 64、150994944、
    21、TIDL_ConvolutionLayer ,ctx_output1/Relu_mbox_conf 1、1、1、16、x、 x、x、x、x、x、 X、21、 1、 512、 32、 64、 1、 84、
    32、 64、792723456、
    22、TIDL_ConvolutionLayer ,ctx_output2/Relu_mbox_loc 1、1、1、17、x、 x、x、x、x、x、 X、22、 1、 512、 17、 33、 1、 16、
    17、 33、41361408、
    23、TIDL_ConvolutionLayer ,ctx_output2/Relu_mbox_conf 1、1、1、17、x、 x、x、x、x、x、 X、23、 1、 512、 17、 33、 1、 84、
    17、 33、217147392、
    24、TIDL_ConvolutionLayer ,ctx_output3/Relu_mbox_loc 1、1、1、18、x、 x、x、x、x、x、 X、24、 1、 512、 9、 17、 1、 16、
    9、 17、11280384、
    25、TIDL_ConvolutionLayer ,ctx_output3/Relu_mbox_conf 1、1、1、18、x、 x、x、x、x、x、 X、25、 1、 512、 9、 17、 1、 84、
    9、 17、59222016、
    26、TIDL_ConvolutionLayer ,ctx_output4/Relu_mbox_loc 1、1、1、19、x、 x、x、x、x、x、 X、26、 1、 512、 5、 9、 1、 16、
    5、 9、3317760、
    27、TIDL_ConvolutionLayer ,ctx_output4/Relu_mbox_conf 1、1、1、19、x、 x、x、x、x、x、 X、27、 1、 512、 5、 9、 1、 84、
    5、 9、17418240、
    千兆马卡:8.9932
    总千兆位 MAC:134.8987 @15 fps
    总千兆位 MAC:269.7975 @30 fps
    已复制1个文件。

    正在处理配置文件.\tempDir\qunat_stats_config.txt!
    TIDL_DataLayer 、0、-1、1、x、 x、x、x、x、x、 X、X、0、0、0、 0、0、1、3、512、 1024、
    1、TIDL_BatchNormalLayer 、1、1、0、 x、x、x、x、x、 X、X、1、1、3、 512、1024、1、3、512、 1024、
    2、TIDL_ConvolutionLayer ,1,1,1,1, x、x、x、x、x、 X、X、2、1、3、 512、1024、1、32、256、 512、
    3、TIDL_ConvolutionLayer 、1、1、2、 x、x、x、x、x、 X、X、3、1、32、 256、512、1、32、128、 256、
    4、TIDL_ConvolutionLayer ,1,1,3, x、x、x、x、x、 X、X、4、1、32、 128、256、1、64、128、 256、
    5、TIDL_ConvolutionLayer 、1、1、4、 x、x、x、x、x、 X、X、5、1、64、 128、256、1、64、64、 128、
    6、TIDL_ConvolutionLayer ,1,1,5, x、x、x、x、x、 X、X、6、1、64、 64、128、1、128、64、 128、
    7、TIDL_ConvolutionLayer ,1,1,6, x、x、x、x、x、 X、X、7、1、128、 64、128、1、128、32、 64、
    8、TIDL_ConvolutionLayer ,1,1,7, x、x、x、x、x、 X、X、8、1、128、 32、64、1、256、32、 64、
    9、TIDL_ConvolutionLayer ,1,1,8, x、x、x、x、x、 X、X、9、1、256、 32、64、1、256、32、 64、
    10、TIDL_PoolingLayer ,1,1,9, x、x、x、x、x、 X、X、10、1、256、 32、64、1、256、32、 64、
    11、TIDL_ConvolutionLayer ,1,1,10, x、x、x、x、x、 X、X、11、1、256、 32、64、1、512、32、 64、
    12、TIDL_ConvolutionLayer ,1,1,11, x、x、x、x、x、 X、X、12、1、512、 32、64、1、512、32、 64、
    13、TIDL_PoolingLayer ,1,1,12, x、x、x、x、x、 X、X、13、1、512、 32、64、1、512、17、 33、
    14、TIDL_PoolingLayer ,1,1,13, x、x、x、x、x、 X、X、14、1、512、 17、33、1、512、9、 17、
    15、TIDL_PoolingLayer ,1,1,14, x、x、x、x、x、 x、x、15、1、512、 9、17、1、512、5、 9、
    16、TIDL_ConvolutionLayer ,1,1,12, x、x、x、x、x、 x、x、16、1、512、 32、64、1、512、32、 64、
    17、TIDL_ConvolutionLayer ,1,1,13, x、x、x、x、x、 X、X、17、1、512、 17、33、1、512、17、 33、
    18、TIDL_ConvolutionLayer ,1,1,14, x、x、x、x、x、 X、X、18、1、512、 9、17、1、512、9、 17、
    19、TIDL_ConvolutionLayer ,1,1,15, x、x、x、x、x、 X、X、19、1、512、 5、9、1、512、5、 9、
    20、TIDL_ConvolutionLayer ,1,1,16, x、x、x、x、x、 X、X、20、1、512、 32、64、1、16、32、 64、
    21、TIDL_ConvolutionLayer ,1,1,16, x、x、x、x、x、 x、x、21、1、512、 32、64、1、84、32、 64、
    22、TIDL_ConvolutionLayer ,1,1,17, x、x、x、x、x、 X、X、22、1、512、 17、33、1、16、17、 33、
    23、TIDL_ConvolutionLayer ,1,1,17, x、x、x、x、x、 x、x、23、1、512、 17、33、1、84、17、 33、
    24、TIDL_ConvolutionLayer ,1,1,18, x、x、x、x、x、 x、x、24、1、512、 9、17、1、16、9、 17、
    25、TIDL_ConvolutionLayer ,1,1,18, x、x、x、x、x、 X、X、25、1、512、 9、17、1、84、9、 17、
    26、TIDL_ConvolutionLayer ,1,1,19, x、x、x、x、x、 X、X、26、1、512、 5、9、1、16、5、 9、
    27、TIDL_ConvolutionLayer ,1,1,19, x、x、x、x、x、 X、X、27、1、512、 5、9、1、84、5、 9、
    28、TIDL_DataLayer 0、1、-1、27、 x、x、x、x、x、 X、X、0、1、84、 5、9、0、0、0、 0、
    层 ID、inBlkWidth、inBlkHeight、inBlkPitch、outBlkWidth、outBlkHeight、outBlkPitch、numInChs、numProceInChs、numLclInChs、numLclOutChs、numProcItrs、numAccItrs、numHorBlock numVe
    rBlock、inBlkChPitch、outBlkChPitc、alignOrnot
    2. 72. 72. 72. 32 32 32 3. 32 3. 1 8. 1 3. 16.
    8. 5184. 1024 1
    3. 40 34 40 32 32 32 8. 8. 8. 4. 8. 1 2. 16.
    8. 1360. 1024 1
    4. 40 34 40 32 32 32 32 64 32 6. 8. 1 6. 8.
    4. 1360. 1024 1
    5. 40 34 40 32 32 32 16. 16. 16. 6. 8. 1 3. 8.
    4. 1360. 1024 1
    6. 40 34 40 32 32 32 64 128 64 6. 8. 1 11. 4.
    2. 1360. 1024 1
    7. 40 34 40 32 32 32 32 32 32 6. 8. 1 6. 4.
    2. 1360. 1024 1
    8. 40 34 40 32 32 32 128 256 128 6. 8. 1 22. 2.
    1 1360. 1024 1
    9. 40 34 40 32 32 32 64 64 64 6. 8. 1 11. 2.
    1 1360. 1024 1
    11. 40 20. 40 32 16. 32 256 512 256 8. 8. 1 32 2.
    2. 800 512 1
    12. 40 36. 40 32 32 32 128 128 128 5. 8. 1 26 2.
    1 1440 1024 1
    16. 32 16. 32 32 16. 32 512 512 512 8. 8. 1 64 2.
    2. 512 512 1
    17. 32 17. 32 32 17. 32 512 512 512 8. 8. 1 64 2.
    1 544 544 1
    18 32 9. 32 32 9. 32 512 512 512 8. 8. 1 64 1
    1 288 288 1
    19. 16. 5. 16. 16. 5. 16. 512 512 512 8. 8. 1 64 1
    1 80 80 1
    20. 40 10. 40 32 8. 32 512 16. 512 8. 8. 1 64 2.
    4. 400 256 1
    21. 40 10. 40 32 8. 32 512 88 512 8. 8. 1 64 2.
    4. 400 256 1
    22. 40 10. 40 32 8. 32 512 16. 512 8. 8. 1 64 2.
    3. 400 256 1
    23 40 10. 40 32 8. 32 512 88 512 8. 8. 1 64 2.
    3. 400 256 1
    24 40 11. 40 32 9. 32 512 16. 512 8. 8. 1 64 1
    1 440 288 1
    25 40 11. 40 32 9. 32 512 88 512 8. 8. 1 64 1
    1 440 288 1
    26 24 7. 24 16. 5. 16. 512 16. 512 8. 8. 1 64 1
    1 168. 80 1
    27. 24 7. 24 16. 5. 16. 512 88 512 8. 8. 1 64 1
    1 168. 80 1

    正在处理帧编号:0

    第1层:最大通过数:-2147483648:15301输出 Q: 254、43861、TIDL_BatchNormalLayer、传递#MMACS = 1.57、 0.00、 1.57,稀疏度:0.00,100.00
    第2层:最大通过数:-2147483648:139279输出 Q: 8271、139825、TIDL_ConvolutionLayer、传递#MMACS = 314.57、256.11、276.82、sparsity:12.00、18.58
    第3层:最大通过数:-2147483648:18288输出 Q: 9672、18360、TIDL_ConvolutionLayer、传递#MMACS = 301.99、250.87、263.72、sparsity:12.67、16.93
    第4层:最大通过数:-2147483648:61258输出量:18054、61498、TIDL_ConvolutionLayer,通过数#MMACS = 603.98、566.43、585.89、稀疏度:2.99、6.22
    第5层:最大传递数:-2147483648:57873输出量:11225、58100、TIDL_ConvolutionLayer,传递数#MMACS = 301.99、285.44、294.26、稀疏度:2.56、5.48
    第6层:最大传递数:-2147483648:64639输出数:14112、64892、TIDL_ConvolutionLayer,传递数#MMACS = 603.98、561.64、578.78、稀疏度:4.17、7.01
    第7层:最大传递数:-2147483648:42566输出数:13764、42733、TIDL_ConvolutionLayer,传递数#MMACS = 301.99、284.09、293.63、稀疏度:2.77、5.93
    第8层:最大通过数:-2147483648:51681输出量:18130,51884,TIDL_ConvolutionLayer,通过数#MMACS = 603.98,545.17,562.28,稀疏度:6.90,9.74
    第9层:最大通过数:-2147483648:76130输出量 Q:14555、76429、TIDL_ConvolutionLayer,通过数#MMACS = 301.99、287.03、295.72、稀疏度:2.08、4.95
    第10层:TIDL_PoolingLayer, 通过#MMACS = 0.52、 0.00、 0.52,稀疏度:0.00,100.00
    第11层:最大通过数:-2147483648:99140 out Q:13880、99529、TIDL_ConvolutionLayer,通过数#MMACS = 2415.92、2186.35、2237.01、稀疏度:7.41、9.50
    第12层:最大通过数:-2147483648:22559输出 Q: 6512、22647、TIDL_ConvolutionLayer、传递#MMACS = 1207.96、1009.58、1050.52、sparsity:13.03、16.42
    第13层:TIDL_PoolingLayer, 通过#MMACS = 0.29、 0.00、 0.29,稀疏度:0.00,100.00
    第14层:TIDL_PoolingLayer, 通过#MMACS = 0.08、 0.00、 0.08,稀疏度:0.00,100.00
    第15层:TIDL_PoolingLayer, 通过#MMACS = 0.02、 0.00、 0.02,稀疏度:0.00,100.00
    第16层:最大通过数:-2147483648:39772输出数:24789,39928,TIDL_ConvolutionLayer,通过数#MMACS = 536.87,508.54,536.63,稀疏度:0.04,5.28
    第17层:最大通过数:-2147483648:72622输出数:24508、72907、TIDL_ConvolutionLayer,通过数#MMACS = 147.06、141.03、147.05、稀疏度:0.01、4.10
    第18层:最大通过率:-2147483648:50744输出 Q:26739、50943、TIDL_ConvolutionLayer,通过#MMACS = 40.11、38.00、40.10、稀疏度:0.03、5.25
    第19层:最大通过率:-2147483648:62411输出 Q:23126,62656,TIDL_ConvolutionLayer,通过#MMACS = 11.80,11.31,11.79,稀疏度:0.01,4.12
    第20层:最大通过数:-2147483648:75037输出 Q: 3748、287532、TIDL_ConvolutionLayer、传递#MMACS = 150.99、117.70、120.82、sparsity:19.99、22.05
    第21层:最大通过数:-2147483648:774990输出 Q: 1573、1562185、TIDL_ConvolutionLayer、传递#MMACS = 792.72、745.48、762.02、稀疏度:3.87、5.96
    第22层:最大通过数:-2147483648:96298输出 Q: 7532、247645、TIDL_ConvolutionLayer、传递#MMACS = 41.36、36.70、37.57、稀疏度:9.16、11.26
    第23层:最大通过数:-2147483648:723780输出 Q: 1893、1458958、TIDL_ConvolutionLayer、传递#MMACS = 217.15、211.20、215.99、sparsity:0.53、2.74
    第24层:最大通过数:-2147483648:106717输出数:10944、234732、TIDL_ConvolutionLayer,通过数#MMACS = 11.28、10.26、10.50、稀疏度:6.96、9.04
    第25层:最大通过数:-2147483648:628473输出 Q: 2189、1266843、TIDL_ConvolutionLayer、传递#MMACS = 59.22、57.22、58.47、稀疏度:1.26、3.38
    第26层:最大通过率:-2147483648:135248输出 Q:10831、319786、TIDL_ConvolutionLayer、通过#MMACS = 3.32、 3.06、 3.13,稀疏度:5.73,7.82
    第27层:最大通过数:-2147483648:683268输出 Q: 1826、1377296、TIDL_ConvolutionLayer、传递#MMACS = 17.42、16.82、17.18、稀疏度:1.37、3.45
    找到配置列表的末尾!
    按任意键继续。 。 。
    --------------------------------------------------------------------
    谢谢、
    Praveen
  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    我也在使用发行版中的预编译可执行文件。 我不重建它们。

    您说您的结果是正确的。 我想您意味着./tempDir 中的结果(如"trace_dump_21_64x32.y")是正确的。

    但我的意思是、结果来自 TDA2xx EVM 板。

    我打印的结果如下所示:

    0x8DE4AB00是第16层输出的地址、RESLUT 是对的

    ADDR =(无符号字符*)(0x8DE4AB00 + 4*(64 + 4*2)+ 4);

    [EVE1] 20.589428 s:Addr[0]= 99
    [EVE1] 20.589641 s:Addr[1]= 53
    [EVE1] 20.589855 s:Addr[2]= 99
    [EVE1] 20.590068 s:Addr[3]= 67
    [EVE1] 20.590251 s:Addr[4]= 94
    [EVE1 ] 20.590465 s:Addr[5]= 92
    [EVE1 ] 20.590678 s:Addr[6]= 89
    [EVE1] 20.590861 s:Addr[7]= 89
    [EVE1] 20.591075 s:Addr[8]= 87
    [EVE1] 20.591288 s:Addr[9]= 91
    [EVE1] 20.591502 s:Addr[10]= 93
    [EVE1] 20.591715 s:Addr[11]= 91
    [EVE1] 20.591929 s:Addr[12]=95
    [EVE1 ] 20.592142 s:Addr[13]= 82
    [EVE1] 20.592356 s:Addr[14]= 70
    [EVE1] 20.592569 s:Addr[15]= 39

    0x8DFB2B80是 第21层输出的地址、结果错误

    ADDR =(无符号字符*)(0x8DFB2B80 + 4*(64 + 4*2)+ 4);
    [EVE1] 20.592783 s:Addr[0]= 255
    [EVE1 ] 20.592997 s:Addr[1]= 255
    [EVE1] 20.593210 s:Addr[2]= 255
    [EVE1] 20.593424 s:Addr[3]= 255
    [EVE1] 20.593637 s:Addr[4]= 255
    [EVE1] 20.593851 s:Addr[5]= 255
    [EVE1] 20.594125 s:Addr[6]= 255
    [EVE1] 20.594369 s:Addr[7]= 255
    [EVE1] 20.594583 s:Addr[8]= 255
    [EVE1] 20.594796 s:Addr[9]= 255
    [EVE1] 20.595010 s:Addr[10]= 255
    [EVE1] 20.595223 s:Addr[11]= 255
    [EVE1] 20.595467 s:Addr[12]= 255
    [EVE1] 20.595681 s:Addr[13]= 255
    [EVE1] 20.595894 s:Addr[14]= 255
    [EVE1] 20.596138 s:Addr[15]= 255

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好!  

    我刚刚在 EVM 板上运行了您的测试用例、其中的输出看起来也不错。 我没有看到您报告的"255"或"0"。

    您能否也通过在    tidl_alg.c 文件中的#define enable_trace_dump (1)(第39行)来从广泛的 EVM 转储跟踪?

    请  使用此更改重新构建 EVE 模式(TIDL 文件 I/O 用例)并运行。 这将转储与导入工具类似的每层输出。请注意、在 CCS 上运行和转储输出将需要一些时间。

    谢谢、

    Praveen

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好!  

    我刚刚在 EVM 板上运行了您的测试用例、其中的输出看起来也不错。 我没有看到您报告的"255"或"0"。

    您能否也通过在    tidl_alg.c 文件中的#define enable_trace_dump (1)(第39行)来从广泛的 EVM 转储跟踪?

    请  使用此更改重新构建 EVE 模式(TIDL 文件 I/O 用例)并运行。 这将转储与导入工具类似的每层输出。请注意、在 CCS 上运行和转储输出将需要一些时间。

    谢谢、

    Praveen

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    您的 vsdk 和 TIDL 版本是什么?
  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    我的 TIDL 版本是01.00.00.00
  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    您好!

    看起来您使用的是一些较旧的 TIDL 版本,是否可以获取最新版本试用?

    谢谢、
    Praveen
  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    使用 vsdk_03.02.00.00和 TIDL_01.00.00.00是正确的

    谢谢!

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好!

    感谢您的更新。 很高兴听到这个消息。

    此致、

    Praveen

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    您好 Praveen、

    我测试 TIDL 的运行时间为1736ms、稀疏调制器为796ms。 (8.9932GMACS)
    SEG 模型仅为338ms (8.442GMACS)。
    为什么会有如此大的扩散?

    当我设置"conv2dKernelType = 1"时、转换后的模型在使用 TIDL 用例时无法运行、可能存在一些错误?
    我无法访问链接:
    cdds.ext.ti.com/.../emxTree.jsp

    谢谢
  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好!

    1.您可以在释放模式下构建 TIDL 并尝试吗?

    请尝试以下链接  

    谢谢、

    Praveen

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    现在我在链路中使用 TIDL、结果是类似的。

    有一些详细信息:

    我使用"tidl_model_import.out.exe"将 seg 和 ssd 模型导入到 tidl 中(请勿重建它)。

    我不更改任何代码并测试 tidl 运行时间。

    输入图像大小为1024x512。

    SEG 模型 SSD 型号
    无稀疏模型 1251毫秒 1738毫秒
    稀疏模型 397毫秒 69
    密集卷积 397毫秒 导入失败

    所以、

    1.为什么 SEG 和 SSD 之间没有稀疏度有如此大的区别?

    2.为什么80%的稀疏度在 SEG 模型中只能获得3.15倍的加速(我知道您可以获得大约4倍的加速),而在 SSD 模型中只能获得2.49倍的加速?

    使用密集卷积时、我设置"conv2dKernelType = 1"、但 seg 模型没有差异、导入 SSD 模型失败。

    4.当我使用"...\processor_sdk_vision_03_02_00_00\vision_sdk\apps\tools\TIDL_files"文件夹中的"NET.bin"和"PRM.bin"时、运行时间仅为310ms。 你是怎么得到的? (我只能得到397ms)

    谢谢!

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    您好!

    我们正在导入 SSD 网络并在 TIDL 中实现新的 SSD 层、因此请等待一段时间、使用 TIDL 测试 SSD netwrok。

    2.请共享导入配置文件和用于导入 sig net 的 prototext,我们将进行检查和检查?

    3.只有卷积层输出宽度或高度小于64时才会设置密集卷积、因此在这种情况下可能没有输出宽度或高度小于64的 conv 层。

    4.请共享用于导入 sig net 的导入配置文件和 prototext? 此外、您可以使用"tidl_model_import.out.exe"检查从 tidl 导入的 seg net bin 文件("NET.bin"和"PRM.bin")是否与软件包中的现有 bin 文件匹配。

    谢谢、
    Praveen
  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。

    您好 Praveen、

    我删除了一些层并运行 SSD 模型、这是我的第一 个问题,SSD 模型由 Caffe-Jacinto 演示进行了培训、不会更改任何配置(默认为80%稀疏度)。 SEG 模型来自 Caffe-Jacinto-models、没有稀疏模型来自"初始"文件夹、而稀疏模型来自"稀疏"文件夹。

    1.您能告诉我大致的等待时间吗? 希望能听到有关 SSD 网络运行时间更快的好消息。

    2.你只能使用经过训练的 Caffe-Jacinto-models 模型。

    3. 当我将部署原型设计中的"扩张"值从"2"更改为"1"时,它导入成功。

    4.我不知道如何处理导入的 bin 文件。

    谢谢

  • 请注意,本文内容源自机器翻译,可能存在语法或其它翻译错误,仅供参考。如需获取准确内容,请参阅链接中的英语原文或自行翻译。
    您好!

    TIDL 中的 SSD 支持将在2018年第1季度发布时提供。

    我们使用自定义数据集进行培训、因此预计 SEG 网络性能会出现这种偏差。

    好的、谢谢。

    请参阅用户指南中的第3.6节。

    谢谢、
    Praveen