-
libtorch-win-shared-with-deps-1.4.0.zip下载
资源介绍
自己以for循环展开torch::lstm_cell写的inference,OMP_NUM_THREADS=4的情况下只比torch::lstm慢一点点,前者约为16ms,后者约为19ms(这里lstm cell的输入=256,输出=1024,序列长度为80)。细微的差距大概和torch::lstm一次性算完matmul_ih,仅在时间步以for循环计算matmul_hh有关。比起python + script jit,直接以libtorch c++ api来搭建常用模型基本上几乎没有overhead,写起来也和python差不多。后面考虑给for循环展开的lstm的版本加入zoneout,或者给seq2seq的decoder使用
- 上一篇: lstm_regression.m
- 下一篇: Easy_Lstm_Cnn-master.zip