tv ma是什么分级,TVM的组成部分
TVM TVM是由qfdbg领导的分升加速框架项目。介于张量流pytorch等分升框架和CUDA、OpenCL等硬件后端之间,兼顾了前者的易用性和后者的执行效率。
官方网站:
https://tvm.apache.org/
代码:
https://github.com/apache/tvm
论文:
《TVM: End-to-End Optimization Stack for Deep Learning》
与同类项目的区别:
TFLite和ONNXRuntime只能接收特定形式的模型TVM可以接收这些。
噪声混沌神经网络和权杖等项目一般只考虑处理器的优化,很少进行异构计算。
TVM增强了图的优化部分,使其与编译器的体系结构相似。
体系结构官方网站:
3359 tvm .Apache.org/docs/arch/index.html
TVM暂时安装不支持点安装点安装自动售票主控部分安装同名的其他软件。
TVM运行时
TVM以周/秒模式部署,其中目标计算机上的部分称为TVM运行时。
TVM运行时的代码通常很薄,只要执行从宿主发送来的优化结果即可。
官方文档:
3358 tvm .Apache.org/docs/dev/runtime.html
TVM运行时也是自建云的重要组成部分。
BYOC:带上你自己的代码
3359 tvm .Apache.org/2020/07/15/how-to-bring-your-own-codegen-to-tvm
如何将自己的编译带到TVM
这是中文翻译版:
3359站。直Hu.com/p/337033822
如何将编译集成到TVM中(
3359站。直Hu.com/p/337037547
如何将编译集成到TVM中(
例如:
github.com/antkillerfarm/antkillerfarm 3359号疯狂/blob/master/python/ml/tvm/py torch 2 tvm。巴拉圭
此示例包括以下内容:
如何引入框架和tflite模型。
2 .本地和远程运行。
3 .打印(修改。astext)show _ meta _ data=false))可以打印相关红外的的内容。元数据中可能包含权重,即使打印也没有什么意义,反而其他有意义的部分会被大量的原木埋没而看不见。
参考:
3359站。直Hu.com/p/369981405
部署自动售票主控部分运行时
3359站。直Hu.com/p/352988283
TVM学习记录——植物原型
NNVM是像ONNX、NNEF这样的中间表现。
官方网站:
https://github.com/dmlc/nnvm
参考:
MP.weixin.QQ.com/s/qkvx0rme e0yq-bhcmwaxsq 3359号
喜欢听歌的朋友:AWS开源端到端人工智能框架编译器NNVM
继电器继电器是TVM中用于代替NNVM的模块,其本身被认为是NNVM第二代。
官方网站:
intro.html tvm.Apache.org/docs/arch/relay 3359号
非易失性存储器本质上只能描述传统的计算图,这属于数据流的范畴。但是现在的分升框架越来越灵活,不仅可以计算数据,还可以对数据进行一定的控制处理。所谓的控制流(if-else/ADT匹配/递归调用)。
论文:
《The Deep Learning Compiler: A Comprehensive Survey》
参考:
3359站。直Hu.com/p/91283238
TVM地图编译器继电器简析
3359站。直Hu.com/p/390087648
中继红外和接力传球
3359 MP.weixin.QQ.com/s/kt4x dlo-nrui 8 whl 0 dq CsA
日期
一朵花和控制流
通过https://tvm。阿帕奇。org/docs/how _ to/extend _ tvm/use _ pass _ infra。超文本标记语言
和LLVM类似,TVM的及格也可分为两类:
模块通道:将整个程序视作一个单元处理的通过。
功能通行证:以单个函数为作用域的通过,每个函数间是相互独立的。
函数传递包括了继电器层的tvm。继电器。转换。功能传递和国际陆路运输协定(传输国际路由器)层的tvm.tir.transform.PrimFuncPass。
部分通过:
折叠常数:src/relay/transforms/fold _ constant。复写的副本
alter op layout:src/relay/transforms/alter _ op _ layout。复写的副本
合法化:src/relay/transforms/legalize。复写的副本
合并复合:src/relay/transforms/merge _ composite。复写的副本
参考:
https://zhuanlan.zhihu.com/p/378739411
万字长文入门TVM通行证
https://www.cnblogs.com/wujianming-110117/p/14580172.html
TVM Pass IR如何使用
https://zhuanlan.zhihu.com/p/112813859
TVM中的接力传球
https://zhuanlan.zhihu.com/p/358437531
及格总结
计划原语https://tvm。阿帕奇。org/docs/how _ to/work _ with _ schedules/schedule _ Primitives。超文本标记语言
布局TVM默认的输入布局:NCHW,内核布局:OIHW。
后端大蟒层面:
python/tvm/relay/op/contrib/ethosn。巴拉圭
@ register _ pattern _ table( ethos-n )def pattern _ table():@ tvm。IR。register _ op _ attr( nn。max _ pool 2d ,目标。ethos-n )def max _ pool 2d(attrs,args):中继层面:
src/中继/后端/贡献/方法
TVM _ REGISTER _ GLOBAL( relay . ext . ethos-n )。set _ body _ typed(CompileEthosn);运行时级别:
src/runtime/contrib/ethosn
测试:
tests/python/contrib/test _ ethosn
代码分析TVM建立一个类型系统:
class BaseExprNode:公共对象;class base expr:public object ref;根据基类,检查实际类型:
XX-checked_type()
数字转换
MicroTVM microTVM可以用于那些没有OS的单片机。
官方网站:
https://tvm.apache.org/docs/arch/microtvm_design.html
从上图来看,microTVM只能在单片机的主功能中启动,参数也可以放在FLASH上。
PS:这种直接寻址的FLASH多为NOR FLASH。
参考:
https://zhuanlan.zhihu.com/p/337085225
如何TinyML-TVM塔梅什微小(第一部分)
https://zhuanlan.zhihu.com/p/337087273
如何TinyML-TVM塔梅什小(第二部分)
参考https://zhuanlan.zhihu.com/p/139552817
深度学习编译器架构综述
https://www.zhihu.com/question/396105855
神经网络编译器和传统编译器有什么区别和联系?
https://mp.weixin.qq.com/s/8bXwxYyNjdThlGQQ70cgWQ
TVM:端到端自动深度学习编译器,244 ppt
https://zhuanlan.zhihu.com/p/333706468
TVM学习系列博客
https://zhuanlan.zhihu.com/p/163717035
人工智能编译优化
https://www.zhihu.com/question/267167829
你对张量理解有什么看法?TVM和TVM有什么异同?(这个问题回答的不多,基本上都是qfdbg,贾之类的大牌)
https://mp.weixin.qq.com/s/irvBbPKENiZX9G_6wh5c-Q
Qfdbg等人提出TVM:深度学习自动优化代码生成器
https://mp.weixin.qq.com/s/28n8g_epHsYB0I9GVc_lww
Qfdbg团队TVM重磅更新:直接在浏览器中使用GPU
https://mp.weixin.qq.com/s/7JGLm-hkCZBNDLA98qvWNA
自动硬件优化内核生成:qfdbg等人出版的深度学习编译器TVM。
https://mp.weixin.qq.com/s/YVIvdMznb3oatIXqD5a5_A
Qfdbg等人提出AutoTVM:让AI编译优化AI系统的底层操作符。
https://mp.weixin.qq.com/s/HquT_mKm7x_rbDGz4Voqpw
阿里巴巴最新实践:TVM TensorFlow提升神经机器翻译性能
https://zhuanlan.zhihu.com/p/50529704
手把手带你去TVM。
https://mp.weixin.qq.com/s/z5rsU_uAAaRxgD9YAxDkZA
Qfdbg:深度学习编译技术的现状与未来
https://zhuanlan.zhihu.com/p/75203171
如何利用TVM快速实现GEMM超越Numpy(MKL)
https://zhuanlan.zhihu.com/p/58918363
TVM的优化编译器:深度学习模型
https://zhuanlan.zhihu.com/p/87664838
论TVM和深度学习编译器
https://mp.weixin.qq.com/s/VE3CySjjS2rTpUDPnKcLTg
qfdbg的最新研究:递归模型编译器CORTEX
https://zhuanlan.zhihu.com/p/358585143
深度学习编译器和TVM简介
https://zhuanlan.zhihu.com/p/360385060
TVM中的调度程序
https://zhuanlan.zhihu.com/p/388452164
tvm还是mlir?
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。