...移动部署、模型量化、命名张量等亮点十足...

模型部署到移动端_PyTorch1.3来了!移动部署、模型量化
命名张量等亮点⼗⾜...
在今天举⾏的PyTorch开发者⼤会上,Facebook 发布了其最新版本的深度学习库:PyTorch 1.3。
PyTorch1.3涵盖了PyTorch Mobile以及PyTorch的许多重磅新⼯具和库,其中包括⽤于模型可解释性的Captum,⽤于计算机视觉的Detectron2,以及⽤于语⾳和⾳频识别的Fairseq语⾳扩展。
另外还包含量化功能和 Google Cloud TPU ⽀持,可加快机器学习模型的训练速度。
Facebook CTO Mike Schroepfer 表⽰,对 Tensor 处理单元的⽀持始于使⽤单芯⽚训练模型的能⼒,后
来将扩展到 Cloud Pods。
江阴市华西实验学校
近年来,PyTorch因专注于满⾜研究⼈员的需求得到了来AI社区以及开发⼈员的普遍⽀持。
正如O'Reilly指出的那样,仅在2019年上半年, PyTorch在ArXiv上的引⽤量就增长了194%,该平台的贡献者数量在去年增长了50%以上,达到近1200⼈。Facebook,Microsoft,Uber和其他⾏业的组织越来越多地将其⽤作最重要的机器学习(ML)研究和⽣产⼯作负载的基础。
除了发布众多重磅功能,此次PyTorch还重点扩展了对硬件⽣态系统的⽀持。如前⽂所述,他们与Google和Salesforce合作,为Cloud Tensor处理单元增加了⼴泛⽀持,为训练⼤型深度神经⽹络提供了⼀个显著的加速项。中国的阿⾥云也与Amazon Web
Services,Microsoft Azure和Google Cloud⼀道,成为了PyTorch⽤户⽀持的云平台。
以下是详细介绍:
PyTorch的1.3版本带来了重要的新功能,包括对移动设备部署的实验性⽀持,8位整数的动态图模式量化以及命名张量的能⼒。
命名张量(experimental)
康奈尔⼤学的Sasha Rush认为,尽管在深度学习中⽆处不在,但传统的张量实现仍存在重⼤缺陷,例如暴露私有维度,基于绝对位置进⾏⼴播以及将类型信息保留在⽂档中。他提出了另⼀种命名张量的⽅法。
今天,我们通过comment来命名和访问维度:
但显式命名会使代码更易于阅读和维护:
量化(experimental)
开发ML应⽤程序时,有效利⽤服务器端和设备上的计算资源⾮常重要。
国家杜马为了⽀持在服务器和边缘设备上进⾏更有效的部署,PyTorch 1.3现在使⽤熟悉的eager模式Python API⽀持8位模型量化。
量化是指⽤于以降低的精度执⾏计算和存储的技术,例如8位整数。当前的实验特性包括对训练后量化,动态量化和量化感知训练的⽀持。它分别针对x86和ARM CPU,利⽤FBGEMM和QNNPACK最新的量化内核后端,这些后端与PyTorch集成并且现在共享⼀个通⽤API。
PyTorch移动版(experimental)
在边缘设备上运⾏ML变得越来越重要,因为应⽤程序需要更低的延迟。它也是诸如联合学习之类的隐私保护技术的基础要素。为了在设备上实现更⾼效的ML, PyTorch 1.3现在⽀持从Python到在iOS和Android上部署的端到端⼯作流。
无味红霉素这是⼀个早期的实验版本,针对端到端开发进⾏了优化。即将发布的版本将侧重于:
⼤⼩优化:根据⽤户应⽤程序所需的运算符,构建级别的优化和选择性编译(即,仅为所需的运算符⽀付⼆进制⼤⼩)
性能:进⼀步改善了移动CPU和GPU的性能和覆盖范围
酷我音乐盒2008⾼级API:扩展移动本机API,以涵盖将ML集成到移动应⽤程序中所需的常规预处理和集成任务。例如计算机视觉和⾃然语⾔处理
更多信息:
⽤于模型可解释性的Captum
随着模型变得越来越复杂,开发⽤于模型可解释性的新⽅法变得越来越重要。为了满⾜这种需求,我们发布了Captum,该⼯具可帮助在PyTorch中⼯作的开发⼈员了解为什么他们的模型⽣成特定输出。
Captum提供了先进的⼯具来了解特定神经元和层的重要性以及它们是如何影响模型做预测的。Captum的算法包括integrated gradients,conductance,SmoothGrad和VarGrad以及DeepLift。
下例显⽰了如何在预先训练的ResNet模型上应⽤模型可解释性算法,然后通过将每个像素的属性叠加在图像上来使其可视化。
在此图中,使⽤integrated gradient计算了特征归因,并显⽰在右侧图像中。(图⽚由Pixabay提供)
第欧根尼更多信息:
⽤于隐私性的新⼯具CrypTen
通过基于云或机器学习即服务(MLaaS)平台的ML的实际应⽤提出了⼀系列安全和隐私挑战。特别是,
这些平台的⽤户可能不希望或不能共享未加密的数据,这使他们⽆法充分利⽤ML⼯具。为了应对这些挑战,机器学习社区正在探索各种成熟度不同的技术⽅法。其中包括同态加密,安全的多⽅计算,可信的执⾏环境,设备上的计算以及差异性隐私。
为了更好地理解如何应⽤其中的某些技术,我们发布了CrypTen,这是⼀个新的基于社区的研究平台,⽤于推动隐私保护ML领域的发展。
更多信息:
GitHub:
多模态AI系统⼯具
数字内容通常由⼏种形式组成,例如⽂本,图像,⾳频和视频。例如,单个公共post可能包含图像、正⽂、标题、视频和登录页⾯。甚⾄⼀个特定的组件也可能具有不⽌⼀种模态,例如既包含视觉信号⼜包含⾳频信号的视频,或者包含图像、⽂本和HTML源的登录页⾯。
与PyTorch配合使⽤的⼯具和库⽣态系统提供了增强的⽅法来应对构建多模态ML系统的挑战。以下是今天启动的⼀些最新库:
Detectron2
对象检测和分割⽤于从⾃动驾驶车辆到平台完整性的内容理解等任务。为了推进这项⼯作,Facebook AI Research(FAIR)发布了Detectron2,这是⼀种在PyTorch中实现的对象检测库。Detectron2提供对最新模型和任务的⽀持,增加了帮助计算机视觉研究的灵活性,并改进了可维护性和可伸缩性,以⽀持⽣产⽤例。
了解更多:
语⾳扩展到fairseq医疗供应链金融
语⾔翻译和⾳频处理是搜索、翻译、语⾳和助⼿等系统和应⽤程序中的关键组件。近年来,随着Transformer等新架构的发展,以及⼤规模的预训练⽅法,这些领域取得了巨⼤的进步。我们扩展了fairseq,这是⼀个⽤于序列到序列的应⽤程序(如语⾔翻译)框架,包括对语⾳和⾳频识别任务的端到端学习的⽀持。
fairseq的这些扩展可以更快地探索和构建新的语⾳研究思想的原型,同时提供⼀个清晰的⽣产路径。
点击这⾥开始使⽤:
云提供商和硬件⽣态系统⽀持
诸如Amazon Web Services,Microsoft Azure和Google Cloud之类的云提供商为希望在PyTorch上开发ML并在⽣产中部署的任何⼈提供了⼴泛的⽀持。我们很⾼兴分享Google Cloud TPU⽀持的全⾯可⽤性以及与阿⾥云的新推出的集成。我们还将扩展对硬件⽣态系统的⽀持。
Google Cloud TPU⽀持现已⼴泛可⽤。为了加速当今部署的最⼤规模的机器学习(ML)应⽤并实现未来的ML应⽤的快速开
发,Google创建了称为Tensor Processing Units(TPU)的定制硅芯⽚。
将这些TPU 组装到称为Cloud TPU Pods的多机架ML超级计算机中后,它们可以在⼏分钟或⼏⼩时内完成ML⼯作负载,⽽以前在其他系统上要花⼏天或⼏周的时间。来⾃Facebook,Google和Salesforce的⼯程师共同努⼒,在PyTorch中启⽤并试⽤了Cloud TPU⽀持,包括对Cloud TPU Pods的实验性⽀持。Colab还提供了对Cloud TPU的PyTorch⽀持。
点击这⾥了解更多关于如何在Cloud TPUs上使⽤PyTorch的信息:
阿⾥巴巴在阿⾥云中添加了对PyTorch的⽀持。最初的集成涉及PyTorch 1.x的⼀键式解决⽅案,Data Science Workshop笔记本服务,使⽤Gloo / NCCL进⾏的分布式训练以及与阿⾥巴巴IaaS(例如OSS,ODPS和NAS)的⽆缝集成。我们期待与阿⾥巴巴提供的⼯具链⼀起,⼤⼤减少采⽤该⼯具所需的开销,并帮助阿⾥云的全球客户利⽤PyTorch开发新的AI应⽤程序。
ML硬件⽣态系统得以扩展。除了主要的GPU和CPU合作伙伴之外,PyTorch⽣态系统还⽀持专⽤的ML加速器。英特尔和Habana的更新展⽰了PyTorch如何连接到Glow优化编译器,从⽽使开发⼈员能够利⽤这些针对特定市场的解决⽅案。

本文发布于:2024-09-21 16:42:51,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/531316.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:模型   量化   训练
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议