TensorFlow 团队发布
今年早些时候,我们在 TensorFlow 开发者峰会上宣布了 TensorFlow 2.0 的 alpha 版本。今天,我们很高兴地宣布 TensorFlow 2.0 的最终版本现已推出!了解如何安装它 这里。
TensorFlow 2.0 受社区的驱动,他们希望有一个易于使用的平台,该平台既灵活又强大,并且支持部署到任何平台。TensorFlow 2.0 为希望推动机器学习领域最先进水平并构建可扩展的 ML 驱动的应用程序的开发人员、企业和研究人员提供了一个全面的工具生态系统。
使用 TensorFlow 2.0 编码
TensorFlow 2.0 使 ML 应用程序的开发变得更加容易。凭借 Keras 与 TensorFlow 的紧密集成、默认的急切执行和 Python 式函数执行,TensorFlow 2.0 使 Python 开发人员的应用程序开发体验尽可能熟悉。对于推动 ML 边界的研究人员,我们在 TensorFlow 的低级 API 上投入了大量资金:我们现在导出内部使用的所有操作,并为变量和检查点等关键概念提供可继承的接口。这使您能够构建到 TensorFlow 的内部,而无需重建 TensorFlow。
为了能够在各种运行时环境(包括云、Web、浏览器、Node.js、移动和嵌入式系统)上运行模型,我们已标准化了 SavedModel 文件格式。这使您能够使用 TensorFlow 运行模型,使用 TensorFlow Serving部署它们,使用 TensorFlow Lite在移动和嵌入式系统上使用它们,以及使用 TensorFlow.js在浏览器或 Node.js 中进行训练和运行。
对于高性能训练场景,您可以使用
分布式策略 API 来分布式训练,只需进行最少的代码更改,即可获得出色的开箱即用性能。它支持使用 Keras 的 Model.fit 进行分布式训练,也支持自定义训练循环。
多 GPU 支持 现已推出,您可以了解有关在 Google Cloud 上使用 GPU 的更多信息
这里。云 TPU 支持将在未来版本中推出。查看分布式训练
指南 以获取更多详细信息。
TensorFlow 2.0 在 GPU 上提供了许多性能改进。TensorFlow 2.0 使用 Volta 和 Turing GPU 上的混合精度,只需几行代码即可实现高达 3 倍的训练性能提升,例如在
ResNet-50 和
BERT 中使用。TensorFlow 2.0 与 TensorRT 紧密集成,并使用
改进的 API 在
NVIDIA T4 云 GPU 上提供更好的可用性和高性能推理性能。
“在 NVIDIA GPU 和系统上进行机器学习使开发人员能够解决几年前似乎不可能的问题,”NVIDIA 加速计算软件产品管理高级总监 Kari Briski 说。“TensorFlow 2.0 充满了许多出色的 GPU 加速功能,我们迫不及待地想看看社区将用这些更新的工具创建的惊人 AI 应用程序。”
在 TensorFlow 中构建模型时,有效地访问训练和验证数据对于有效性至关重要。我们引入了
TensorFlow 数据集,它为包含各种数据类型(如图像、文本、视频等)的大量数据集提供了标准接口。
虽然传统的基于会话的编程模型仍然保留,但我们建议使用带急切执行的常规 Python 开发。
tf.function 装饰器可用于将您的代码转换为可以在远程执行、序列化和优化性能的图。这得益于
Autograph 的补充,它可以将常规 Python 控制流直接转换为 TensorFlow 控制流。
当然,如果您使用过 TensorFlow 1.x 并正在寻找迁移到 2.0 的指南,我们已经发布了一个
这里。TensorFlow 2.0 版本还包括一个自动转换脚本,以帮助您入门。
我们与 Google 内部和 TensorFlow 社区的许多用户合作,对 TensorFlow 2.0 功能进行了测试,并对反馈感到非常兴奋。例如,Google 新闻团队在 TensorFlow 2.0 中推出了一个基于 BERT 的语言理解模型,该模型
显著提升了故事覆盖率。TensorFlow 2.0 提供易于使用的 API,并具有灵活的特性,可以快速实现新想法。模型训练和服务无缝集成到现有基础设施中。
了解更多
转到
tensorflow.org 了解有关 TensorFlow 2.0 的更多信息,包括如何下载并开始编写 ML 应用程序代码。最后,有关 TensorFlow 2.0 及其生态系统更令人振奋的公告、演讲以及动手训练和演示,请于 10 月 28 日至 31 日在加州圣克拉拉与我们一起参加
TensorFlow World。我们希望在那里见到您!