2020 年 6 月 26 日 — 发布者 Khanh LeViet,TensorFlow 开发倡导者
TensorFlow Lite 是在移动设备和边缘设备上运行 TensorFlow 模型的官方框架。它被用于 Google 的许多主要移动应用程序,以及第三方开发人员的应用程序。在生产环境中部署 TensorFlow Lite 模型时,您可能会遇到需要一些框架本身未提供的支持功能的情况,例如
# Load a tflite file and upload it to Cloud Storage.
source = ml.TFLiteGCSModelSource.from_tflite_model_file('example.tflite')
# Create the model object.
tflite_format = ml.TFLiteFormat(tflite_source=source)
model = ml.Model(display_name="example_model", model_format=tflite_format)
# Add the model to your Firebase project and publish it.
new_model = ml.create_model(model)
ml.publish_model(new_model.model_id)
将 TensorFlow Lite 模型上传到 Firebase 后,您可以随时在移动应用程序中下载它,并使用下载的模型初始化 TensorFlow Lite 解释器。以下是您在 Android 上的操作方法。val remoteModel = FirebaseCustomRemoteModel.Builder("example_model").build()
// Get the last/cached model file.
FirebaseModelManager.getInstance().getLatestModelFile(remoteModel)
.addOnCompleteListener { task ->
val modelFile = task.result
if (modelFile != null) {
// Initialize a TF Lite interpreter with the downloaded model.
interpreter = Interpreter(modelFile)
}
}
// Initialize a Firebase Performance Monitoring trace
val modelInferenceTrace = firebasePerformance.newTrace("model_inference")
// Run inference with TensorFlow Lite
interpreter.run(...)
// End the Firebase Performance Monitoring trace
modelInferenceTrace.stop()
在每个用户设备上衡量的性能数据将上传到 Firebase 服务器,并进行聚合以提供模型在用户群中的整体性能概览。从 Firebase 控制台,您可以轻松识别出推理速度较慢的设备,或查看不同操作系统版本之间的推理速度差异。 val remoteConfig = Firebase.remoteConfig
remoteConfig.fetchAndActivate()
.addOnCompleteListener(this) { task ->
// Get the model name from Firebase Remote Config
val modelName = remoteConfig["model_name"].asString()
// Download the model from Firebase ML
val remoteModel = FirebaseCustomRemoteModel.Builder(modelName).build()
val manager = FirebaseModelManager.getInstance()
manager.download(remoteModel).addOnCompleteListener {
// Initialize a TF Lite interpreter with the downloaded model
interpreter = Interpreter(modelFile)
}
}
启动 A/B 测试后,Firebase 将自动聚合用户对不同模型版本的反应指标,并向您展示哪个版本表现更好。如果您对 A/B 测试结果充满信心,只需单击一下即可将更好的版本推广到所有用户。
2020 年 6 月 26 日 — 发布者 Khanh LeViet,TensorFlow 开发倡导者
TensorFlow Lite 是在移动设备和边缘设备上运行 TensorFlow 模型的官方框架。它被用于 Google 的许多主要移动应用程序,以及第三方开发人员的应用程序。在生产环境中部署 TensorFlow Lite 模型时,您可能会遇到需要一些框架本身未提供的支持功能的情况,例如…