视频地址: https://events.google.com/io/session/187aed3d-2768-4b1a-8047-48c025b7d0bd?lng=zh-CN, 时长 29min34s

问答内容

Q:What is “on-device machine learning” and why should i care about it

A: 介绍了机器学习在设备端的发展历史,TensorFlow Lite;

设备端机器学习在应用场景中的优势:低延时、低功耗、隐私数据...

比如本地处理音频帧、视频帧、扫描条形码、离线服务等等

Q: What are some common use cases where ML is being used on-device?

A: 常见应用列举,TikTock、Instgram、Sapchat、文本翻译、语义理解等等

Q:On device ML, we have seen in android devices, but what about web apps? Like on device ML will work as usual in PWAs?

A: 介绍了TensorFlow.js,提到了Google I/O上演示的一个Demo

Q: I believe that on-device machine learning means having the model on the device or loading it beforehand. So how can we prevent other people that uses our product to extract that model?

既然模型部署在端上,怎么防止模型被人为提取

A:模型我想我可以尝试一下,所以首先,我认为有一个 第一部分有一些细节,你不需要 可以打包您的模型作为您的 Android 或 IOS 应用程序的一部分可以准备 它,但你不必这样做。你可以做的一件事之一 考虑将您的模型打包为模型的一部分或托管您的模型 和 Firebase 托管,然后使用五个基础 SDK 以便 安装后在设备上下载和管理您的模型 应用程序,这也可以帮助您保持应用程序的大小。较小。这 另一种选择是使用 Android 应用程序包,它可以让您部署 安装后应用程序的工件,因此它再次帮助您保持 你的应用程序。它可以帮助你在安装时保持你的应用程序很小,但是 我认为你问题的第二部分很重要,所以 如何保护我的模型不被盗。基本上正确吗?我们 正在积极思考这个问题。你可以让偷窃变得更难 楷模。我们是加密和其他机制的一部分 我们正在考虑的部分事情是让它变得更多 其他人更难访问您的模型。你能想到的一些事情 的只是你知道也许在设备上运行你的模型的一部分 发送专有部分。也许到服务器端,因为然后 单独的模型可能不是您的应用程序中的秘密武器 它们可能是其他东西等等,但请注意

Q: Besides processing power, are there any other disadvantages to using on-device ML? When should you implement on-device ML instead of cloud ML?

A:老问题