研究人员需要大量的计算资源来训练近期已在医学影像、神经网络机器翻译、 游戏操作和许多其他领域取得重大突破的机器学习 (ML) 模型。我们认为,明显增大的计算量有助于研究人员发明更准确和有用的新 ML 模型。
为了加快开源机器学习研究的步伐,我们即将推出 TensorFlow Research Cloud (TFRC),这是一个由 1,000 个 Cloud TPU 组成的集群,此集群将向研究人员免费提供,用于支持多种需要大量计算并且无法通过其他途径实现的研究项目。
- 获取 Google 全新的 Cloud TPU,这些 TPU 将加快训练和推理速度
- 每个 Cloud TPU 高达 180 万亿次的浮点计算性能
- 每个 Cloud TPU 高达 64 GB 的超高带宽内存
- 熟悉的 TensorFlow 编程接口
TensorFlow Research Cloud 计划并不局限于学术界,我们意识到,来自不同组织、具有不同角色和专业知识的人士也在为机器学习研究做着巨大贡献,我们特别鼓励这些没有传统背景的人申请计划。我们将向选定个人提供有限计算时间的使用权限,同时欢迎研究人员通过多个项目多次申请。
- 通过同行评审的出版作品、开源代码、博文或其他开放媒介与全世界分享他们由 TFRC 支持的研究
- 向 Google 分享具体的建设性反馈,以便帮助我们不断完善 TFRC 计划和基础的 Cloud TPU 平台
- 畅想存在大量 ML 加速的未来并开发符合这一预期的新机器学习模型
- 加快专有 ML 模型的训练速度;在其他硬件上需要数周训练时间的模型在 Cloud TPU 上只需数天,甚至短短的几个小时
- 加快工业级数据集的批处理速度:图像、视频、音频、非结构化文本和结构化数据,等等
- 使用比以往更大、更复杂的 ML 模型处理生产中的实时请求
想每天第一时间收到 AI 相关高质量技术内容?
扫描二维码关注公众号:AI训练场