Google 官方博客:推出 TensorFlow Research Cloud

641 阅读3分钟

研究人员需要大量的计算资源来训练近期已在医学影像神经网络机器翻译游戏操作和许多其他领域取得重大突破的机器学习 (ML) 模型。我们认为,明显增大的计算量有助于研究人员发明更准确和有用的新 ML 模型。

为了加快开源机器学习研究的步伐,我们即将推出 TensorFlow Research Cloud (TFRC),这是一个由 1,000 个 Cloud TPU 组成的集群,此集群将向研究人员免费提供,用于支持多种需要大量计算并且无法通过其他途径实现的研究项目。
TensorFlow Research Cloud 将为研究人员带来以下好处:
  • 获取 Google 全新的 Cloud TPU,这些 TPU 将加快训练推理速度
  • 每个 Cloud TPU 高达 180 万亿次的浮点计算性能
  • 每个 Cloud TPU 高达 64 GB 的超高带宽内存
  • 熟悉的 TensorFlow 编程接口
您可以在此处注册,以便在 TensorFlow Research Cloud 申请流程开放时收到通知;您也可以选择分享与您的计算需求有关的详细信息。我们计划逐步评估申请,希望寻找最具创意和雄心的提案。

TensorFlow Research Cloud 计划并不局限于学术界,我们意识到,来自不同组织、具有不同角色和专业知识的人士也在为机器学习研究做着巨大贡献,我们特别鼓励这些没有传统背景的人申请计划。我们将向选定个人提供有限计算时间的使用权限,同时欢迎研究人员通过多个项目多次申请。
鉴于 TensorFlow Research Cloud 的主要目标是从整体上惠及开源机器学习研究社区,成功入选的申请者需要遵守以下几点要求:
  • 通过同行评审的出版作品、开源代码、博文或其他开放媒介与全世界分享他们由 TFRC 支持的研究
  • 向 Google 分享具体的建设性反馈,以便帮助我们不断完善 TFRC 计划和基础的 Cloud TPU 平台
  • 畅想存在大量 ML 加速的未来并开发符合这一预期的新机器学习模型
对于有兴趣使用 Cloud TPU 进行专有研究和开发的企业,我们将推出并行 Cloud TPU Alpha 计划。您可以在此处注册,详细了解此计划。如果您对以下任何一项感兴趣,我们建议您参与 Cloud TPU Alpha 计划:
  • 加快专有 ML 模型的训练速度;在其他硬件上需要数周训练时间的模型在 Cloud TPU 上只需数天,甚至短短的几个小时
  • 加快工业级数据集的批处理速度:图像、视频、音频、非结构化文本和结构化数据,等等
  • 使用比以往更大、更复杂的 ML 模型处理生产中的实时请求
我们希望 TensorFlow Research Cloud 能够让尽可能多的研究人员探索机器学习研究的前沿并用新发现助推这一领域!我们鼓励您立即注册,在更多信息发布后抢先了解。

想每天第一时间收到 AI 相关高质量技术内容?

扫描二维码关注公众号:AI训练场