它允许我们做的是采取数据,如文本、图像或其他类型的文件,并将其提交给这个名为CreateML的框架,以创建我们自己的coreML模型,然后可以纳入我们的应用程序中。这个训练是直接在Xcode playground中完成的,我们将使用最新版本的swift以及iOS12的API或以上。在你训练完模型后,你会在它之前没有见过的数据上测试它,并评估它的任务完成情况。当模型表现得足够好时,你就可以使用CoreML将其整合到你的应用程序中。
Create ML利用了苹果产品(如照片和Siri)内置的机器学习基础设施。这意味着你的图像分类和自然语言模型更小,需要更少的时间来训练。
如何收集用于训练的数据
我们可以很容易地进入www.images.google.com,我们只是要搜索我们想要的东西,并将我们想要的图像保存到一个名为训练数据的文件夹中。
我们给我们的文件夹的标签是非常重要的,因为这是ml模型将与我们放在这个文件夹中的每一张图片相关联的标签,它将从本质上给我们提供这个标签。
现在,我们已经有了所有的图像,我们想用来训练我们的模型,我们创建另一个文件夹,叫做测试数据。这个文件夹将再次包含相同名称的子文件夹,但有完全不同的图像,我们还没有向我们的模型展示。这个测试数据集是用来验证我们模型的准确性的,因为它们被标记了,模型可以检查它认为是什么,然后与正确的答案进行比较,然后评估它在分类过程中的准确性。
我们不必担心图片的格式或大小,因为creatML为我们解决了这个问题。
如何训练一个全新的机器学习模型
Xcode -> Open Developer Tools -> Create ML -> New Document
并选择训练和测试数据的文件路径。
CreateML最初发表于Nerd For Techon Medium,在那里人们通过强调和回应这个故事来继续对话。