WWDC2021-ShazamKit速览

425 阅读2分钟

前言

WWDC2021 又如火如荼的展开了!今年想必大家都有点小小的失望吧。M1这一桌面级芯片首次登上 iPad,但是 iPad OS 还没有足够发挥这个芯片的强力 App。并且在系统层面也没有看到能够支持发挥出 M1 实力的新的框架。 也许 Apple 还在秘密研发 Xcode for iPad ?又或者,仅仅是供应链层面的,M1 不用就浪费了,直接移植到 iPad?总之,今年看起来是等不到结果了,我们明年的 WWDC 再拭目以待。

正文

今天,抽时间看了看,WWDC 的 video list。刚好看到了 ShazamKit 这个名字,我顿时眼前一亮!想起了那个沙雕电影。。。

于是,抱着7分好奇,3分学习新知识的心态打开了。介绍 ShazamKit 的视频。

本期 WWDC 介绍这个新框架的视频只有两期,总计 30 min。

总体上来说这个框架的作用,是根据提供的声音信号,匹配到制定的音频文件中的片段。并提供到相应的音频信息。(可以是音乐的附加信息,或者片段位置信息)。

整体工作流程有如下三个环节

Screen_Shot_2021-06-09_at_8.28.59_PM.png

在 WWDC 的两个介绍视频中,一个演示了音乐识别功能(听歌识曲)。

另一个演示了在教学场景下的使用,匹配教学视频中的音频信息,自动更新,教学软件的位置。因为可以获取到一个 offset 参数(相当于时间轴上的位置)

匹配过程依赖 ShazamKit,以及对应的 Shazam server(有 Shazam catalog 这样一个东西,大致就是预设好的,音频文件信号目录,用于查找时匹配)

Screen_Shot_2021-06-09_at_8.33.02_PM.png

Screen_Shot_2021-06-09_at_8.53.41_PM.png

匹配过程大致按照下图所体现(来自 developer.apple.com/documentati…

Screen_Shot_2021-06-09_at_8.46.34_PM.png

总结

Apple 在近年做了越来越多的,第三方厂商做的事情,将一些外部能力,内置进入自身的系统框架中。

对于开发者来说自然是有好处的,原有的一些依赖外部提供的能力转由 apple 自身支持,可以显著减小包大小,增强体验。

对于用户来说,如今的 iOS 可能和乔布斯时代的 iOS 渐行渐远了吧。