В рамках конференции WWDC 2017 компания Apple открыла создателям приложений доступ к новому фреймворку Core ML, на базе которого функционируют приложение «Камера», клавиатура QuickType и интеллектуальный помощник Siri.
Разработчик Крис Гриннинг воспользовался данной возможностью и, применив Core ML в сочетании с фреймворком Vision Kit, показал, что «Камера» способна распознавать с быстротой и точностью различные предметы. Для этого нужно просто направить объектив на какой-либо объект.
В число ключевых «фишек» Core ML входит возможность использования в iOS предобученных серверных моделей, которые можно применять для анализа движения, распознавания штрих-кодов, отслеживания и идентификации лиц и предметов. На последнюю функцию и обратил внимание Гриннинг.
ПО ТЕМЕ: Публичная iOS 11 бета для iPhone или iPad: как установить прямо сейчас.
Задействовав фреймворк Vision Kit, разработчик подключил Core ML к смартфону iPhone, что позволило ему дополнить функционал нативного приложения «Камера» в iOS 11 возможностью определения движения. В итоге при наведении объектива камеры на предмет происходило его распознавание.
Смартфон смог распознать большую часть предложенных предметов, в том числе отвертку, бутылку вина, линейку и пр. Правда, не обошлось без казусов – по непонятной причине система идентифицировала iPhone как iPod. Тем не менее, скорость распознавания оказалась впечатляющей. iOS 11 понадобилось всего несколько секунд, чтобы определить все предметы.
По слухам, в скором будущем Apple реализует свою систему распознавания лиц, которая, вне всяких сомнений, будет намного совершеннее. Примечательно, что в первых бета-сборках iOS 11 какие-либо намеки на систему распознавания лиц выявлены не были.
Смотрите также: