August 4, 2020

Как фронталка Mac могла бы распознавать лица без TrueDepth

Apple никогда не стремилась обкатывать новые технологии на своих компьютерах, предпочитая оснащать их уже проверенными решениями. Именно поэтому Retina-дисплей, сканер Touch ID, оптимизированная зарядка и другие нововведения появлялись на Mac уже после того проявили себя на iPhone или iPad. Такой подход можно понять. Компьютеры приносят компании заметно меньше денег, поэтому и оснащаются чаще всего они, так сказать, по остаточному принципу. А ведь можно было и поэкспериментировать с ними.

Face ID может появиться в компьютерах Mac уже в этом году

По слухам, Apple вот-вот намеревается снабдить некоторые модели Mac поддержкой интерфейса Face ID. Якобы в Купертино хотят научить свои компьютеры узнавать владельца в лицо. В общем говоря, это удобно, потому что распознавание могло бы происходить автоматически ещё в момент открытия крышки ноутбука либо запуска, если речь идёт об iMac.

MacBook c Face ID

Apple могла бы сэкономить и научить фронталку MacBook распознавать лица

Но все понимают, что такой апгрейд не может быть бесплатным – для Apple уж точно. Всё-таки компании придётся укомплектовать компьютеры специальной системой датчиков и трёхмерной камерой, которые стоят денег. А, интересно, нельзя ли было обойтись без этого?

Мне кажется, что в теории современным Mac хватило бы и фронтальной камеры, которой они оснащаются по умолчанию, а обязанности по распознаванию можно возложить на программные алгоритмы. Как это реализовать? Давайте помечтаем.

Система TrueDepth, которая отвечает за распознавание лиц в iPhone и iPad, задействует трёхмерную камеру для определения объёма, чтобы исключить попытку разблокировки фотографией, а инфракрасный излучатель «распыляет» на лицо пучок света, считывая рельеф.

Затем ПО сопоставляет полученную информацию с изображением, хранящимся в памяти устройства, и принимает решение о разблокировке либо отказе (на самом деле никакого изображения в памяти не хранится, всё тщательно зашифровано и заменено хэшем, просто так удобнее было объяснять).

Распознавание лиц на камеру

Google научилась имитировать объём на фото путём деления пикселя надвое и создания эффекта параллакса

Без трёхмерного сканирования обойтись нельзя. Но для этого необязательно задействовать 3D-камеру. Вместо этого можно применить методику имитации объема от Google. Поисковый гигант использует её для создания портретных снимков в своих смартфонах с одиночной камерой.

Она состоит в том, чтобы программным образом разделить один пиксель надвое и таким образом вести съёмку как бы с двух ракурсов. Несмотря на то что в таком режиме съёмки стереобаза выходит очень маленькой, этого хватает, чтобы сделать портретный снимок, выделив объект съёмки от заднего фона.

Но как такая 3D-съёмка, или, вернее будет сказать параллакс-съёмка, поспособствует распознаванию? Она обеспечит кадру объём и определит границы лица, исключив вероятность ошибочной разблокировки с помощью фотографии или видеозаписи. Затем в дело вступают другие механизмы.

Для непосредственно идентификации можно применить те самые алгоритмы, которые используются в современных смартфонах на Android, в приложениях вроде FindFace и системах распознавания лиц Правительства Москвы. Несмотря на то что они несовершенны и, в общем говоря, иногда ошибаются, вероятность ложного срабатывания у них достаточно невысока, тем более что её можно минимизировать, поручив это нейронным сетям. Благо база из миллионов лиц в косвенном распоряжении Apple уже есть.

Распознавание лиц в темноте

Подсветить лицо пользователя может подсветка дисплея. Да, вот так просто

Осталось решить только вопрос распознавания в темноте. Это можно сделать двумя способами.

  • Первый – сложный – состоит в том, чтобы задействовать методику осветления кадра, применяемую для ночной съёмки. Благо у Apple она уже есть, а уж научить компьютерное железо работать с ней, скорее всего, особых проблем не доставит. Но, так или иначе, это дополнительные расходы на трансфер технологии, её оптимизацию и отладку.
  • Второй метод – простой – заключается в том, чтобы задействовать программную вспышку. Ну, проще говоря, заставить экран компьютера во время сканирования немного повышать яркость до таких пределов, когда лицо уже можно различить и распознать. Остальное сделают нейронные сети. Причём этот метод не исключает первого, и они вполне могли бы работать в паре.

Выглядит ли такой сценарий правдоподобным? Конечно, нет. Ведь зачем изобретать что-то новое, если есть вполне готовый вариант. Поэтому я бы ожидал, что Apple воспользуется имеющейся в её распоряжении аппаратной методикой сканирования и либо повысит цену компьютеров на сумму понесённых расходов, либо сэкономит на чём-нибудь ещё. А программное распознавание, скорее всего, так и останется нереализованным. И напрасно.

Подписывайтесь на все наши социальные сети:

Vkvk.com/apple.inside

Instagraminstagram.com/apple.inside

Telegramt.me/appleinside

Twittertwitter.com/my_appleinside