Неэффективность нейронных сетей в поимке преступников.
Пример: В Питере и области ловят опасного преступника. Запомните его.
Мужчину на видео подозревают в нападении на 76-летнюю пенсионерку в парке Александрино (Кировский район). Бабушке нанесли множественные колюще-режущие, украли сумку. Она прожила еще сутки, но сегодня скончалась.
В конце ролика — детализированный портрет, полученный нами при помощи нейросетки. Обычно она не подводит. ОБЫЧНО!
В конце ролика — детализированный портрет, полученный нами при помощи нейросети. Обычно она не подводит.
Я хочу предупредить всех кто балуется этим видом восстановления лиц (в их примере результат работы приложения Remini), что эти «восстановления лиц» нельзя, на данном этапе развития технологий, применять для каких-то выводов или преследования кого-то, потому что они просто генерирую фейковые данные.
Нейронная сеть в приложении Reminu (GAN-алгоритм) обучена на сотнях тысячах лиц людей, все что она умеет, это «примерно дорисовывать лица» чтобы было реалистично и похоже, но гарантировать то, что кто-то невинный не пострадает от такого подхода — нельзя.
Все чаще слышно в последнее время про AI-этику и часто это что-то преувеличенное (вроде GPT2 моделей), но тут, конкретный случай — лицо сгенерированное нейронной сетью не может быть поводом чтобы кого-то задерживать, преследовать, таких преступников нужно ловить классическими способами.
Вот пример:
1) Фото примерно испорченное до состояние того, что у них на видео;
2) Восстановленная версия;
3) Реальная картинка.
Аккуратнее с алгоритмами, они все еще придумывают фейковые вещи.
ROYAL BANK CHANNEL 2020.