Генерация дипфейка происходит в реальном времени. Пользователь делает снимок человека в одежде, после чего нейросеть анализирует кадр и составляет промпт для генерации обнажённого снимка. Кадры на выходе отличаются от оригинала, но очень близки к нему. Человека на снимках можно точно идентифицировать.
Авторы проекта отмечают, что не будут выпускать устройство на рынок. С помощью Nuca они хотят привлечь внимание общества к проблеме генеративных моделей. Несмотря на то, что нейросети помогают в работе и забирают на себя часть рутины, их можно использовать для создания дипфейков. За короткое время можно создать фото или видео, которое разрушит карьеру человека, а восстановление репутации займёт многие месяцы.
Результаты работы Nuca в формате «до/после» доступны на
сайте проекта.