February 24, 2017

Любопытный документ на arxivorg – нейронные сети постепенно решают множество задач анализа информации – видео, фото, аудио, просто кода, в общем вся информация вокруг нас будет рано или поздно проанализирована, каталогизирована и внесена в базы данных, что клево и удобно, и немного пугает.

Так вот, pdf документ по ссылке – это алгоритм (GNA-RNN) который преобразует человеческий текстовый запрос (NLP) вида: "Женщина одетая в длинное, яркое оранжевое платье с белым ремнем на её талии. Волосы её зажаты в пучок или хвостик" в реальные картинки на основе огромной выборки картинок.

Мне кажется Google image так и будет работать в будущем, и наконец-то можно будет увидеть своими глазами героев книг, целые сцены, достаточно будет просто копипастнуть описание.

Или для дизайнера – попросил устно Siri / Google now найти тебе "Мужчину в возрасте, с седыми волосами, в светлой одежде и видом будто он скрывает боль" и вот тебе png готовый и обтравленный для проекта. Или для выбора одежды – просишь что любишь, оно тебе корзину для примерки набивает, в общем вы поняли.

Но что-то мне подсказывает, что такое алгоритм не показал бы: "Девушка прошумела мимо меня, как ветвь, полная цветов и листьев".

В общем ждем исходный код ¯\_(ツ)_/¯

Ссылка:

arxiv.org/abs/1702.05729