1 В избранное 0 Ответвления 0

OSCHINA-MIRROR/zhang_an_ran-gan-papers

Присоединиться к Gitlife
Откройте для себя и примите участие в публичных проектах с открытым исходным кодом с участием более 10 миллионов разработчиков. Приватные репозитории также полностью бесплатны :)
Присоединиться бесплатно
Это зеркальный репозиторий, синхронизируется ежедневно с исходного репозитория.
В этом репозитории не указан файл с открытой лицензией (LICENSE). При использовании обратитесь к конкретному описанию проекта и его зависимостям в коде.
Клонировать/Скачать
Внести вклад в разработку кода
Синхронизировать код
Отмена
Подсказка: Поскольку Git не поддерживает пустые директории, создание директории приведёт к созданию пустого файла .keep.
Loading...
README.md

Awesome papers about Generative Adversarial Networks. Большинство работ связано с переводом изображений.

Вклад

We Need You!

Пожалуйста, помогите дополнить этот список, связавшись со мной [Me][zhang163220@gmail.com] или добавив pull request.

Содержание

Первая статья

:heavy_check_mark: [Генеративные состязательные сети]

Перевод изображений

:heavy_check_mark: [Неконтролируемый перевод изображений между доменами]

:heavy_check_mark: [Перевод «изображение в изображение» с использованием условных состязательных сетей]

:heavy_check_mark: [Изучение обнаружения связей между доменами с помощью генеративных состязательных сетей]

:heavy_check_mark: [Несопряжённый перевод «изображение в изображение» с помощью циклически согласованных состязательных сетей]

:heavy_check_mark: [CoGAN: Сопряжённые генеративные состязательные сети]

:heavy_check_mark: [Неконтролируемый перевод «изображение в изображение» с помощью генеративных состязательных сетей]

:heavy_check_mark: [DualGAN: Неконтролируемое двойное обучение для перевода «изображение в изображение»]

:heavy_check_mark: [Неконтролируемые сети для перевода «изображение в изображение»]

:heavy_check_mark: [Высококачественный синтез изображений и семантическое манипулирование с помощью условных GAN]

:heavy_check_mark: [XGAN: Неконтролируемый перевод «многие ко многим» для множества отображений]

:heavy_check_mark: [UNIT: Неконтролируемые сети перевода «изображение в изображение»]]

  • Toward Multimodal Image-to-Image Translation

Paper (https://arxiv.org/abs/1703.00848) Code (https://github.com/mingyuliutw/UNIT)(NIPS 2017)

Multimodal Unsupervised Image-to-Image Translation

Paper (https://arxiv.org/abs/1804.04732) Code (https://github.com/nvlabs/MUNIt)

Video-to-Video Synthesis

Paper (tcwang0509.github.io/vid2vid/) Code (https://github.com/NVIDIA/vid2vid)

Everybody Dance Now

Paper (https://arxiv.org/abs/1808.07371) Code (https://github.com/nyoki-mtl/pytorch-EverybodyDanceNow)

Art2Real: Unfolding the Reality of Artworks via Semantically-Aware Image-to-Image Translation

Paper (https://arxiv.org/abs/1811.10666)(CVPR 2019)

Multi-Channel Attention Selection GAN with Cascaded Semantic Guidance for Cross-View Image Translation

Paper (https://arxiv.org/abs/1904.06807) Code (https://github.com/Ha0Tang/SelectionGAN)(CVPR 2019 oral)

Local Class-Specific and Global Image-Level Generative Adversarial Networks for Semantic-Guided Scene Generation

Paper (https://arxiv.org/pdf/1912.12215.pdf) Code (https://github.com/Ha0Tang/LGGAN)(CVPR 2020)

StarGAN v2: Diverse Image Synthesis for Multiple Domains

Paper (https://arxiv.org/pdf/1912.01865.pdf) Code (https://github.com/clovaai/stargan-v2)(CVPR 2020)

Structural-analogy from a Single Image Pair

Paper (https://arxiv.org/pdf/2004.02222v1.pdf) Code (https://github.com/rmokady/structural-analogy)

High-Resolution Daytime Translation Without Domain Labels

Paper (https://arxiv.org/abs/2003.08791) Code (https://github.com/saic-mdal/HiDT)

Rethinking the Truly Unsupervised Image-to-Image Translation

Paper (https://arxiv.org/abs/2006.06500) Code (https://github.com/clovaai/tunit)

Diverse Image Generation via Self-Conditioned GANs

Paper (http://selfcondgan.csail.mit.edu/preprint.pdf) Code (https://github.com/stevliu/self-conditioned-gan)(CVPR2020)

Contrastive Learning for Unpaired Image-to-Image Translation

Paper (http://taesung.me/ContrastiveUnpairedTranslation/) Code (https://github.com/taesungp/contrastive-unpaired-translation)(ECCV2020)

Facial Attribute Manipulation

Autoencoding beyond pixels using a learned similarity metric

Paper (https://arxiv.org/abs/1512.09300) code (https://github.com/andersbll/autoencoding_beyond_pixels) Tensorflow code (https://github.com/zhangqianhui/vae-gan-tensorflow)(ICML 2016)

Coupled Generative Adversarial Networks

Paper (http://mingyuliu.net/) Caffe Code (https://github.com/mingyuliutw/CoGAN) Tensorflow Code (https://github.com/andrewliao11/CoGAN-tensorflow)(NIPS 2016)

Invertible Conditional GANs for image editing

Paper (https://drive.google.com/file/d/0B48XS5sLi1OlRkRIbkZWUmdoQmM/view) Code (https://github.com/Guim3/IcGAN)(Arxiv 2016)

Learning Residual Images for Face Attribute Manipulation

Paper (https://arxiv.org/abs/1612.05363) code (https://github.com/Zhongdao/FaceAttributeManipulation)(CVPR 2017)

Neural Photo Editing with Introspective Adversarial Networks

Paper (https://arxiv.org/abs/1609.07093) Code (https://github.com/ajbrock/Neural-Photo-Editor)(ICLR 2017)

Neural Face Editing with Intrinsic Image Disentangling

Paper (https://arxiv.org/abs/1704.04131)(CVPR 2017)

GeneGAN: Learning Object Transfiguration and Attribute Subspace from Unpaired Data

Paper (https://arxiv.org/abs/1705.04932) code (https://github.com/Prinsphield/GeneGAN)(BMVC 2017)

Beyond Face Rotation: Global and Local Perception GAN for Photorealistic and

В запросе представлен список статей и кодов, связанных с различными методами и подходами в области обработки изображений и машинного обучения. Однако без контекста сложно определить, о чём идёт речь в каждой из них.

Этот текст может быть полезен для специалистов в области компьютерного зрения и машинного обучения, которые интересуются последними достижениями и разработками в этой области. Генеративные модели

  • Сохранение идентичности при фронтальном синтезе вида.

Paper(ICCV 2017).

  • StarGAN: унифицированные генеративно-состязательные сети для многодоменного перевода изображений «изображение-изображение».

Paper, code(CVPR 2018).

  • Произвольное редактирование атрибутов лица: изменяйте только то, что хотите.

Paper, code(TIP 2019).

  • ELEGANT: обмен латентными кодировками с GAN для передачи нескольких лицевых атрибутов.

Paper, code(ECCV 2018).

  • Сгруппированные по группам многозадачные генеративно-состязательные сети для манипулирования лицевыми атрибутами.

Paper, code(ACM MM2018 oral).

  • GANimation: анатомически обоснованная анимация лица по одному изображению.

Paper, code(ECCV 2018 oral).

  • Геометрически управляемый состязательный синтез выражения лица.

Paper(ACM MM2018).

  • STGAN: объединённая сеть селективного переноса для произвольного редактирования атрибутов изображения.

Paper, code(CVPR 2019).

  • Точное управление лицом с помощью трёхмерных направляющих.

Paper(CVPR 2019).

  • SC-FEGAN: сеть редактирования лиц с использованием эскиза и цвета пользователя.

Paper, code(ICCV 2019).

  • Обзор глубокого анализа лицевых атрибутов.

Paper(IJCV 2019).

  • PA-GAN: прогрессивная сеть внимания с генеративным состязательным подходом для редактирования лицевых атрибутов.

Paper, code (Arxiv 2020).

  • SSCGAN: редактирование лицевых атрибутов с помощью соединений стиля пропуска.

Paper(ECCV 2020).

  • CAFE-GAN: произвольное редактирование лицевых атрибутов с дополнительным вниманием к особенностям.

Paper(ECCV 2020).

Генеративные модели

  • Неконтролируемое обучение представлению с глубокими свёрточными генеративно-состязательными сетями.

Paper, Code(Gan с свёрточными сетями)(ICLR 2015).

  • Глубокие генеративные модели изображений с использованием пирамиды состязательных сетей Лапласа.

Paper, Code(NIPS 2015).

  • Генеративный состязательный синтез текста в изображение.

Paper, Code, code.

  • Улучшенные методы обучения GAN.

Paper, Code(Goodfellow's paper).

  • Plug & Play Generative Networks: условное итеративное создание изображений в скрытом пространстве.

Paper, Code.

  • StackGAN: синтез фотореалистичных изображений из текста с использованием сложенных генеративно-состязательных сетей.

Paper, Code.

  • Улучшенное обучение Wasserstein GANs. Улучшение генеративно-состязательных сетей с помощью шумоподавления при сопоставлении признаков

Yoshua Bengio, ICLR 2017.

Выборка генеративных сетей

ICLR 2016.

Как обучать GAN

Авторы: Soumith Chintala, Tim Salimans, Ian Goodfellow и др.

На пути к обоснованным методам обучения генеративно-состязательным сетям

ICLR 2017.

Развёрнутые генеративно-состязательные сети

ICLR 2017.

Генеративно-состязательные сети на основе метода наименьших квадратов

Международная конференция по компьютерному зрению (ICCV) 2017.

GAN Вассерштейна

Martín Arjovsky, Soumith Chintala и другие.

Улучшенное обучение GAN Вассерштейна

Arun Mallya, Dillon Davis и другие.

Обоснование методов обучения генеративно-состязательным сетям

ICML 2017.

Обобщение и равновесие в генеративно-состязательных сетях

ICML 2017.

Сходимость GAN, обученных с использованием правила обновления с двумя временными масштабами, к локальному равновесию Нэша

ICML 2017.

Спектральная нормализация для генеративно-состязательных сетей

ICLR 2018.

Какие методы обучения GAN действительно сходятся?

ICML 2018.

Самоконтролируемые генеративно-состязательные сети

CVPR 2019.

Реставрация изображений

Семантическая реставрация изображений с потерями восприятия и контекста

CVPR 2017.

Кодировщики контекста: изучение признаков путём реставрации

Арсений А. Забруцкий и другие.

Полуконтролируемое обучение с контекстно-условными генеративно-состязательными сетями

ICLR 2016.

Генеративная реставрация лица

Yijun Mai и другие.

Глобально и локально согласованная реставрация изображений

SIGGRAPH 2017.

Реставрация изображений высокого разрешения с использованием многомасштабного синтеза нейронных патчей

CVPR 2017.

Восстановление глаз с помощью генеративно-состязательной сети с образцами

CVPR 2018.

Генеративная реставрация изображений с учётом контекста

Примечание: в запросе не удалось найти текст, поэтому ответ представляет собой перевод заголовка. Landmark Detection

:heavy_check_mark: Style aggregated network for facial landmark detection

  • Paper: «Style Aggregated Network for Facial Landmark Detection» (CVPR 2018).

Conditional Adversarial

:heavy_check_mark: Conditional Generative Adversarial Nets

  • Paper: «Conditional Generative Adversarial Nets» (arXiv, 2014).
  • Code: «zhangqianhui/Conditional-Gans».

:heavy_check_mark: InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets

  • Paper: «InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets» (arXiv, 2016).
  • Код: «buriburisuri/supervised_infogan», «openai/InfoGAN».

:heavy_check_mark: Conditional Image Synthesis With Auxiliary Classifier GANs

  • Paper: «Conditional Image Synthesis with Auxiliary Classifier GANs» (arXiv, 2016).
  • Code: «buriburisuri/ac-gan» (GoogleBrain ICLR 2017).

:heavy_check_mark: Pixel-Level Domain Transfer

  • Paper: «Pixel-level domain transfer» (arXiv, 2016).
  • Code: «fxia22/pldtgan».

:heavy_check_mark: Invertible Conditional GANs for image editing

  • Paper: «Invertible conditional GANs for image editing» (arXiv, 2016).
  • Code: «Guim3/IcGAN».

:heavy_check_mark: Plug & Play Generative Networks: Conditional Iterative Generation of Images in Latent Space

  • Paper: «Plug & play generative networks: Conditional iterative generation of images in latent space» (arXiv, 2016).
  • Code: «Evolving-AI-Lab/ppgn».

:heavy_check_mark: StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks

  • Paper: «StackGAN: Text to photo-realistic image synthesis with stacked generative adversarial networks» (arXiv, 2016).
  • Code: «hanzhanggit/StackGAN».

Video Prediction and Generation

:heavy_check_mark: Deep multi-scale video prediction beyond mean square error

  • Paper: «Deep multi-scale video prediction beyond mean square error» (arXiv, 2015).
  • Code: «dyelax/Adversarial_Video_Generation» (Yann LeCun's paper).

:heavy_check_mark: Generating Videos with Scene Dynamics

:heavy_check_mark: MoCoGAN: Decomposing Motion and Content for Video Generation

  • Paper: «MoCoGAN: Decomposing motion and content for video generation» (arXiv, 2017).

Shadow Detection and Removal

:heavy_check_mark: ARGAN: Attentive Recurrent Generative Adversarial Network for Shadow Detection and Removal

  • Paper: «ARGAN: Attentive recurrent generative adversarial network for shadow detection and removal» (ICCV 2019).
  • Code: «TAMU-VITA/ShapeMatchingGAN».

Makeup

:heavy_check_mark: BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network

  • Paper: «BeautyGAN: Instance-level facial makeup transfer with deep generative adversarial network» (ACMMM 2018).

Reinforcement learning

:heavy_check_mark: Connecting Generative Adversarial Networks and Actor-Critic Methods

  • Paper: «Connecting generative adversarial networks and actor-critic methods» (NIPS 2016 workshop).

RNN

:heavy_check_mark: C-RNN-GAN: Continuous recurrent neural networks with adversarial training

  • Paper: «C-RNN-GAN: Continuous recurrent neural networks with adversarial training» (arXiv, 2016).
  • Code: «olofmogren/c-rnn-gan».

:heavy_check_mark: SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient

  • Paper: «SeqGAN: sequence generative adversarial nets with policy gradient» (AAAI 2017).
  • Code: «LantaoYu/SeqGAN».

Медицина

:heavy_check_mark: Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery

  • Paper: «Unsupervised anomaly detection with generative adversarial networks to guide marker discovery» (arXiv, 2017).

3D

:heavy_check_mark: Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling

  • Paper: «Learning a probabilistic latent space of object shapes via 3D generative-adversarial modeling» (arXiv, 2016).
  • Web: «3dgan.csail.mit.edu».
  • Code: «zck119/3dgan-release» (2016 NIPS).

:heavy_check_mark: Transformation-Grounded Image Generation Network for Novel 3D View Synthesis

В запросе не удалось найти информацию о содержании текста. МУЗЫКА

:heavy_check_mark: [MidiNet: свёрточная генеративно-состязательная сеть для генерации музыки в символической области с использованием условий 1D и 2D]

Дискретные распределения

:heavy_check_mark: [Генеративно-состязательные сети с максимальным правдоподобием и расширенными дискретными распределениями]

:heavy_check_mark: [Состязательные генеративные сети, ищущие границы]

:heavy_check_mark: [GAN для последовательностей дискретных элементов с распределением Гумбеля-softmax]

Улучшение классификации и распознавания

:heavy_check_mark: [Generative OpenMax для многоклассовой открытой классификации]

:heavy_check_mark: [Управляемая инвариантность через состязательное изучение признаков]

:heavy_check_mark: [Неразмеченные образцы, сгенерированные GAN, улучшают базовый уровень повторной идентификации человека in vitro]

:heavy_check_mark: [Обучение на основе симулированных и неконтролируемых изображений посредством состязательного обучения]

:heavy_check_mark: [Синтетическое увеличение медицинских изображений на основе GAN для повышения производительности CNN при классификации поражений печени]

Проект

:heavy_check_mark: [cleverhans]

  • [Код](Библиотека для тестирования уязвимости к состязательным примерам)

:heavy_check_mark: [reset-cppn-gan-tensorflow]

  • [Код](Использование остаточных генеративно-состязательных сетей и методов вариационного автокодировщика для создания изображений высокого разрешения)

:heavy_check_mark: [HyperGAN]

  • [Код](Открытый исходный код GAN, ориентированный на масштаб и удобство использования)

Блоги

Автор Адрес
inFERENCe Состязательная сеть
inFERENCe InfoGan
distill Деконволюция и генерация изображений
yingzhenli Теория GAN
OpenAI Генеративная модель

Учебник

:heavy_check_mark: [1] http://www.iangoodfellow.com/slides/2016-12-04-NIPS.pdf (NIPS Goodfellow Slides)[Китайский перевод][детали]

:heavy_check_mark: [2] [PDF](NIPS Lecun Slides)

:heavy_check_mark: [3] [ICCV 2017 Tutorial About GANS]

:heavy_check_mark: [3] [Математическое введение в генеративно-состязательные сети (GAN)]

Комментарии ( 0 )

Вы можете оставить комментарий после Вход в систему

Введение

ГАН-Пейперс. Расширить Свернуть
Отмена

Обновления

Пока нет обновлений

Участники

все

Недавние действия

Загрузить больше
Больше нет результатов для загрузки
1
https://gitlife.ru/oschina-mirror/zhang_an_ran-gan-papers.git
git@gitlife.ru:oschina-mirror/zhang_an_ran-gan-papers.git
oschina-mirror
zhang_an_ran-gan-papers
zhang_an_ran-gan-papers
master