Awesome papers about Generative Adversarial Networks. Большинство работ связано с переводом изображений.
Пожалуйста, помогите дополнить этот список, связавшись со мной [Me][zhang163220@gmail.com] или добавив pull request.
[Генеративные состязательные сети]
[Неконтролируемый перевод изображений между доменами]
[Перевод «изображение в изображение» с использованием условных состязательных сетей]
[Изучение обнаружения связей между доменами с помощью генеративных состязательных сетей]
[Несопряжённый перевод «изображение в изображение» с помощью циклически согласованных состязательных сетей]
[CoGAN: Сопряжённые генеративные состязательные сети]
[Неконтролируемый перевод «изображение в изображение» с помощью генеративных состязательных сетей]
[DualGAN: Неконтролируемое двойное обучение для перевода «изображение в изображение»]
[Неконтролируемые сети для перевода «изображение в изображение»]
[Высококачественный синтез изображений и семантическое манипулирование с помощью условных GAN]
[XGAN: Неконтролируемый перевод «многие ко многим» для множества отображений]
[UNIT: Неконтролируемые сети перевода «изображение в изображение»]]
Paper (https://arxiv.org/abs/1703.00848) Code (https://github.com/mingyuliutw/UNIT)(NIPS 2017)
Multimodal Unsupervised Image-to-Image Translation
Paper (https://arxiv.org/abs/1804.04732) Code (https://github.com/nvlabs/MUNIt)
Video-to-Video Synthesis
Paper (tcwang0509.github.io/vid2vid/) Code (https://github.com/NVIDIA/vid2vid)
Everybody Dance Now
Paper (https://arxiv.org/abs/1808.07371) Code (https://github.com/nyoki-mtl/pytorch-EverybodyDanceNow)
Art2Real: Unfolding the Reality of Artworks via Semantically-Aware Image-to-Image Translation
Paper (https://arxiv.org/abs/1811.10666)(CVPR 2019)
Multi-Channel Attention Selection GAN with Cascaded Semantic Guidance for Cross-View Image Translation
Paper (https://arxiv.org/abs/1904.06807) Code (https://github.com/Ha0Tang/SelectionGAN)(CVPR 2019 oral)
Local Class-Specific and Global Image-Level Generative Adversarial Networks for Semantic-Guided Scene Generation
Paper (https://arxiv.org/pdf/1912.12215.pdf) Code (https://github.com/Ha0Tang/LGGAN)(CVPR 2020)
StarGAN v2: Diverse Image Synthesis for Multiple Domains
Paper (https://arxiv.org/pdf/1912.01865.pdf) Code (https://github.com/clovaai/stargan-v2)(CVPR 2020)
Structural-analogy from a Single Image Pair
Paper (https://arxiv.org/pdf/2004.02222v1.pdf) Code (https://github.com/rmokady/structural-analogy)
High-Resolution Daytime Translation Without Domain Labels
Paper (https://arxiv.org/abs/2003.08791) Code (https://github.com/saic-mdal/HiDT)
Rethinking the Truly Unsupervised Image-to-Image Translation
Paper (https://arxiv.org/abs/2006.06500) Code (https://github.com/clovaai/tunit)
Diverse Image Generation via Self-Conditioned GANs
Paper (http://selfcondgan.csail.mit.edu/preprint.pdf) Code (https://github.com/stevliu/self-conditioned-gan)(CVPR2020)
Contrastive Learning for Unpaired Image-to-Image Translation
Paper (http://taesung.me/ContrastiveUnpairedTranslation/) Code (https://github.com/taesungp/contrastive-unpaired-translation)(ECCV2020)
Autoencoding beyond pixels using a learned similarity metric
Paper (https://arxiv.org/abs/1512.09300) code (https://github.com/andersbll/autoencoding_beyond_pixels) Tensorflow code (https://github.com/zhangqianhui/vae-gan-tensorflow)(ICML 2016)
Coupled Generative Adversarial Networks
Paper (http://mingyuliu.net/) Caffe Code (https://github.com/mingyuliutw/CoGAN) Tensorflow Code (https://github.com/andrewliao11/CoGAN-tensorflow)(NIPS 2016)
Invertible Conditional GANs for image editing
Paper (https://drive.google.com/file/d/0B48XS5sLi1OlRkRIbkZWUmdoQmM/view) Code (https://github.com/Guim3/IcGAN)(Arxiv 2016)
Learning Residual Images for Face Attribute Manipulation
Paper (https://arxiv.org/abs/1612.05363) code (https://github.com/Zhongdao/FaceAttributeManipulation)(CVPR 2017)
Neural Photo Editing with Introspective Adversarial Networks
Paper (https://arxiv.org/abs/1609.07093) Code (https://github.com/ajbrock/Neural-Photo-Editor)(ICLR 2017)
Neural Face Editing with Intrinsic Image Disentangling
Paper (https://arxiv.org/abs/1704.04131)(CVPR 2017)
GeneGAN: Learning Object Transfiguration and Attribute Subspace from Unpaired Data
Paper (https://arxiv.org/abs/1705.04932) code (https://github.com/Prinsphield/GeneGAN)(BMVC 2017)
Beyond Face Rotation: Global and Local Perception GAN for Photorealistic and
В запросе представлен список статей и кодов, связанных с различными методами и подходами в области обработки изображений и машинного обучения. Однако без контекста сложно определить, о чём идёт речь в каждой из них.
Этот текст может быть полезен для специалистов в области компьютерного зрения и машинного обучения, которые интересуются последними достижениями и разработками в этой области. Генеративные модели
Paper(ICCV 2017).
Paper(ACM MM2018).
Paper(CVPR 2019).
Paper(IJCV 2019).
Paper(ECCV 2020).
Paper(ECCV 2020).
Генеративные модели
Paper, Code(Gan с свёрточными сетями)(ICLR 2015).
Paper, Code(Goodfellow's paper).
Yoshua Bengio, ICLR 2017.
Выборка генеративных сетей
ICLR 2016.
Как обучать GAN
Авторы: Soumith Chintala, Tim Salimans, Ian Goodfellow и др.
На пути к обоснованным методам обучения генеративно-состязательным сетям
ICLR 2017.
Развёрнутые генеративно-состязательные сети
ICLR 2017.
Генеративно-состязательные сети на основе метода наименьших квадратов
Международная конференция по компьютерному зрению (ICCV) 2017.
GAN Вассерштейна
Martín Arjovsky, Soumith Chintala и другие.
Улучшенное обучение GAN Вассерштейна
Arun Mallya, Dillon Davis и другие.
Обоснование методов обучения генеративно-состязательным сетям
ICML 2017.
Обобщение и равновесие в генеративно-состязательных сетях
ICML 2017.
Сходимость GAN, обученных с использованием правила обновления с двумя временными масштабами, к локальному равновесию Нэша
ICML 2017.
Спектральная нормализация для генеративно-состязательных сетей
ICLR 2018.
Какие методы обучения GAN действительно сходятся?
ICML 2018.
Самоконтролируемые генеративно-состязательные сети
CVPR 2019.
Семантическая реставрация изображений с потерями восприятия и контекста
CVPR 2017.
Кодировщики контекста: изучение признаков путём реставрации
Арсений А. Забруцкий и другие.
Полуконтролируемое обучение с контекстно-условными генеративно-состязательными сетями
ICLR 2016.
Генеративная реставрация лица
Yijun Mai и другие.
Глобально и локально согласованная реставрация изображений
SIGGRAPH 2017.
Реставрация изображений высокого разрешения с использованием многомасштабного синтеза нейронных патчей
CVPR 2017.
Восстановление глаз с помощью генеративно-состязательной сети с образцами
CVPR 2018.
Генеративная реставрация изображений с учётом контекста
—
Примечание: в запросе не удалось найти текст, поэтому ответ представляет собой перевод заголовка. Landmark Detection
Style aggregated network for facial landmark detection
Conditional Adversarial
Conditional Generative Adversarial Nets
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
Conditional Image Synthesis With Auxiliary Classifier GANs
Pixel-Level Domain Transfer
Invertible Conditional GANs for image editing
Plug & Play Generative Networks: Conditional Iterative Generation of Images in Latent Space
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks
Video Prediction and Generation
Deep multi-scale video prediction beyond mean square error
Generating Videos with Scene Dynamics
MoCoGAN: Decomposing Motion and Content for Video Generation
Shadow Detection and Removal
ARGAN: Attentive Recurrent Generative Adversarial Network for Shadow Detection and Removal
Makeup
BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network
Reinforcement learning
Connecting Generative Adversarial Networks and Actor-Critic Methods
RNN
C-RNN-GAN: Continuous recurrent neural networks with adversarial training
SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient
Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery
3D
Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling
Transformation-Grounded Image Generation Network for Novel 3D View Synthesis
В запросе не удалось найти информацию о содержании текста. МУЗЫКА
[MidiNet: свёрточная генеративно-состязательная сеть для генерации музыки в символической области с использованием условий 1D и 2D]
Дискретные распределения
[Генеративно-состязательные сети с максимальным правдоподобием и расширенными дискретными распределениями]
[Состязательные генеративные сети, ищущие границы]
[GAN для последовательностей дискретных элементов с распределением Гумбеля-softmax]
Улучшение классификации и распознавания
[Generative OpenMax для многоклассовой открытой классификации]
[Управляемая инвариантность через состязательное изучение признаков]
[Неразмеченные образцы, сгенерированные GAN, улучшают базовый уровень повторной идентификации человека in vitro]
[Обучение на основе симулированных и неконтролируемых изображений посредством состязательного обучения]
[Синтетическое увеличение медицинских изображений на основе GAN для повышения производительности CNN при классификации поражений печени]
[cleverhans]
[reset-cppn-gan-tensorflow]
[HyperGAN]
Автор | Адрес |
---|---|
inFERENCe | Состязательная сеть |
inFERENCe | InfoGan |
distill | Деконволюция и генерация изображений |
yingzhenli | Теория GAN |
OpenAI | Генеративная модель |
[1] http://www.iangoodfellow.com/slides/2016-12-04-NIPS.pdf (NIPS Goodfellow Slides)[Китайский перевод][детали]
[2] [PDF](NIPS Lecun Slides)
[3] [ICCV 2017 Tutorial About GANS]
[3] [Математическое введение в генеративно-состязательные сети (GAN)]
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Комментарии ( 0 )