User Tools

Site Tools


dlcp:kryukov22:biblio:main

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
dlcp:kryukov22:biblio:main [24/11/2022 21:34] – [AutoEncoder-based Lossy Image Compression] demichevdlcp:kryukov22:biblio:main [10/03/2023 12:37] (current) – [(c/c)VAE] kryukov
Line 4: Line 4:
  
   * [[https://lilianweng.github.io/|Lil’Log]]. Мне показалось - интересные и полезные материалы по МО.   * [[https://lilianweng.github.io/|Lil’Log]]. Мне показалось - интересные и полезные материалы по МО.
 +  * {{ :dlcp:kryukov22:biblio:holler_diss-hillas.pdf |Holler, dissertation. H.E.S.S}}
 ===== Обзоры статей ===== ===== Обзоры статей =====
  
Line 45: Line 45:
   * [[https://towardsdatascience.com/understanding-conditional-variational-autoencoders-cd62b4f57bf8|Understanding Conditional Variational Autoencoders]]   * [[https://towardsdatascience.com/understanding-conditional-variational-autoencoders-cd62b4f57bf8|Understanding Conditional Variational Autoencoders]]
   * {{ :dlcp:kryukov22:biblio:1812.02833-disentagling_vae.pdf |Disentangling Disentanglement in Variational Autoencoders}}   * {{ :dlcp:kryukov22:biblio:1812.02833-disentagling_vae.pdf |Disentangling Disentanglement in Variational Autoencoders}}
 +  * {{ :dlcp:kryukov22:biblio:abcs2018_paper_58-conv_ae.pdf |Convolutional Autoencoders}}
 ===== Diffusion NN ===== ===== Diffusion NN =====
  
Line 79: Line 80:
   * [[https://arxiv.org/pdf/1703.00395|Theis, Lucas, Wenzhe Shi, Andrew Cunningham, and Ferenc Huszar. "Lossy image compression with compressive autoencoders." arXiv preprint arXiv:1703.00395 (2017)]]   * [[https://arxiv.org/pdf/1703.00395|Theis, Lucas, Wenzhe Shi, Andrew Cunningham, and Ferenc Huszar. "Lossy image compression with compressive autoencoders." arXiv preprint arXiv:1703.00395 (2017)]]
     * Показано, что  автоэнкодеры  могут удовлетворить потребность в более гибких алгоритмах сжатия, чем существующие кодеки. Однако их трудно оптимизировать напрямую из-за присущей им недифференцируемости функции потерь при сжатии. В работе показано, что минимальные изменения функции потерь достаточны для обучения глубоких автоэнкодеров, конкурирующих с JPEG 2000 и превосходящих недавно предложенные подходы, основанные на RNN.      * Показано, что  автоэнкодеры  могут удовлетворить потребность в более гибких алгоритмах сжатия, чем существующие кодеки. Однако их трудно оптимизировать напрямую из-за присущей им недифференцируемости функции потерь при сжатии. В работе показано, что минимальные изменения функции потерь достаточны для обучения глубоких автоэнкодеров, конкурирующих с JPEG 2000 и превосходящих недавно предложенные подходы, основанные на RNN. 
-    * Процитирована 874 раза.+    * Процитирована **874** раза.
   * [[https://openaccess.thecvf.com/content_ICCV_2019/papers/Choi_Variable_Rate_Deep_Image_Compression_With_a_Conditional_Autoencoder_ICCV_2019_paper.pdf|Choi, Yoojin, Mostafa El-Khamy, and Jungwon Lee. "Variable rate deep image compression with a conditional autoencoder." In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3146-3154. 2019]]   * [[https://openaccess.thecvf.com/content_ICCV_2019/papers/Choi_Variable_Rate_Deep_Image_Compression_With_a_Conditional_Autoencoder_ICCV_2019_paper.pdf|Choi, Yoojin, Mostafa El-Khamy, and Jungwon Lee. "Variable rate deep image compression with a conditional autoencoder." In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3146-3154. 2019]]
     * Предложен новый фреймворк, основанный на обучении, для кодирования изображений с переменным коэффициентом сжатия. Предыдущие методы сжатия изображений на основе обучения в основном требовали обучения отдельных сетей при разном коэффициенте сжатия, чтобы они могли давать сжатые изображения различного качества. В этой работе предложен метод развертывания только одной сети сжатия изображений с переменным коэффициентом, основанный на использовании условного автоэнкодера. Экспериментальные результаты показывают, что предложенная схема обеспечивает лучший компромисс между коэффициентом сжатия и искажениями, чем традиционные кодеки сжатия изображений с переменным коэффициентом, такие как JPEG2000 и BPG. Эта модель также демонстрирует сравнимую, а иногда и лучшую производительность, чем современные модели сжатия изображений, которые используют несколько сетей, обученных для различных коэффициентов.     * Предложен новый фреймворк, основанный на обучении, для кодирования изображений с переменным коэффициентом сжатия. Предыдущие методы сжатия изображений на основе обучения в основном требовали обучения отдельных сетей при разном коэффициенте сжатия, чтобы они могли давать сжатые изображения различного качества. В этой работе предложен метод развертывания только одной сети сжатия изображений с переменным коэффициентом, основанный на использовании условного автоэнкодера. Экспериментальные результаты показывают, что предложенная схема обеспечивает лучший компромисс между коэффициентом сжатия и искажениями, чем традиционные кодеки сжатия изображений с переменным коэффициентом, такие как JPEG2000 и BPG. Эта модель также демонстрирует сравнимую, а иногда и лучшую производительность, чем современные модели сжатия изображений, которые используют несколько сетей, обученных для различных коэффициентов.
Line 86: Line 87:
     * Научное моделирование  с помощью систем высокопроизводительных вычислений (HPC) может генерировать большие объемы данных с плавающей запятой за один прогон. Чтобы устранить узкое место в хранилище данных и уменьшить объем данных, обычно используются системы сжатия (компрессоры) с плавающей запятой. По сравнению с компрессорами без потерь, компрессоры с потерями могут более агрессивно сокращать объем данных, сохраняя при этом информативное качество данных. Однако уменьшение коэффициента сжатия  более чем на два порядка практически невозможно без серьезного искажения данных. В области медиаданных методы с использованием автоэнкодеров продемонстрировали большой потенциал для сжатия, в частности изображений и аудиофайлов. Сможет ли автоэнкодер обеспечить аналогичную производительность с научными данными — остается под вопросом. В работе впервые осуществлено исследование возможности использования автокодировщиков для сжатия **реальных научных данных**. Реализован прототип сжатия на основе автоэнкодера, причем исследование показывает, что для большинства тестовых наборов данных настроенный автоэнкодер существенно превосходит по степени сжатия известные компрессоры (SZ и ZFP), построенные на основе других принципов.      * Научное моделирование  с помощью систем высокопроизводительных вычислений (HPC) может генерировать большие объемы данных с плавающей запятой за один прогон. Чтобы устранить узкое место в хранилище данных и уменьшить объем данных, обычно используются системы сжатия (компрессоры) с плавающей запятой. По сравнению с компрессорами без потерь, компрессоры с потерями могут более агрессивно сокращать объем данных, сохраняя при этом информативное качество данных. Однако уменьшение коэффициента сжатия  более чем на два порядка практически невозможно без серьезного искажения данных. В области медиаданных методы с использованием автоэнкодеров продемонстрировали большой потенциал для сжатия, в частности изображений и аудиофайлов. Сможет ли автоэнкодер обеспечить аналогичную производительность с научными данными — остается под вопросом. В работе впервые осуществлено исследование возможности использования автокодировщиков для сжатия **реальных научных данных**. Реализован прототип сжатия на основе автоэнкодера, причем исследование показывает, что для большинства тестовых наборов данных настроенный автоэнкодер существенно превосходит по степени сжатия известные компрессоры (SZ и ZFP), построенные на основе других принципов. 
     * Процитирована 15 раз.     * Процитирована 15 раз.
 +  * [[https://ieeexplore.ieee.org/iel7/8019154/8025209/08025238.pdf?casa_token=3ghNslcyr_QAAAAA:iASOD2VTpPalM2kDeXIycMdvTucxi-UakVhfg_XInHksPahULRblMdR2pu7m6CNqlCE6-olw8ib5Bwo|Sento, Adna. "Image compression with auto-encoder algorithm using deep neural network (DNN)." In 2016 Management and Innovation Technology International Conference (MITicon), pp. MIT-99. IEEE, 2016]]
 +    * В  статье представлено подробное исследование для демонстрации алгоритма сжатия изображений с использованием глубокой нейронной сети (DNN). Предлагаемый алгоритм состоит из 1) сжатия изображения автокодировщиком и 2) декодирования изображения. Предлагаемый алгоритм сжатия изображения с автоматическим кодировщиком использует нерекуррентные трехслойные нейронные сети, которые используют расширенный фильтр Калмана (EKF) для обновления весов сетей. Для оценки производительности предложенного алгоритма используется программа Matlab для реализации общего алгоритма тестирования. Из результатов моделирования видно, что предложенный алгоритм сжатия изображения способен уменьшить размерность изображения и восстановить сжатое изображение с малыми потерями.
 +    * Процитирована 11 раз
 ===== Other ===== ===== Other =====
  
dlcp/kryukov22/biblio/main.1669314894.txt.gz · Last modified: 24/11/2022 21:34 by demichev