User Tools

Site Tools


archive:dlcp:kryukov22:biblio:main

Литература

Общие вопросы

Обзоры статей

Astro&HEP

  • EuCAPT. EuCAPT White Paper Opportunities and Challenges for Theoretical Astroparticle Physics in the Next Decade. ArXiv: 2110.10074
  • T. Miener and et.al. IACT event analysis with the MAGIC telescopes using deep convolutional neural networks with CTLearn. ArXiv: 2112.01821
  • Atul Kumar and et.al. SinhaSUPA: A Lightweight Diagnostic Simulator for Machine Learning in Particle Physics. ArXiv: 2202.05012
  • The ATLAS Collaboration. Deep generative models for fast shower simulation in ATLAS. ATLAS-SOFT-PUB-2018-001
  • E. A. Huerta and et.al. Enabling real-​time multi-​messenger astrophysics discoveries with deep learning. https://doi.org/10.1038/s42254-019-0097-4, PDF
  • Songshaptak De and etc. Deep learning techniques for Imaging Air Cherenkov Telescopes, https://arxiv.org/pdf/2206.05296

(c)GAN

(c/c)VAE

Diffusion NN

Symmetry

  • Taco S. Cohen, Maurice Weiler, Berkay Kicanaoglu, Max Welling. Gauge Equivariant Convolutional Networks and the Icosahedral CNN. ArXiv: 1902.04615
  • Marc Finzi, Samuel Stanton, Pavel Izmailov, Andrew Gordon Wilson. Generalizing Convolutional Neural Networks for Equivariance to Lie Groups on Arbitrary Continuous Data. ArXiv: 2002.12880
  • Krish Desai. SymmetryGAN: Symmetry Discovery with Deep Learning. ArXiv: 2112.05722
  • Taco S. Cohen and et.al. SPHERICAL CNNs. PDF, ArXiv: 1801.10130

Transfer Learning

AutoEncoder-based Lossy Image Compression

    • В статье представлена архитектура системы, построенной на основе сверточного автоэнкодера (CAE), предназначенной для сжатия изображений с потерями, которая обладает высокой эффективностью кодирования. В дополнение к CAE используется метод главных компонент (principal component analysis (PCA)) для поворота карт признаков, созданных CAE и квантование. Экспериментальные результаты показывают, что этот метод превосходит традиционные алгоритмы кодирования изображений, достигая снижения BD-rate на 13,7% для изображений из базы данных Kodak по сравнению с JPEG2000. BD Rate (Bjontegaard delta rate) позволяет измерять снижение битрейта, обеспечиваемое кодеком, при сохранении того же качества, которое измеряется объективными показателями.
    • Процитирована 145 раз.
    • Показано, что автоэнкодеры могут удовлетворить потребность в более гибких алгоритмах сжатия, чем существующие кодеки. Однако их трудно оптимизировать напрямую из-за присущей им недифференцируемости функции потерь при сжатии. В работе показано, что минимальные изменения функции потерь достаточны для обучения глубоких автоэнкодеров, конкурирующих с JPEG 2000 и превосходящих недавно предложенные подходы, основанные на RNN.
    • Процитирована 874 раза.
    • Предложен новый фреймворк, основанный на обучении, для кодирования изображений с переменным коэффициентом сжатия. Предыдущие методы сжатия изображений на основе обучения в основном требовали обучения отдельных сетей при разном коэффициенте сжатия, чтобы они могли давать сжатые изображения различного качества. В этой работе предложен метод развертывания только одной сети сжатия изображений с переменным коэффициентом, основанный на использовании условного автоэнкодера. Экспериментальные результаты показывают, что предложенная схема обеспечивает лучший компромисс между коэффициентом сжатия и искажениями, чем традиционные кодеки сжатия изображений с переменным коэффициентом, такие как JPEG2000 и BPG. Эта модель также демонстрирует сравнимую, а иногда и лучшую производительность, чем современные модели сжатия изображений, которые используют несколько сетей, обученных для различных коэффициентов.
    • Процитирована 130 раз.
    • Научное моделирование с помощью систем высокопроизводительных вычислений (HPC) может генерировать большие объемы данных с плавающей запятой за один прогон. Чтобы устранить узкое место в хранилище данных и уменьшить объем данных, обычно используются системы сжатия (компрессоры) с плавающей запятой. По сравнению с компрессорами без потерь, компрессоры с потерями могут более агрессивно сокращать объем данных, сохраняя при этом информативное качество данных. Однако уменьшение коэффициента сжатия более чем на два порядка практически невозможно без серьезного искажения данных. В области медиаданных методы с использованием автоэнкодеров продемонстрировали большой потенциал для сжатия, в частности изображений и аудиофайлов. Сможет ли автоэнкодер обеспечить аналогичную производительность с научными данными — остается под вопросом. В работе впервые осуществлено исследование возможности использования автокодировщиков для сжатия реальных научных данных. Реализован прототип сжатия на основе автоэнкодера, причем исследование показывает, что для большинства тестовых наборов данных настроенный автоэнкодер существенно превосходит по степени сжатия известные компрессоры (SZ и ZFP), построенные на основе других принципов.
    • Процитирована 15 раз.
    • В статье представлено подробное исследование для демонстрации алгоритма сжатия изображений с использованием глубокой нейронной сети (DNN). Предлагаемый алгоритм состоит из 1) сжатия изображения автокодировщиком и 2) декодирования изображения. Предлагаемый алгоритм сжатия изображения с автоматическим кодировщиком использует нерекуррентные трехслойные нейронные сети, которые используют расширенный фильтр Калмана (EKF) для обновления весов сетей. Для оценки производительности предложенного алгоритма используется программа Matlab для реализации общего алгоритма тестирования. Из результатов моделирования видно, что предложенный алгоритм сжатия изображения способен уменьшить размерность изображения и восстановить сжатое изображение с малыми потерями.
    • Процитирована 11 раз

Other

archive/dlcp/kryukov22/biblio/main.txt · Last modified: 05/07/2024 22:19 by admin