====== Seminar DLCP ====== ==== 20.10.2022, В.Ф.Еднерал ==== //ZOOM, 20/10/2022 at 15:00// **Об интегрируемости автономной системы ОДУ с зависящей от параметров полиномиальной правой частью** В докладе на экспериментальной основе рассматривается возможная связь между локальной интегрируемостью автономной двумерной системы ОДУ с полиномиальной правой частью и ее глобальной интегрируемостью по Дарбу. Для ряда случаев полиномиальных двумерных автономных динамических систем выписаны условия их локальной интегрируемости вблизи стационарных точек и найдены ограничения на параметры, при которых эти условия выполняются. Поскольку в большинстве подобных случаев удается выписать первый интеграл, выдвигается предположение, что для интегрируемости двумерной автономной полиномиальной системы ОДУ в некоторой области фазового пространства необходима ее локальная интегрируемость в каждой точке этой области. На основе этой гипотезы мы предлагаем эвристический метод, позволяющий определить случаи интегрируемости автономной системы ОДУ с зависящей от параметров полиномиальной правой частью при условии резонанса. Слайды: {{ archive:dlcp:seminars:dlcp-edneral-221020.pdf |}} ==== 27.01.2022, А.П.Демичев ==== //ZOOM, 27/01/2022 at 11:00// **Краткий обзор основных задач и методов переноса обучения нейронных сетей ** В настоящее время исследователи научились строить эффективные модели на основе нейросетей для решения большого спектра задач. Обучение таких моделей требует значительного объема размеченных тренировочных данных, поскольку большинство задач решается с использованием методов обучения с учителем. Если имеется некоторая исходная задача, то для ее решения необходимо собрать тренировочные данные и выполнить их разметку. Аналогичная процедура может быть выполнена для какой-то другой целевой задачи. Если же первая и вторая задачи каким-то образом связаны между собой, то может оказать возможным использовать обученную модель решения первой (исходной) задачи для решения второй (целевой). Это называется переносом обучения (transfer learning). Будет дано формальное определение цели переноса обучения, а также представлен краткий обзор основных вариантов, задач и методов этого подхода. ==== 18.11.2021, А.П.Крюков ==== //ZOOM, 18/11/2021 at 11:00// **A.Kryukov (SINP MSU), E.Gres (IGU) \\ Application of artificial neural networks for problems of gamma astronomy** Презентация: {{ archive:dlcp:seminars:dlcp-kryukov-211118.pdf |}} ==== 13.05.2021, С.А.Доленко ==== //ZOOM, 13/05/2021 at 11:00// **С.А.Доленко (НИИЯФ МГУ) \\ Применение методов машинного обучения для решения многопараметрических обратных задач** Обратные задачи (ОЗ) – один из широко известных типов задач обработки данных, возникающий при косвенных измерениях, когда возникает необходимость восстановления интересующих исследователя параметров объекта по измеренным в эксперименте наблюдаемым величинам. К сожалению, ОЗ часто характеризуются существенной нелинейностью, плохой обусловленностью или некорректностью, высокой размерностью как по входу, так и по выходу, высоким уровнем шумов в данных. Все эти факторы дополнительно осложняют решение. В этой ситуации эффективным подходом к решению ОЗ оказывается использование методов машинного обучения (МО) (искусственные нейронные сети; методы, основанные на деревьях решений; метод группового учёта аргументов; линейная регрессия в нелинейном базисе и другие). В работе рассматриваются два основных подхода к решению ОЗ методами МО – от модели и от эксперимента, а также промежуточный квазимодельный подход; обсуждаются области их применения, достоинства и недостатки. Рассматриваются также некоторые специальные приёмы, позволяющие эффективно бороться с негативными свойствами ОЗ – понижение размерности входных данных; групповое и поэтапное определение параметров; добавление шума к данным в процессе обучения; комплексирование физических методов, комплексирование методов МО и комплексирование данных. Рассмотрение ведется на примере ОЗ из области оптической спектроскопии и из области разведочной геофизики. Предметом обсуждения является методика аппроксимационного решения ОЗ с помощью методов МО, с учётом специфики данных из конкретных предметных областей. Презентация: {{ archive:dlcp:dlcp-dolenko-210513.pdf |}} \\ Видео: {{ archive:dlcp:dlcp-210513-dolenko.mkv |}} ==== 08.04.2021, Л.Дудко ==== //ZOOM, 08.04.2021 at 11:00 MSK// **Л.Дудко (НИИЯФ МГУ) \\ Нейронные сети. Применение нейронных сетей в анализе данных коллайдерных экспериментов**. В докладе будут представлены идеи лежащие в основе методов нейронных сетей, и основные принципы применения нейронных сетей в анализе данных жестких процессов рассеяния на современных коллайдерах. Будет проведено краткое сравнение различных типов нейронных сетей и других методов машинного обучения. Презентация: {{ archive:dlcp:dlcp-dudko-210408.pdf |dlcp-dudko-210408}} ==== 04.03.2021, А.Демичев ==== //ZOOM, 04/03/2021 at 11:00 MSK// **А.Демичев (НИИЯФ МГУ) \\ Эквивариантность конволютивных нейросетей относительно групп преобразований входных данных** Будет обсуждаться связь архитектуры сверточных сетей и эквивариантности (симметрии) в нейронных сетях в отношении не только трансляций, но и действия любой компактной группы. Основной результат указанных работ - доказательство того, что (при некоторых естественных ограничениях) сверточная структура является не только достаточным, но и необходимым условием эквивариантности действия компактной группы. Используются концепции теории представлений и некоммутативного гармонического анализа, а также обобщение формулы свертки на групповые многообразия и фактор-пространства. Общая теория будет проиллюстрирована на примере сферической симметрии. При этом особенностью архитектуры, которая будет рассмотрена, является то, что она использует преобразование Клебша-Гордана в качестве единственного источника нелинейности в нейросети, что позволяет избежать повторных прямых и обратных преобразований Фурье. //По литературным источникам; в основном - изложение работ:// - R. Kondor, et al. "On the generalization of equivariance and convolution in neural networks to the action of compact groups", 2018. ArXiv: 1802.03690 - R. Kondor, et al. "Clebsch–Gordan nets: a fully Fourier space spherical convolutional neural network", 2018, ArXiv: 1806.09231 Презентация: {{ archive:dlcp:demichev-210304-cnn-symm_pres.pdf}} ====== About seminar ====== ^^**Глубокое обучение в вычислительной физике**^**Deep Learning in Computational Physics**|| ||Семинар посвящен методам интеллектуального анализа данных, глубокого обучения и родственным темам и их применению в физике. Особое внимание уделяется применению этих методов в физике частиц. Заслушиваются доклады как по оригинальным результатам, полученными авторами, так и обзорные доклады.|The seminar focuses on data mining techniques, deep learning and related topics and their applications in physics. Particular attention is paid to the application of these methods in particle physics. Talks on the original results obtained by the authors and reviews are heard.|| ||//Рабочий язык: Русский, Английский//|//Working languages: Russian, English//|| Место проведения: ЛКФВЭ НИИЯФ МГУ, к.222-1 \\ /**Дата: второй четверг месяца. Время: 11:00-13:00 \\ **/ Руководитель семинара: к.ф.-м.н. А.Крюков ([[kryukov@theory.sinp.msu.ru]]) \\ Ссылку на ZOOM рассылается участникам семинара. Подать доклад на семинар или зарегистрироваться можно по ссылке: **[[application|Заявка]]**.