• Google Scholar: ссылка

• GitHub: ссылка

• Веб-сайт: ссылка

• Резюме: ссылка

Александр Коротин возглавляет исследовательскую группу по Генеративному ИИ в Центре прикладного ИИ Сколтеха. Основным направлением его исследований является разработка масштабируемых и теоретически обоснованных методов построения генеративных моделей данных. Он исследует существующие и предлагает новые генеративные модели на основе теории оптимального транспорта и мостов Шрёдингера, что тесно связано с популярными моделями диффузии. Результаты исследований Александра регулярно публикуются на лучших конференциях и в журналах по машинному обучению и искусственному интеллекту. С 2020 года он представил 13 статей на конференциях A* (ICLR, NeurIPS) и опубликовал несколько статей в журналах Q1 (Neurocomputing, Pattern recognition) и других.


Исследования Александра Коротина были высоко оценены профессиональным сообществом, и ему дважды (в 2019 и 2021 годах) была присуждена Yandex ML Prize за передовые исследования в области машинного обучения и искусственного интеллекта. Три самые заметные работы Александра - "Wasserstein-2 Generative Networks" (ICLR 2021), "Neural Optimal Transport" (ICLR 2023 Spotlight, Top 25%), и "Entropic Neural Optimal Transport via Diffusion Processes" (NeurIPS 2023 Oral, Top 3%).


В 2018 году Александр закончил обучение в Высшей школе экономики, где изучал математику (бакалавриат) и затем информатику (магистратура). Параллельно он закончил Школу анализа данных "Яндекса". Еще студентом Александр активно участвовал в исследовательских стажировках в Yandex Research, IITP RAS, Сколтехе и Высшей школе экономики. В 2018 году он поступил в аспирантуру по информатике в Сколтехе под руководством профессора Евгения Бурнаева. В 2022 году успешно закончил аспирантуру и в 2023 году защитил диссертацию на тему "Параметрические методы вычисления оптимальных транспортных отображений, расстояний и барицентров" в ФИЦ ИУ РАН. Его текущие исследования являются логическим продолжением его диссертационных исследований.


В Сколтехе Александр руководит работой нескольких аспирантов и магистрантов (~10) в их исследованиях, связанных с генеративным моделированием и оптимальным транспортом. Под его руководством студенты занимаются фундаментальными исследованиями в области машинного обучения (разрабатывают новые методы генеративного моделирования и выводят теоретические гарантии для них) и применяют генеративные модели к реальным практическим задачам, включая перевод стиля изображений, увеличение разрешения, заполнение пропусков, перенос стиля голоса и другие.


Недавним прикладным проектом, осуществленным Александром и его группой в Центре прикладного ИИ, является разработка нейронных моделей для увеличения разрешения метеокарт (полученных с климатической модели) с использованием оптимального транспорта. Планируется использовать эти модели в качестве части систем прогнозирования лесных пожаров в России. Помимо исследований и руководства студентами, Александр активно участвует в образовательных мероприятиях, часто читает лекции и мини-курсы по генеративным моделям оптимального транспорта. Недавние доклады были проведены на Летней школе машинного обучения Сколтеха (SMILES-2023) и летних школах AIRI по искусственному интеллекту (2022, 2023).


Избранные публикации (полный список можно найти в резюме или профиле Google Scholar):

Статья [1] была принята в качестве устного доклада (топ-3%) на конференцию NeurIPS 2023.

Статья [2] получила статус Spotlight (топ-25%) на конференции ICLR 2023 и является единственной статьей из России, выделенной как Spotlight.


[1] Gushchin, N., Kolesov, A., Korotin, A., Vetrov, D., & Burnaev, E. (2023). Entropic neural optimal transport via diffusion processes. In Thirty-seventh Conference on Neural Information Processing Systems.

[2] Korotin, A., Selikhanovych, D., & Burnaev, E. (2023). Neural Optimal Transport. In The Eleventh International Conference on Learning Representations.

[3] Korotin, A., Egiazarian, V., Asadulaev, A., Safin, A., & Burnaev, E. (2021). Wasserstein-2 Generative Networks. In International Conference on Learning Representations.