Публикации по теме 'deep-learning'


WordPiece: алгоритм токенизации на основе подслов
Понимание алгоритма токенизации на основе подслов, используемого в современных моделях НЛП - WordPiece За последние несколько лет появилось много шума в области ИИ и особенно НЛП. 😎 Понимание и анализ человеческого языка - это не только сложная задача, но и увлекательная. Человеческий язык выглядит простым, но очень сложным, поскольку даже короткий текст может содержать ссылки как на личную жизнь, так и на внешний мир. 🧐 Эта сложность приносит много проблем. Исследователи во всем..

Идти в ногу с GAN
Путеводитель по ключевым документам GAN для занятых ботаников. вступление Не волнуйтесь, когда вас засыпают таким количеством статей о генерирующих состязательных сетях (GAN). По правде говоря, чтение небольшого фрагмента уже может дать вам хорошее представление о предметной области (если вы не хотите углубляться). Здесь я выбрал ключевые статьи GAN на основе количества цитирований в Google Scholar. Я также составил список хорошо написанных статей о GAN, которые вы увидите в конце..

Временные ряды + нейронные сети: избегайте этого!
Итак, я занимаюсь этим уже довольно давно, экспериментируя с наборами данных временных рядов и нейронными сетями, и хотел бы поделиться здесь некоторыми мыслями, которые, надеюсь, могут оказаться полезными для других, чтобы избежать некоторых ненужных ошибок. Мы знаем, что нейронные сети могут страдать от явления, называемого ковариатным сдвигом. Для тех, кто не в курсе, очень коротко, это изменение распределения выходных активаций при изменении параметров сети. То, что мы хотели бы..

Как работает фотодезинтеграция, часть 2 (Астрономия)
Первое измерение переноса поляризации Cnx' при фотораспаде дейтрона (arXiv) Автор : М. Башканов , Д. П. Уоттс , С. Джей Ди Кей , С. Абт , П. Ахенбах , П. Адларсон , Ф. Афзал , З. Ахмед , С. С. Аконди , Дж. Р.М.Аннан , Х. Дж. Арендс , Р. Бек , М. Бирот , Н. Борисов , А. Брагьери , В. Дж. Бриско , Ф. Чивидини , К. Колликотт , С. Костанца , А. Дениг , Э. Дж. Дауни , П. Дрекслер , С. Феган , А. Исправить , С. Гарднер и др. (еще 44 автора не..

Как работает стохастический градиентный спуск, часть 1 (машинное обучение)
Примечание о пределах диффузии для стохастического градиентного спуска ( arXiv) Автор: Альберто Ланконелли , Кристофер С. А. Лаурия Аннотация: В литературе по машинному обучению стохастический градиентный спуск недавно широко обсуждался из-за его предполагаемых свойств неявной регуляризации. Большая часть теории, которая пытается прояснить роль шума в алгоритмах стохастического градиента, широко аппроксимирует стохастический градиентный спуск стохастическим..

Как работает концепция нечеткого вывода, часть 2
От видимого к невидимому: когда система нечеткого вывода предсказывает метки позиционирования устройств IoT, которые не появлялись на этапе обучения (arXiv) Автор: Хань Сюй , Чжэмин Цзо , Цзе Ли , Виктор Чанг . Аннотация. Находясь в основе искусственного интеллекта (ИИ), машинного обучения (МО) и, в частности, глубокого обучения (ГО), они добились больших успехов за последние два десятилетия. Однако предсказание невидимых меток классов изучено гораздо меньше из-за того, что..

В целях классификации : каждое дерево в лесу дает вероятность для каждого класса, а…
В целях классификации: каждое дерево в лесу дает вероятность для каждого класса, и вероятности усредняются по деревьям, а класс с наибольшей вероятностью прогнозируется как метка класса.