Публикации по теме 'neural-networks'


Самооценка нейронных сетей
Я изобрел новый тип слоя для нейронных сетей и надеюсь на отзывы о нем. Новый уровень дает сети возможность оценивать надежность своих собственных функций. Это позволяет ему изменять вес каждой функции в зависимости от проблемы. Проблема Когда обычная нейронная сеть решает проблему регрессии, она предоставляет только исходный результат. Он не дает оценки того, насколько он уверен в правильности этого вывода. Это проблема, если сеть не знает, каким должен быть результат. Он не..

Типы обучения в нейронных сетях
Когда система нейронной сети обучается, она создает внутреннюю модель выборочных данных. Эти модели представлены в терминах векторов структурных весов. Алгоритмы обучения определяют зависящую от архитектуры процедуру кодирования информации в веса для создания внутренних моделей. Это обучение происходит путем непрерывного изменения силы связи (синаптических весов). Система обучается тремя способами. Контролируемое обучение : Мы знаем, что для любой сети с набором дискретных..

Временные ряды + нейронные сети: избегайте этого!
Итак, я занимаюсь этим уже довольно давно, экспериментируя с наборами данных временных рядов и нейронными сетями, и хотел бы поделиться здесь некоторыми мыслями, которые, надеюсь, могут оказаться полезными для других, чтобы избежать некоторых ненужных ошибок. Мы знаем, что нейронные сети могут страдать от явления, называемого ковариатным сдвигом. Для тех, кто не в курсе, очень коротко, это изменение распределения выходных активаций при изменении параметров сети. То, что мы хотели бы..

В целях классификации : каждое дерево в лесу дает вероятность для каждого класса, а…
В целях классификации: каждое дерево в лесу дает вероятность для каждого класса, и вероятности усредняются по деревьям, а класс с наибольшей вероятностью прогнозируется как метка класса.

Простое обучение с подкреплением с помощью Tensorflow: часть 3 - RL на основе модели
Прошло некоторое время с момента моей последней публикации в этой серии, где я показал, как разработать агент усиления градиента политики, который мог бы решить задачу CartPole. В этом руководстве я хотел бы еще раз изучить проблему CartPole, но на этот раз представить концепцию модели среды, которую агент может использовать для повышения своей производительности. (Если вы еще не читали их, вот ссылки на первое и второе руководства из этой серии. Каждое руководство основано на..

Градиентный спуск, обратная опора и производные
Я получаю много вопросов от людей о градиентном спуске и обратном распространении - вот мое упрощенное объяснение этих концепций, чтобы дать вам некоторое представление о том, как обучаются нейронные сети! При обучении нейронных сетей мы используем градиентный спуск, чтобы снизить общее количество ошибок , которые делает наша сеть. Градиентный спуск - это алгоритм спуска с холма. Высота холма соответствует «общему количеству ошибок / ошибок», предсказанному нашей сетью. Мы..

Преодоление разрыва: интеграция пластичности Хебба в глубокое обучение с помощью уровней Марра…
Об этом сообщили Кит Мюррей и Мэтью Макманус. Изучение нейронных цепей привело к значительному прогрессу в нашем понимании процессов обучения и памяти в мозге. Вдохновленные этими выводами, исследователи глубокого обучения стремятся разработать энергоэффективные искусственные нейронные сети (ИНС), которые имитируют основные механизмы нейронных цепей и соперничают по вычислительной мощности с мозгом. Как новая область машинного обучения, глубокое обучение оказалось чрезвычайно успешным в..