Вход
|
Russian
|
Соглашение пользователя
Словари
Форум
Купить
Скачать
Контакты
Английский
⇄
Русский
+
G
o
o
g
l
e
|
Forvo
|
+
Adam optimizer
This HTML5 player is not supported by your browser
ударения
ИИ.
алгоритм оптимизации "Адам"
(an algorithm for first-order gradient-based optimization of stochastic objective functions, based on adaptive estimates of lower-order moments, intended to train artificial neural networks
arxiv.org
Alex_Odeychuk
)
Добавить
|
Сообщить об ошибке
|
Короткая ссылка