DictionaryForumContacts

Terms for subject Artificial intelligence containing Optimization | all forms | exact matches only
EnglishRussian
ant colony optimizationалгоритм муравьиной колонии (Alex_Odeychuk)
ant colony optimizationалгоритм оптимизации подражанием муравьиной колонии (Alex_Odeychuk)
autoencoder-based zeroth-order optimizationоптимизация нулевого порядка на основе автокодировщика (Alex_Odeychuk)
bacterial colony optimizationоптимизация подражанием бактериальной колонии (Alex_Odeychuk)
constraint optimizationоптимизация в ограничениях (Alex_Odeychuk)
control optimizationоптимизация управляющих воздействий (из кн.: Бровкова М.Б. Системы искусственного интеллекта в машиностроении Alex_Odeychuk)
distributed constraint optimizationраспределённая оптимизация в ограничениях (Alex_Odeychuk)
method for stochastic optimizationметод стохастической оптимизации (Alex_Odeychuk)
model optimizationоптимизация модели (thenewstack.io Alex_Odeychuk)
multi-objective optimization problemзадача многокритериальной оптимизации (Alex_Odeychuk)
plan optimization moduleмодуль оптимизации планов (интеллектуальных агентов Alex_Odeychuk)
quantum-inspired particle swarm optimizationоптимизация методом квантового роя частиц (Alex_Odeychuk)
stochastic gradient optimizationстохастическая градиентная оптимизация (Исследования показали, что гиперпараметризация, или реализация нейронных сетей с числом параметров, превышающим количество доступных точек обучающих данных, приносит значительные преимущества. Методы стохастической градиентной оптимизации предотвращают переобучение нейронных сетей благодаря регуляризующему эффекту, который достигается за счёт ранней остановки, которая позволяет нейронным сетям переходить в режим интерполяции, когда обучающие данные подходят почти точно, при этом сохраняя адекватные прогнозы по промежуточным точкам. Примером крупномасштабной сети с гиперпараметризацией является одна из передовых систем распознавания образов – NoisyStudent, которая имеет 480 млн параметров для 1,2 млн точек данных ImageNet. — Research indicates that hyperparameterization — implementing neural networks with more parameters than the available training data points — offers substantial advantages. Stochastic gradient optimization techniques counteract overlearning by leveraging the regularizing power of early stopping, switching neural networks into an interpolation mode, where they align closely with the training data, yet still produce reliable predictions for intermediate values. A prime example of this is the state-of-the-art image recognition system, NoisyStudent, which boasts 480 million parameters, fine-tuned using just 1.2 million ImageNet data points. Alex_Odeychuk)
zeroth-order optimizationоптимизация нулевого порядка (Alex_Odeychuk)

Get short URL