Из-за периодической блокировки нашего сайта РКН сервисами, просим воспользоваться резервным адресом:
Загрузить через dTub.ru Загрузить через ClipSaver.ruУ нас вы можете посмотреть бесплатно Multilayer Perceptron или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Роботам не доступно скачивание файлов. Если вы считаете что это ошибочное сообщение - попробуйте зайти на сайт через браузер google chrome или mozilla firefox. Если сообщение не исчезает - напишите о проблеме в обратную связь. Спасибо.
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
A neural network model (3-layer perceptron) is learning z = f(x,y) with a teacher. The value of z is expressed by the color displayed in the left square region. The white curve in the right region is the training error. The black one is the prediction error. The goal is that the left area of the sinusoidal boundary is red and the right area is blue. User can set learning examples by using mouse indicated by the white circle in the left region. The learning algorithm is what is called the back propagation. The hidden layer is composed of 30 neurons. One can find the typical phenomena called the over fitting that means the training error becomes sufficiently small in spite of that the prediction error is relatively large. I coded this 10 years ago, using Processing, the Java based IDE. I thought that the topic of neural network models is classic or obsolete. However, I found the "return of the neuro", recently. Is the deep learning really great? I have to catch up with the new topic. Corresponding website: http://www.openprocessing.org/sketch/... (hidden layer: 20 neurons)