Из-за периодической блокировки нашего сайта РКН сервисами, просим воспользоваться резервным адресом:
Загрузить через dTub.ru Загрузить через ClipSaver.ruУ нас вы можете посмотреть бесплатно Running inference with TensorFlow models using the i.mx 8M Plus NPU или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Роботам не доступно скачивание файлов. Если вы считаете что это ошибочное сообщение - попробуйте зайти на сайт через браузер google chrome или mozilla firefox. Если сообщение не исчезает - напишите о проблеме в обратную связь. Спасибо.
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
Here we talk about: How to quantize a model to run it on an AI accelerator / NPU. We also talk about what quantization is, and why we need quantization. We compare the Gyrfalcon to the i.mx 8M Plus. And we question how many TOPs we actually need. Is training on the edge possible? And what about FPGAs? For the Hardware check out this link: https://www.phytec.de/produkte/develo... My Medium landing page can be found here: / janwerth Our companies main page: phytec.de Workshops: https://www.phytec.de/unternehmen/sch... https://www.phytec.de/unternehmen/kal... #nxp #embeddedsystems #artificialintelligence #embeddedsystemtutorial #edgecomputing #machinelearning #machinelearningtutorial #phytec