Из-за периодической блокировки нашего сайта РКН сервисами, просим воспользоваться резервным адресом:
Загрузить через dTub.ru Загрузить через ClipSaver.ruУ нас вы можете посмотреть бесплатно Towards Guaranteed Safe AI: A Framework to Ensure Robust and Reliable AI Systems или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Роботам не доступно скачивание файлов. Если вы считаете что это ошибочное сообщение - попробуйте зайти на сайт через браузер google chrome или mozilla firefox. Если сообщение не исчезает - напишите о проблеме в обратную связь. Спасибо.
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
In this video, a researcher from Oxford University, Joar Skalse, proposes a framework that anticipates different stages of AI systems' development. The framework introduces world models, safety specifications, and verification methods for testing the safety of AI systems. It includes suggestions from prominent AI researchers and scientists, including Yoshua Bengio and Max Tegmark. The biggest argument during the @BuzzRobot talk was around the notion of the 'world model' and whether it's even possible to 'model' the world. Timestamps: 0:00 Introduction to AI safety issues 8:26 Designing "world models" for testing AI systems 15:28 Elaborating on safety specifications of AI systems 20:37 Verification methods for AI systems' safety 23:01 Q&A Social Links: Newsletter: https://buzzrobot.substack.com/ X: https://x.com/sopharicks Slack: https://join.slack.com/t/buzzrobot/sh...