Из-за периодической блокировки нашего сайта РКН сервисами, просим воспользоваться резервным адресом:
Загрузить через dTub.ru Загрузить через ClipSaver.ruУ нас вы можете посмотреть бесплатно Taming AI Hallucinations? или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Роботам не доступно скачивание файлов. Если вы считаете что это ошибочное сообщение - попробуйте зайти на сайт через браузер google chrome или mozilla firefox. Если сообщение не исчезает - напишите о проблеме в обратную связь. Спасибо.
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
Dive deep into the fascinating world of AI hallucinations with Matt Williams, a founding maintainer of the Ollama project. This video explores the perplexing phenomenon of AI models confidently producing incorrect information, examining its causes and potential solutions. Key points covered: What are AI hallucinations and why do they occur? The limitations of simple prompt-based solutions How AI models generate responses and their lack of true "knowledge" The impact of training data on hallucinations Strategies to mitigate hallucinations, including RAG and fine-tuning The future of AI and the ongoing challenge of eliminating hallucinations Whether you're an AI enthusiast or just curious about the technology shaping our world, this video offers valuable insights into the complexities of large language models and their outputs. Join Matt as he demystifies AI hallucinations and discusses the importance of critical thinking when working with AI-generated content. My Links 🔗 👉🏻 Subscribe (free): / technovangelist 👉🏻 Join and Support: / @technovangelist 👉🏻 Newsletter: https://technovangelist.substack.com/... 👉🏻 Twitter: / technovangelist 👉🏻 Discord: / discord 👉🏻 Patreon: / technovangelist 👉🏻 Instagram: / technovangelist 👉🏻 Threads: https://www.threads.net/@technovangel... 👉🏻 LinkedIn: / technovangelist 👉🏻 All Source Code: https://github.com/technovangelist/vi... Want to sponsor this channel? Let me know what your plans are here: https://www.technovangelist.com/sponsor 00:00 - Introduction 00:30 - A common strategy 00:53 - What does the model know 01:27 - Getting started with Ollama 01:48 - what are they 02:02 - A classic example 02:40 - Always verify 02:53 - Alternate facts? 04:16 - Why 05:41 - One thought at solving it 06:29 - A safer approach 07:25 - Is it getting better? 08:03 - Will they go away?