Из-за периодической блокировки нашего сайта РКН сервисами, просим воспользоваться резервным адресом:
Загрузить через dTub.ru Загрузить через ClipSaver.ruУ нас вы можете посмотреть бесплатно I asked 10+ AI models the same questions in Notion (even some local LLMs) или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Роботам не доступно скачивание файлов. Если вы считаете что это ошибочное сообщение - попробуйте зайти на сайт через браузер google chrome или mozilla firefox. Если сообщение не исчезает - напишите о проблеме в обратную связь. Спасибо.
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
Watch as I showcase a unique Notion database setup that allows you to query multiple AI models simultaneously - both local and cloud-based - all within the familiar Notion interface. This isn't a coding tutorial, but rather a demonstration of what's possible with this powerful integration. In this video, you'll see: How a single question can be automatically routed to multiple AI models including GPT-4, Claude 3.5/3.7, Gemini, and local models like Llama 3.2 The interesting differences in how various models answer identical questions (sometimes with three different answers to the same question reordered!) A consensus feature that synthesizes responses across different models to find the most reliable answer How easily you can customize prompts and add new models to your comparison database I test various models with challenging questions that reveal their limitations - like counting the seventh letter in a sentence (which most models surprisingly fail at). This provides a fascinating glimpse into the current state of AI capabilities and inconsistencies. While I don't share the code implementation in this video, the demonstration offers valuable insights for AI enthusiasts, researchers, or anyone interested in comparative model performance. Let me know in the comments which aspect of this setup interests you most - whether it's multi-model consensus, spreadsheet-based AI workflows, or comparing local vs. cloud models!