Из-за периодической блокировки нашего сайта РКН сервисами, просим воспользоваться резервным адресом:
Загрузить через ClipSaver.ruУ нас вы можете посмотреть бесплатно Local Function Calling with Llama3 using Ollama and Phidata или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Роботам не доступно скачивание файлов. Если вы считаете что это ошибочное сообщение - попробуйте зайти на сайт через браузер google chrome или mozilla firefox. Если сообщение не исчезает - напишите о проблеме в обратную связь. Спасибо.
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
In this video, we are going to test the phidata library and implement a system where a raw LLM uses Memory, Knowledge and Tools. We are going to implement a function Calling code using Llama 3 LLM and Ollama and Phidata. We are going to see how we can turn any LLM to an Assistant. Follow me for hands-on session and code-along. Try Phidata: https://www.phidata.com/#pricing Cookbook: https://github.com/phidatahq/phidata/... #phidata #function-calling #assistants #tools #memory #autogen #memgpt #crewai CHANNEL LINKS: 🕵️♀️ Join my Patreon: / promptengineer975 ☕ Buy me a coffee: https://ko-fi.com/promptengineer 📞 Get on a Call with me at $125 Calendly: https://calendly.com/prompt-engineer4... ❤️ Subscribe: / @promptengineer48 💀 GitHub Profile: https://github.com/PromptEngineer48 🔖 Twitter Profile: / prompt48 TIME STAMPS: 0:00 Intro 1:08 Argument 2:39 Documents 5:28 Github Code 6:02 Ollama installation 6:34 Coding 12:30 Running Streamlit app 18:18 Conclusion