Из-за периодической блокировки нашего сайта РКН сервисами, просим воспользоваться резервным адресом:
Загрузить через dTub.ru Загрузить через ycliper.com Загрузить через ClipSaver.ruУ нас вы можете посмотреть бесплатно Большие языковые модели. Как ими пользоваться? // Курс «Machine Learning. Professional» или скачать в максимальном доступном качестве, которое было загружено на ютуб. Для скачивания выберите вариант из формы ниже:
Роботам не доступно скачивание файлов. Если вы считаете что это ошибочное сообщение - попробуйте зайти на сайт через браузер google chrome или mozilla firefox. Если сообщение не исчезает - напишите о проблеме в обратную связь. Спасибо.
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса savevideohd.ru
Обсудим что такое большая языковая модель, какие есть предобученные модели. Поработаем с API ChatGPT, запустим предобученную RuGPT3. Посмотрим примеры работы с подходами Zero-shot, Few-shot. Обсудим, как можно дообучать LLM на небольших видеокартах с помощью LORA модификаторов. Кому подходит этот урок: IT-специалистам, которые хотят внедрить ChatGPT в бизнес-процессы Тем кто хочет познакомиться с LLM моделями в экосистеме HuggingFace Тем кто хочет понять, как можно адаптировать большие предобученные модели к собственным задачам Результаты урока: Вы узнаете как работать с API ChatGPT, запускать собственную LLM, представленную на HuggingFace, работать с LORA модификаторами моделей. «Machine Learning. Professional» - https://otus.pw/NsSB/ Преподаватель: Александр Брут-Бруляко - Ds инженер в СБЕР Neurolab Пройдите опрос по итогам мероприятия - https://otus.pw/JrT0/ Следите за новостями проекта: Telegram: https://t.me/Otusjava ВКонтакте: https://otus.pw/850t LinkedIn: https://otus.pw/yQwQ/ Хабр: https://otus.pw/S0nM/ Эпизоды: 00:00 - Начало записи 01:28 - Знакомство с преподавателем и Otus 04:52 - О чем будет открытый урок (Open AI, Hugging face, Lora модификатор) 06:16 - Токенизация в больших языковых моделях 10:10 - Трансформеры построенные на механизмах внимания 13:00 - Архитектура трансформеров (енкодер, декодер) 15:55 - Эмбеддинг для разных языков 21:15 - Как обучать? Как предсказывать следующий токен по предыдущему токену (loss-функция) 25:52 - Зоопарк LLM 36:18 - Как работает ChatGPT на примерах 47:16 - Как наложить корпоративную базу знаний поверх ChatGPT 53:41 - Что есть в OpenSource ( Hugging face) 1:17:06 - Что такое fine tuning 1:17:58 - Коротко о карьерных перспективах