DeepSchool LLM. Валентин Мамедов | Под Капотом

🎯 Загружено автоматически через бота: 🚫 Оригинал видео: 📺 Данное видео принадлежит каналу «DeepSchool» (@deep_school). Оно представлено в нашем сообществе исключительно в информационных, научных, образовательных или культурных целях. Наше сообщество не утверждает никаких прав на данное видео. Пожалуйста, поддержите автора, посетив его оригинальный канал. ✉️ Если у вас есть претензии к авторским правам на данное видео, пожалуйста, свяжитесь с нами по почте support@, и мы немедленно удалим его. 📃 Оригинальное описание: #largelanguagemodels #llm #deeplearning #career #nlp #ai Записывайтесь на курс по LLM: Мы приглашаем в подкаст экспертов из различных областей, чтобы понять, как работают сложные системы изнутри. В этом выпуске мы говорили с Валей Мамедовым, инженером из SberDevices, про LLM. Телеграм Вали: @vltnmmdv. Ещё мы упоминали: Канал Янника: Ollama: RWKV: Floating points visualized: @rreusser/half-precision-floating-point-visualized | Вступление | Как Валя попал в мир LLM | Переход от задач с небольшими требованиями к обучению гигантов | Разделение обязанностей в LLM-командах | Про ускорение | Flash Attention | Memory wall и «простаивающие» видеокарты | За счёт чего LLM можно запустить на макбуке, если для тренировки нужны датацентры. Этапы тренировки LLM | Чем процесс вывода в прод LLM отличается от «обычных» ML-процессов | Про датасеты. Берём все данные и закидываем или тщательно выверяем | Кризис данных | Качество vs количество данных | Насколько качественно решаются задачи и можно ли отправить модель в свободное плавание | Концептуальные для качества LLM | Как сделать, чтоб модель не советовала плохого | Open Source vs коммерческие модели | Почему ChatGPT так долго лучше всех | Облачные модели vs «карманные» | Чем пользуется Валя | Модель «под себя» vs модель, которая всё и сразу | Огромный контекст vs RAG | Как оценивать качество LLM. Бенчмарки | Трансформеры с нами навсегда или стоит ждать новых архитектур
Back to Top