Курс: Математика Машинного обучения Урок 2 Инвариантность

🔥 mweO6x5UIXJjMTJi - мой авторский телеграм канал, где собрана вся база по ИИ и машинному обучению, разбор кода и лучшие уроки для вас, подписывайтесь! 🔥 - для всех кто любит машинное обучение я собрал крутую папку с самыми полезными ресурсами для изучения - colab с кодом и совсееми ссылками из урока Инвариантность является основой теории обобщающей способности алгоритмов машинного обучения (ТОСАМО). Первоначально проблема отсутствия инвариантности в слабом искусственном интеллекта была сформулирована первым исследователем в области ИИ и основателем первой лаборатории искусственного интеллекта Марвином Минским. Если алгоритмы слабого ИИ искали некую гиперплоскость, с помощью которой пытались решить задачу классификации, отделив с её помощью классы друг от друга с целью найти их различия, то инвариантность предполагает совершенно иной подход к решению тех же самых задач: не отделять классы друг от друга, а с помощью инварианта объединить их в один класс с целью найти общие признаки. В этом и заключается основная суть теории обобщающей способности алгоритмов машинного обучения: не искать различия (что разъединяет), а обобщать, т. е. искать то, что является общим. В таком случае, всё, что не является общим, к задаче классификации никоим образом не относится и может быть проигнорировано. #математика, #машинноеобучение, #алгоритмы, #статистика, #линейнаяалгебра, #регрессия, #классификация, #нейронныесети, #оптимизация, #градиентныйспуск, #вероятностныемодели, #поископтимума, #логистическаярегрессия, #методнаименьшихквадратов, #машинноеобучениесучителем, #кластеризация, #пнижениеразмерности, #глубокоеобучение, #функцииактивации, #деревьярешений, #методглавныхкомпонент, #SVM, #байесовскиесети, #обучениесбезучителя, #анализданных, #регуляризация, #градиентныйбустинг, #случайныйлес, #машинноеобучениедляданных
Back to Top