Лекции по машинном обучению (видео)
Две хорошие лекции по машинном обучению от Школы Анализа Данных Яндекса.
Первая — вводная о машинном обучении и науке анализа данных вообще.
Вторая — о нейронных сетях, которые относятся к числу самых гибких инструментов анализа данных и применяются для решения широкого спектра задач классификации.
Другие видеолекции курса «Машинное обучение»
Комментариев — 1
На мой взгляд, у 99% книжек по нейросетям есть одна проблема. Они всё описывают в терминах нейронов и соединений, как это было принято в 80-х. Хотя современная теория и практика от этого давно ушла. К людям пришло понимание, что нейросети — это по сути линейная регрессия на стеройдах. Классический перцептрон на современном языке — это просто (векторная) функция f(x) = sgn(Ax + b). Где матрица A и свободный вектор b оптимизируются так, чтобы эта функция наилучшим образом описывала «экспериментальные данные». И все любые сложные «глубокие» нейросети — просто обычные функции с параметрами, которые можно оптимизировать. Современный софт, типа Torch и TensorFlow, так и работает. В таком виде, без лишней эзотерики, нейросети внезапно становятся простыми и понятными, пресловутый backpropagation — просто умное название для правила дифференцирования составных функций из 9 класса, и т. д. Мечтаю когда-нибудь увидеть книгу о нейросетях с таким соврвеменным подходом. Пока видел только видеолекции от гугла. Само по себе удивительно: вся теория нейросетей уместилась в четыре часа, включая и CNN, и RNN. Не знаю, правда, можно ли это усвоить полностью с нуля. Но посмотреть точно стоит.