December 28th, 2017

moose, transparent

бедные улитки

Читаю интернет-журнал "Мир науки", узнаю много нового о науке.

"В достаточно убедительных экспериментах в Крымской Астрофизической обсерватории Н.А. Козырев с сотрудниками показал, что Время не распространяется, а появляется сразу во всей Вселенной. О мгновенном переносе информации во Вселенной свидетельствует факт, приведенный в [3], когда французский исследователь Бекуа экспериментировал с улитками. Ученый взял пятьдесят улиток, разбил их по парам и пары изолировал друг от друга. Через какое-то время, пометив раковины каждой пары одинаковой буквой, исследователь отправил в Америку по одной улитке от каждой пары. Затем в определенное время парижскую улитку подвергали воздействию электрического тока и получили совершенно ошеломляющие результаты. В тот момент , когда «парижанка» получала удар током, ее пара, находящаяся в Америке, тоже реагировала на этот удар, несмотря на такое огромное расстояние, что явно указывает на неизвестный, как-то связанный с электромагнитной природой эффект."


Решил разобраться, что там было с улитками - оказалось, что не Бекуа, а Бенуа, в 1851 году, была такая история. Всего через семь лет проложили первый трансатлантический телеграфный кабель. Если бы не это, может, еще долго над бедными улитками издевались бы французские оккультисты.
moose, transparent

глубинное обучение

Вопрос к специалистам в deep learning (это про программирование):

Я хотел бы на следующей неделе начать курс серьезного изучения DL, желательно какой-нибудь MOOC или другой курс, где есть четкое разделение на лекции, хорошие домашние задания итд. - чтобы структурировать процесс. Хотелось бы что-то, что не просто показывает, как пользоваться существующим фреймворком, а дает теоретическое понимание происходящего, но вместе с тем учит реально пользоваться тоже. Посмотрев на рекомендуемые сейчас материалы, я колеблюсь между следующими:

1. Новый курс Andrew Ng "Deep Learning" на Coursera в пяти частях (не путать с его же классическим курсом Machine Learning). Как раз 1 января начинается новый поток. Кажется, он существует с лета.

2. Станфордский курс Андрея Карпати cs231n. У него выложены видео всех лекций, слайды, задания итд. и можно попробовать самому проучиться сквозь него. Выглядит более фокусированным на распознавании образов и конволюционных сетях, но другие темы вроде бы тоже обсуждаются подробно.

Буду рад советам по поводу этих курсов и какой из них лучше выбрать, или ссылки на другие ресурсы, если вы их очень рекомендуете. У меня есть знакомство с ML и основными методами (из старого курса того же Andrew Ng), но реального опыта работы нет. Спасибо!

P.S. Для тех, кто ищет курс, дающий хорошее практическое введение: отмечу, что мнгоие хвалят, и наверное заслуженно, курс fast.ai ("Practical Deep Learning for Coders"). Мне бы хотелось понять теорию тоже, пусть и не на самом глубоком уровне, но серьезно, поэтому он мне не очень подходит).