March 18th, 2019

moose, transparent

странная вибрация



На этом видео, на отметках 1:00 и 1:09, у певицы Пелагеи очень странно, ярко выраженно, дрожат губы или даже вся челюсть, как раз когда она поет конец строки вибрато (слова "благодать" и "не видать"). Не могу понять, что это: сознательный певческий прием какой-то? - но как такое вообще делать, и делают ли так другие певцы/певицы? Или это нервный тик какой-то странный, или последствия пластики или еще что?
moose, transparent

синонимы

Обратил внимание на разницу между "интересный" и "любопытный" в моем понимании. Скажем, "интересная статья" и "любопытная статья" для меня это похожие, но разные вещи. "Интересный" означает: привлекает внимание, удовлетворяет тягу к новым сведениям или мыслям. "Любопытный" подразумевает то же самое, но означает еще и нечто большее: что там будет что-то неожиданное, какая-то изюминка. Интересный текст можно прочитать с ровным интересом и узнать что-то новое для себя; при чтении любопытного текста в голове случится какое-то "гм...", какое-то осознание чего-то или внутренний диалог.

Словарь Ожегова не поддерживает эту мою интуицию, у него эти слова - почти чистое сепульки-сепулькарий-сепуление по Лему:

ИНТЕРЕСНЫЙ: возбуждающий интерес, занимательный, любопытный
ЛЮБОПЫТНЫЙ: интересный, занятный
ЗАНИМАТЕЛЬНЫЙ: способный занять внимание, воображение, интересный
ЗАНЯТНЫЙ: занимательный, любопытный, забавный
ЗАБАВНЫЙ: доставляющий забаву, служащий забавой; интересный
ЗАБАВА: развлечение, игра

Может, это у меня такое идиосинкратическое, не знаю.
moose, transparent

горький урок

Ричард Саттон, известный исследователь в области искусственного интеллекта, опубликовал очень краткое эссе "Горький урок" - The Bitter Lesson, заслуживающее внимательного прочтения.

Саттон пишет о том, что на протяжении всей истории ИИ люди снова и снова пытались строить системы, стремящиеся моделировать, хотя бы частично, как думает человек - и снова и снова эти системы проигрывали тем, которые просто брутально стремились делать "тупой перебор" - естественно, не совсем тупой, но и не сложно-человеческий. Самый яркий пример этого - шахматные программы, где до победы Deep Blue над Каспаровым в 1996-м году большинство специалистов были уверены, что надо учить компьютер принципам тактики и стратегии, или хотя бы накопленному шахматистами опыту оценки позиции - а в итоге победил подход - бросить на перебор как можно больше ресурсов, и ограничиться эвристиками того, когда останавливать перебор, не пытаясь научить программу думать над шахматами "по-человечески". Но, пишет Саттон, и в последние годы, в эпоху успешного рывка вперед нейронных сетей, попытки совместить эти сети с "человекоподобными" моделями неизменно проигрывают системам, которые стремятся более эффективно перемолоть как можно больше данных на мельнице как можно более интенсивной тренировки сети.

Надо отметить, что эссе Саттона полемизирует с другим мнением, которое иногда высказывается - что не следует ожидать от современных нейронных сетей "человекоподобного" эффективного обучения из-за фундаментальных ограничений этого подхода, и именно что следует совмещать их с моделями более "человеческого" мышления, хоть и не так наивно, как в прошлом. Об этом, например, статья Building Machines That Learn and Think Like People, которая меня очень впечатлила пару лет назад и о которой я несколько раз писал.

У меня нет достаточно опыта и экспертизы, чтобы иметь твердое мнение на эту тему, но мне кажется, что краткое и энергичное послание Саттона, пусть я и вижу способы его критиковать, несет в себе убедительный аргумент, требующий серьезного размышления. Мне не нравится думать, что Саттон может быть прав, но не могу отрицать, что история ИИ скорее на его стороне (об отдельных примерах можно спорить).