Всё, о чём мы говорили по поводу дарвиновской модели и искусственного отбора, справедливо и в отношении так наз. алгоритмов глубокого обучения (в частности, многоуровневых перцептронов и пр. заковык).
Там происходит ровно то же самое: без настройки (а настройку производит, в конечном счёте, интеллектуальный агент) на решение узко определённого типа задач эти алгоритмы по производительности ничем не отличаются от научного тыка случайного поиска.
Уверенность в том, что это справедливо и для любого другого алгоритма, проистекает из так наз. "теорем о бесплатном обеде": No Free Lunch Theorems.
Эти две теоремы (одна для машинного обучения, другая для поиска и оптимизационных задач), в принципе, говорят об одном: какого-то одного алгоритма, который бы оказался самым лучшим для всех случаев жизни, не существует. Самым первым, кто это осознал, был шотландец Дэвид Юм, задавшийся вопросом: приводит ли индуктивная логика, основанная на утверждениях лишь о предшествующих наблюдениях, к новому знанию или то, что мы получаем путём индукции, представляет собой лишь переформулировку уже известного по предыдущему опыту?
- Википедия, как обычно в отношении эволюционной тематики, пытается противоречить, утверждая, что теоремы NFL не применимы к сценарию коэволюции. Якобы в случае, когда всё параллельно эволюционирует, появляется возможность информационной "халявы". Это не так.
Из этой, в общем-то, очевидного утверждения об отсутствии "лёгкой жизни" следует, что настройка некоторого алгоритма с использованием источников информации, сторонних по отношению к нему, необходима, коль скоро мы хотим добиться производительности выше среднего по больнице.
Поэтому, как мне кажется, человеческий интеллект + машинный всегда будет доминировать над машинным интеллектом. Поэтому и всегда будет нужен человек-эксперт, обладающий конкретными знаниями в своей предметной области, позволяющими найти для решения конкретной задачи оптимальные значения параметров модели.
No comments:
Post a Comment