Машинное обучение прошло через несколько волн своего внедрения. С годами доступность данных увеличилась в геометрической прогрессии. В то же время мощность компьютеров увеличилась в соответствии с законом Мура, создав множество возможностей для машинного обучения.

Машинное обучение претерпевает быструю эволюцию от базового машинного обучения (жесткие методы, которые изначально пришли из статистики) к продвинутому машинному обучению, глубокому машинному обучению и всему комплексу алгоритмов в искусственном интеллекте, охватывающих не только обучение, но и представление проблем, сложные состояния. космические модели, рассуждения, восприятие, мысли, эмоции и все, вплоть до доказательства теорем, решения проблем, поиска и сложных задач, таких как планирование. Каждый шаг в правильном направлении сделал общие алгоритмы машинного обучения одним из самых обсуждаемых явлений не только среди ученых машинного обучения, но и среди практиков, а также среди обычных людей.

Я хотел бы подробно остановиться на некоторых мифах о машинном обучении.

  1. ML может научиться чему угодно

Хотя в значительной степени это так, но не в том смысле, что люди пытаются использовать их в качестве черных ящиков, чтобы бросать их на большой набор разнообразных проблемных ситуаций или вариантов использования в бизнесе. В следующие 20 лет или около того, действительно, сегодня ANI (искусственный узкий интеллект) переходит в AGI (искусственный общий интеллект) к ASI (искусственный сверхинтеллект). Настоящий ASI превзойдет все человеческие возможности и тогда можно смело сказать, что ML может научиться чему угодно. Одно только это утверждение пройдет свою собственную дарвиновскую эволюцию.

2. ML просто кривая!

Действительно, некоторые из основных алгоритмов машинного обучения начинались с подгонки кривой и минимизации базовой ошибки. В современных алгоритмах машинного обучения (не только самых современных, но даже базовых) используется множество сложных методов, что делает их довольно сложными. У них есть множество параметров, которые сами могут «обучаться» в зависимости от новых данных, информации и ситуаций, с которыми они сталкиваются. Обучение и обучение с подкреплением (неконтролируемое) делает алгоритм действительно интеллектуальным с точки зрения естественного интеллекта человека и компьютера (способность обрабатывать большие объемы данных и делать из них выводы).

3. ML так же умен, как и программист, который их пишет, сам по себе ML не имеет интеллекта!

Это было верно для алгоритмов и методов GOFAI. Эти алгоритмы GOFAI были специально созданы, жестко запрограммированы и во многих случаях не менялись. Неявным в их функционировании было предположение, что данные будут поступать в определенном заранее определенном формате, если они поступают таким образом, что прогнозы будут точными.

Современные обучающиеся алгоритмы имеют встроенные «Мыслительные леса», подобные человеческим, где они будут работать лучше каждый раз, когда на них сваливается новая ситуация. Они почти как «естественный отбор», предложенный Чарльзом Дарвином в «Происхождении видов», глава 4. Алгоритмы машинного обучения нового века действительно способны обучаться на нескольких уровнях, начиная с некоторых запрограммированных правил и заканчивая четко определенными действиями стимул-реакция. Они также идут классическим попперовским путем «посмотри, прежде чем прыгнуть», что означает, что у них есть своя собственная модель внешней среды, они проводят обширную «генерацию и тестирование» в широком диапазоне сценариев, а затем переходят в реальную жизнь, чтобы придумать. с летающими цветами.

4. ML требует большого объема данных!

Это утверждение верно в некоторых случаях использования ML в бизнесе, но для ML как общей области изучения и практики это неверно. Врожденная способность некоторых алгоритмов, таких как Deep-Q Learning, Temporal Difference Learning и Actor Critic Model for Reinforcement Learning, требует минимального количества данных для начала. Каждая пара «действие-ответ» переводит внутреннюю модель агента на новый уровень и улучшает внутреннюю «мыслящую» машину.

5. ML требует точных данных и, как и компьютеры, они слишком GIGO (Garbage in-Garbage Out)!

Точность данных — известный набор проблем в машинном обучении. ML имеет возможность уточнять, очищать и получать данные, которые минимальны для алгоритмов обучения с подкреплением. Большая часть алгоритмов разработана таким образом, что независимо от точности данных они по-прежнему будут работать достаточно хорошо, принимая во внимание нечисловые сигналы, такие как естественный язык и другую информацию из окружающей среды, не связанную с данными.