» » Обзор AI & ML решений в 2018 году и прогнозы на 2019 год: Часть 2 — Инструменты и библиотеки, AutoML, RL, этика в AI

 

Обзор AI & ML решений в 2018 году и прогнозы на 2019 год: Часть 2 — Инструменты и библиотеки, AutoML, RL, этика в AI

Автор: admin от 11-02-2019, 11:00, посмотрело: 17

[quote]Всем привет! Представляю вам перевод статьи Analytics Vidhya с обзором событий в области AI / ML в 2018 году и трендов 2019 года. Материал довольно большой, поэтому разделен на 2 части. Надеюсь, что статья заинтересует не только профильных специалистов, но и интересующихся темой AI. Приятного чтения!



[/quote]

Читать сначала: Часть 1 — NLP, Computer Vision

RapidMiner, KNIME, DataRobot и H2O.ai уже выпустили отличные продукты, демонстрирующие огромный потенциал этой услуги.



Можете ли вы представить себе работу над ML проектом, где вам нужно работать только с интерфейсом перетаскивания без кодирования? Это сценарий, который может стать реальным уже в ближайшем будущем. Кроме того, в ML / DL уже произошло знаменательное событие — релиз Auto Keras!



Auto Keras — это библиотека с открытым исходным кодом для выполнения задач AutoML. Идея заключается в том, чтобы сделать deep learning доступным для экспертов в предметной области, которые, возможно, не имеют опыта работы с ML. Можете познакомиться с продуктом здесь. В ближайшие годы он собирается совершить огромный прорыв.



TensorFlow.js – Deep Learning в браузере



С тех пор, как мы приступили к этой работе, мы строим и проектируем модели machine learning и deep learning в наших любимых IDE и ноутбуках. Как насчет того, чтобы сделать шаг и попробовать что-то другое? Да, я говорю о deep learning прямо в вашем веб-браузере!



Теперь это стало реальностью благодаря появлению TensorFlow.js. На сайте проекта есть несколько примеров, демонстрирующих, насколько крута эта концепция с открытым исходным кодом. В первую очередь, TensorFlow.js имеет три преимущества / особенности:




  • Вы можете разрабатывать и разворачивать модели ML с помощью javascript;

  • Запускать уже существующие модели TensorFlow в своем браузере;

  • Переучивать уже готовые модели.



Марио Михайлидис из H2O.ai, гроссмейстер Kaggle, расскажет о том, чего ожидать от AutoML в 2019 году:

[quote]Машинное обучение продолжает свой путь к тому, чтобы стать одной из самых важных тенденций будущего — того, куда движется мир. Эта экспансия увеличила спрос на приложения в этой области. Учитывая этот рост, крайне важно, чтобы автоматизация была ключом к максимально эффективному использованию ресурсов в сфере data science. Ведь области применения безграничны: кредитование, страхование, противодействию мошенничеству, компьютерное зрение, акустика, датчики, рекомендации, прогнозирование, NLP. Это большая честь работать в этой области. Список трендов, которые сохранят свою актуальность, выглядит так:




  • Предоставление визуализаций и инсайтов, помогающих описать и понять данные;

  • Поиск / построение / извлечение лучших функций для заданного набора данных;

  • Построение более мощных / более интеллектуальных прогностических моделей;

  • Сокращение разрыва между моделированием “черного ящика” и применением такой модели;

  • Облегчение производства этих моделей

  • [/quote] — источник Wikipedia[/quote]

    Если бы меня спросили, в какой области мне бы хотелось увидеть более быстрое развитие, ответом был был бы reinforcement learning. Не смотря на изредка появляющиеся заголовки, прорывов в этой области еще не было, а главное, создается ощущение, что для комьюнити задачи reinforcement learning пока слишком математически сложны и областей для реального применения таких приложений еще нет.



    В некоторой степени это верно, в следующем году мне бы хотелось увидеть больше практических примеров использования RL. Каждый месяц на GitHub и Reddit я стараюсь поддерживать хотя бы один репозиторий или дискуссию по RL, чтобы способствовать обсуждению этой темы. Вполне возможно, это следующая важная вещь, которая получится из всех этих исследований.



    OpenAI опубликовали действительно полезный тулкит для тех кто только знакомится с RL. Можете почитать введение в RL здесь (для меня он оказался очень полезным).



    Если я что-нибудь пропустил, буду рад вашим дополнениям.



    Развитие OpenAI в области Deep Reinforcement Learning



    Пока освоение RL идет медленно, количество учебного материала на эту тему остается минимальным (это мягко сказано). Не смотря на это, OpenAI поделились некоторым количеством отличного материала на эту тему. Они назвали свой проект “Spinning Up in Deep RL”, он доступен по этой ссылке.



    Проще говоря, это исчерпывающий список ресурсов по RL. Авторы постарались сделать код и объяснения максимально простыми. Там достаточно материалов, которые включают RL терминологию, советы по развитию в области исследований RL, списки важных материалов, отлично документированный код и репозитории, а также примеры задач, чтобы вам было с чего начать.



    Больше не нужно откладывать на потом, если вы планируете начать работать с RL, ваше время пришло!



    Dopamine от Google



    Чтобы дать толчок развитию и вовлечь комьюнити в тему reinforcement learning, команда Google AI представила для всех желающих Dopamine, TensorFlow фреймворк, призванный сделать проекты более гибкими и воспроизводимыми.



    В этом репозитории GitHub вы можете найти необходимую информацию для обучения вместе с кодом TensorFlow. Это пожалуй идеальная платформа, чтобы начать простые эксперименты в контролируемой и гибкой среде. Звучит как сон наяву для любого специалиста.

    curiosity-driven-exploration. Это неэффективно, и это возвращает нас к проблеме 1.





    Второе, такие глубинные архитектуры нейронных сетей известны своей склонностью к “заучиванию”, и в RL мы, как правило, тестируем агентов на датасетах для обучения, следовательно “заучивание” поощряется в этой парадигме.



    Возможный путь для развития на который я смотрю с энтузиазмом, это использование unsupervised representation learning для преобразования грязного многомерного пространства ввода (например, пиксели) в «концептуальное» пространство более низкого измерения, которое имеет определенные требуемые свойства, такие как: линейность, распутывание, устойчивость к шуму и другое.



    Как только вам удастся связать пиксели в некое подобие “латентного пространства”, обучение вдруг становится более простым и быстрым (проблема 1) и вы надеетесь, что правила, извлеченные из этого пространства, будут иметь более сильную генерализацию из-за свойств, упомянутых выше (проблема 2).



    Я не эксперт по проблеме Иерархии, но все вышеупомянутое также применимо и здесь: проще решить сложную иерархическую задачу в “скрытом пространстве”, чем в необработанном входном пространстве.[/quote]

    Пара спойлеров от переводчика







    Бонус: Посмотрите видео Ксандера о преодолении редких наград в Deep RL (первая задача, выделенная выше).





    [quote]Сложность модели продолжит улучшаться с добавлением все новых и новых вспомогательных обучающих заданий, которые увеличивают разреженность, нетипичные сигналы вознаграждения (такие вещи, как исследование, основанная на любопытстве предварительная подготовка в стиле автокодировщика, распутывание причинных факторов в окружающей среде и другое). Это работает особенно хорошо с очень редкими условиями вознаграждения.



    Из-за этого обучение систем непосредственно в физическом мире будут становиться все более и более осуществимым (вместо современных приложений, которые в основном обучаются в имитируемых средах, а затем используют domain randomization для переноса в реальный мир). Предполагаю, что 2019 год принесет первые действительно впечатляющие демонстрации в робототехнике, которые возможны только при использовании методов deep learning и не могут быть жестко запрограммированы / спроектированы человеком (в отличие от большинства примеров, которые мы видели до сих пор).



    Я считаю, что вслед за успехом Deep RL в истории AlphaGo (особенно учитывая недавние результаты AlphaFold), RL постепенно начнет применяться в реальных бизнес-приложениях, которые принесут практическую ценность за границами академического пространства, но сначала область применения будет ограничена приложениями, в которых имеются точные симуляции для масштабного виртуального обучения этих агентов (например, обнаружение лекарств, оптимизация архитектуры электронных чипов, маршрутизация транспортных средств и пакетов, и другие).



    Общий сдвиг в разработке RL — процесс, который уже начался, когда тестирование агента на обучающих данных больше не будет считаться «разрешенным». Обобщающие метрики станут ключевыми, как и в случае контролируемых методов обучения[/quote]

    Google’s AI Principles
  • Microsoft’s AI Principles



  • По сути, эти документы говорят о справедливости в ИИ, а также о том, когда и где провести черту. Сослаться на них, когда вы начинаете новый проект на основе AI, всегда хорошая идея.



    Как GDPR изменил правила игры



    GDPR (General Data Protection Regulation) определенно оказал влияние на способ сбора данных для создания AI приложений. GDPR появился в этой игре, чтобы обеспечить больший контроль пользователей над их данными (какая информация собирается и распространяется о них).



    Так как это повлияет на AI? Хорошо, если исследователи в области данных не получат данные или их будет недостаточно, построение любой модели не начнётся. Это, безусловно, положило начало тому, как работали социальные платформы и другие сайты. GDPR создал замечательный пример, “расставив все точки над i”, но ограничил полезность AI для многих платформ.



    Этические тренды в AI на 2019 год



    В этой области очень много серых пятен. Мы должны объединиться как общество, чтобы интегрировать этику в AI проекты. Как мы можем это сделать? Основатель и генеральный директор Analytics Vidhya Кунал Джейн подчеркнул в своем выступлении на DataHack Summit 2018, что нам нужно будет разработать концепцию, которой могут следовать другие.



    Я ожидаю увидеть новые роли в организациях, которые займутся этикой в AI. Лучшие корпоративные практики необходимо будет реструктурировать, а подходы к управлению должны быть пересмотрены, поскольку AI становится центральным элементом видения компании. Также я жду, что правительство сыграет более активную роль в этом отношении с принципиально новым или измененным политическим курсом. Действительно, 2019 год будет очень интересным.



    Заключение



    Impactful — единственное слово, которое кратко описывает удивительные события в 2018 году. Я стал активным пользователем ULMFiT в этом году, и я с нетерпением жду возможности поскорее изучить BERT. Действительно удивительное время.



    Буду рад узнать ваше мнение! Какие разработки вам показались наиболее полезными? Работаете ли вы над каким-либо проектом, используя инструменты и подходы, которые мы рассмотрели в этой статье? Каковы ваши прогнозы на предстоящий год? С нетерпением жду ваших ответов в комментариях ниже.

    Источник: Хабр / Интересные публикации

    Категория: Программирование, Microsoft, Google

    Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
    Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.

    Добавление комментария

    Имя:*
    E-Mail:
    Комментарий:
    Полужирный Наклонный текст Подчеркнутый текст Зачеркнутый текст | Выравнивание по левому краю По центру Выравнивание по правому краю | Вставка смайликов Выбор цвета | Скрытый текст Вставка цитаты Преобразовать выбранный текст из транслитерации в кириллицу Вставка спойлера
    Введите два слова, показанных на изображении: *