Эта статья написана [Передовая линия ИИ] Оригинал, исходная ссылка:t.cn/RTHRSQq
Руководство по передовой ИИ:«За последние несколько лет архитектуры и алгоритмы глубокого обучения (ГО) добились впечатляющих успехов в распознавании изображений и обработке естественного языка (НЛП), науке о данных, машинном обучении и прогнозной аналитике.
Хотя его применение в области обработки естественного языка (NLP) изначально было относительно простым, теперь результаты показали, что этот уровень станет еще одним большим пространством для глубокого обучения, и он действительно способен обеспечить современное состояние для некоторые общие задачи НЛП Поддержка результатов. Распознавание именованных сущностей (сокращенно NER), маркировка частей речи (POS) и даже анализ настроений стали важными направлениями применения моделей нейронных сетей, чтобы превзойти традиционные методы обработки. Среди них особенно впечатляет прогресс машинного перевода».
В сегодняшней статье мы рассмотрим достижения развития ИИ на основе технологии глубокого обучения в 2017 году. Конечно, из-за ограничений по объему эта статья не может охватить все научные статьи, фреймворки и инструменты. Здесь мы просто хотим поделиться с вами самыми захватывающими результатами года и вернуть вас к развитию и значению глубокого обучения в прошлом году с точки зрения мировых экспертов по искусственному интеллекту.
Развитие и тенденции обработки естественного языка
2017 год был важным годом для области обработки естественного языка, где глубокое обучение играет постоянно растущую роль, особенно в некоторых случаях с неожиданными результатами, и все признаки указывают на то, что эта тенденция в новом году сохранится.
От обучения word2vec до использования предварительно обученной модели
Можно сказать, что встраивание слов является одним из самых известных методов глубокого обучения в области обработки естественного языка. Вложения слов получены из гипотезы распределения, предложенной Харрисом в 1954 году. Он считал, что слова с похожими значениями обычно появляются в одном и том же контексте. Для подробного объяснения встраивания слов я предлагаю вам прочитать эту замечательную статью Габриэля Мордеки.
Пример вектора лексического распределения
Такие алгоритмы, как Word2vec (автор Миколов и др., 2013 г.) и GloVe (автор Пеннингтон и др., 2014 г.), являются первопроходцами в этой области, хотя они еще не относятся к глубокому обучению (нейронные сети в word2vec поверхностны, в то время как GloVe использует счет- на основе реализации), но модели, обученные с помощью обоих, широко используются в различных решениях для обработки естественного языка для глубокого обучения. Следует также подчеркнуть, что эти два алгоритма действительно очень эффективны и даже делают встраивание слов наиболее достойным методом реализации в настоящее время.
В качестве отправной точки для конкретных задач НЛП, требующих использования встраивания слов, мы склонны сначала использовать большой набор связанных с ними корпусов для обучения моделей. Конечно, при таком подходе есть определенная сложность в начале работы — и из-за этого модели предобучения постепенно становятся популярными. После обучения на данных из Википедии, Твиттера, Новостей Google и веб-скрапинга эти модели позволят вам легко интегрировать встраивание слов в ваши алгоритмы глубокого обучения.
Различные практики 2017 года доказали, что предварительно обученные модели встраивания слов стали ключевым инструментом для решения задач НЛП. Например, fastText от лаборатории Facebook AI Research (сокращенно FAIR) предоставляет предварительно обученные векторы на 294 языках, что, несомненно, приносит большой вклад и продвижение всему техническому сообществу. В дополнение к впечатляющему количеству поддерживаемых языков, fastText также использует модель символьных n-грамм (даже редкие слова, такие как доменные термины, содержат комбинации n-грамм, которые также существуют в других распространенных словах), что означает, что fastText может чтобы избежать проблемы OOV (то есть превышение словарного запаса). С этой точки зрения fastText превосходит word2vec и GloVe, а первый также превосходит небольшие наборы данных.
Несмотря на определенный прогресс, в этой области еще предстоит проделать большую работу. Например, выдающаяся платформа NLP spaCy интегрирует встраивание слов с моделями глубокого обучения для естественной реализации таких задач, как NER и синтаксический анализ зависимостей, позволяя пользователям обновлять существующие модели или использовать самообучаемые модели.
В будущем должно быть больше предварительно обученных моделей для конкретных областей (таких как биология, литература, экономика и т. д.), что еще больше снизит порог реализации обработки естественного языка. В то время пользователям нужно только выполнить простую тонкую настройку этих моделей, чтобы они успешно соответствовали их реальным вариантам использования. В то же время будут продолжать появляться методы, которые могут адаптировать механизм встраивания слов.
Адаптируйте общие вложения для конкретных случаев использования.
Основным недостатком предварительно обученных схем встраивания слов является то, что используемые ими обучающие данные часто имеют разницу в распределении словарного запаса по сравнению с нашими фактическими данными. Предполагая, что вы имеете дело с документами по биологии, рецептами или литературой по экономическим исследованиям, у вас, вероятно, нет значительного корпуса для встраивания обучения; в этом случае общая схема встраивания слов может помочь с относительно хорошими результатами. Однако как мы можем настроить схему встраивания слов, чтобы убедиться, что она работает для вашего конкретного случая использования?
Эту адаптацию часто называют техникой междоменной или доменной адаптации в НЛП, которая очень похожа на трансферное обучение. Янг и др. получили очень интересные результаты в этом отношении. В этом году они объявили о наборе регуляризованных непрерывных метамоделей, которые изучают вложения целевого домена с учетом встраивания слов исходного домена.
Основная идея проста, но очень эффективна. Представьте, что мы уже знаем встраивание слова для слова w как w_sw в исходном домене. Чтобы вычислить встраивание w_twt (целевой домен), авторы добавляют определенный сдвиг к w_sw между двумя доменами. По сути, если слово часто встречается в обоих доменах, это означает, что его семантика не зависит от самого домена. В этом случае большая сумма перевода означает, что результаты встраивания, произведенные словом в двух доменах, имеют тенденцию быть похожими друг на друга. Но если слово появляется значительно чаще в определенном домене, чем в другом домене, объем перевода соответственно уменьшится.
Как тема исследования, связанная с встраиванием слов, этот метод не получил большого внимания и изучения, но я верю, что в ближайшем будущем ему будет уделено должное внимание.
Анализ настроений — впечатляющий «побочный продукт»
Как пенициллин и даже рентген, анализ настроений — неожиданный сюрприз. В этом году Рэдфорд и др. начали изучать свойства рекурсивных языковых моделей на уровне байтов, но их целью было предсказать следующий символ в обзорах Amazon. Окончательный вывод показал, что нейрон в модели, которую они обучили, смог точно предсказать значения настроений. Да, этот единственный «эмоциональный нейрон» способен категоризировать обзор как «положительный» или «отрицательный» на впечатляющем уровне.
Изучение полярности и значений нейронов
Заметив это явление, авторы решили дополнительно протестировать модель с помощью Стэнфордского банка деревьев настроений и обнаружили, что она достигла точности 91,8% — лучше, чем предыдущая современная оценка 90,2%. Это означает, что их модели можно обучать без присмотра с меньшим количеством экземпляров и, по крайней мере, достичь современных возможностей анализа настроений на конкретном, но широком наборе данных, Стэнфордском дереве настроений.
Практическое использование аффективных нейронов
Поскольку модель работает на уровне символов, каждый нейрон изменяется для каждого символа в тексте, и конечный результат впечатляет.
Поведение аффективных нейронов
Например, после слова «лучший» значение этого нейрона становится строго положительным. Однако этот эффект исчезнет с появлением отрицательного слова «ужасный» — весьма логично.
Генерировать текст со смещенной полярностью
Конечно, эта модель обучения также является допустимой генеративной моделью, поэтому ее можно использовать для создания текстового контента, такого как обзоры Amazon. Лично я был приятно удивлен, что люди даже смогли просто переопределить значения нейронов эмоций, чтобы выбрать полярность смещения генерируемого текста.
Выше приведен сгенерированный образец текста.
Авторы выбрали мультипликативную LSTM (опубликованную Krause et al. 2016) в качестве своей модели нейронной сети, главным образом потому, что они обнаружили, что настройки гиперпараметров мультипликативной LSTM сходятся намного быстрее, чем другие ванильные LSTM. Он содержит 4096 единиц и обучен 82 миллионам обзоров Amazon.
До сих пор мы не понимаем, как эта обученная модель может так точно улавливать сентиментальные тенденции содержания обзора. Конечно, вы также можете попробовать обучить свою модель и поэкспериментировать. Кроме того, если у вас есть время и вычислительные ресурсы графического процессора, вы можете посвятить месяц воссозданию учебного процесса исследователей с четырьмя графическими процессорами Nvidia Pascal.
Анализ настроений в Твиттере
Будь то оценка корпоративных брендов, анализ влияния маркетинговых кампаний или количественная оценка поддержки Хиллари Клинтон и Трампа на президентских выборах в США в 2016 году, анализ настроений в Twitter всегда был мощным инструментом.
Трамп — Хиллари: анализ настроений в Твиттере
SemEval 2017
Анализ настроений в Твиттере привлек внимание исследователей НЛП и стал горячей темой в политических и социальных науках. Из-за этого SemEval с 2013 года предлагает более конкретную задачу.
В этом году в отборе приняли участие 48 команд, что еще раз доказало привлекательность SemEval. Чтобы узнать больше о том, что именно SemEval организует Twitter, мы начнем с обзора пяти его миссий в этом году:
Задача А:Учитывая твит, оцените, представляет ли он положительное, отрицательное или нейтральное настроение.
Задача Б:В соответствии с заданным твитом и темой содержание твитов, связанных с этой темой, делится на две точки зрения: положительную и отрицательную.
Задача С:В соответствии с заданным твитом и темой твиты, относящиеся к теме, оцениваются по пяти пунктам мнений: сильно положительный, слабо положительный, нейтральный, слабый отрицательный, сильный отрицательный.
Задача Д:Оцените распределение положительных и отрицательных категорий настроений в наборе твитов, связанных с темой.
Задача Е:На основе набора твитов, связанных с темой, оценки содержания твитов производятся на основе следующих пяти категорий: сильно положительные, слабо положительные, нейтральные, слабо отрицательные, сильные отрицательные.
Как видите, задача А — самая распространенная, в ней участвуют 38 команд, но другие задачи сложнее. Организаторы отметили, что использование методов глубокого обучения было значительным и продолжает расти — в этом году 20 команд начали внедрять такие модели, как сверточные нейронные сети (CNN) и долговременная/кратковременная память (LSTM). Кроме того, хотя модель SVM по-прежнему довольно популярна, некоторые игроки объединили ее с методами нейронных сетей или функциями встраивания слов.
Система BB_twtr
В этом году я также обнаружил чистую систему глубокого обучения, систему BB_twtr (Cliche, 2017), которая заняла первое место в англоязычной версии задачи по всем пяти заданиям. Автор объединяет 10 наборов CNN с 10 наборами biLSTM и обучает их с разными гиперпараметрами и разными стратегиями предварительного обучения. Заинтересованные друзья могут обратиться к подробному описанию архитектуры сети в статье по ссылке.
Для обучения этих моделей авторы взяли твиты, помеченные людьми (одна только задача А содержала 49 693 таких твита, чтобы дать вам представление о рабочей нагрузке), и создали набор немаркированных данных из 100 миллионов наборов твитов. Он может извлекать независимые наборы данных из этого набора немаркированных наборов данных с помощью простой маркировки смайликов, например :-). Эти твиты заменяются единообразной разметкой с использованием нижнего регистра, тегов, URL-адресов, эмодзи и т. д. Аналогичным образом обрабатываются повторяющиеся символы, используемые для выделения доказательств (например, «Niiice» и «Niiiiiiice» единообразно преобразуются в «Niice»).
Чтобы предварительно обучить встраивания слов в качестве входных данных для CNN и biLSTM, авторы используют word2vec, GloVe и fastText для обучения на немаркированных наборах данных, все с настройками по умолчанию. После этого он точно настроил встраивание слов с нейтральным набором данных, стремясь добавить информацию о полярности, и, наконец, снова настроил модель с набором данных, помеченным человеком.
Экспериментируя с предыдущими наборами данных SemEval, он обнаружил, что GloVe приводит к снижению производительности и что не существует оптимальной модели для всех наборов данных. Затем авторы объединили все модели, используя набор стратегий мягкого голосования. Полученная модель успешно превзошла предложения моделей-победителей в 2014 и 2016 годах и была похожа на победителей других лет. Именно по этой схеме победила англоязычная версия пяти заданий на SemEval 2017.
Хотя выбранная им комбинация не была органичной — она была достигнута только с помощью простой стратегии мягкого голосования — работа все же продемонстрировала возможность объединения нескольких моделей глубокого обучения. На самом деле, эта попытка также продемонстрировала, что мы полностью способны выполнять сквозной анализ настроений в Твиттере, помимо контролируемых методов обучения (т. е. входные данные должны быть предварительно обработаны).
Увлекательная абстрактная система обобщения
Один ветеранские задачи автоматические и автоматический перевод суммированы как относятся к обработке натурального языка. В настоящее время автоматически обобщается в основном двумя способами: тип экстракции типа на основе установления резюме путем извлечения наиболее важных текстовых сегментов из исходного текста; абстрактный модельный подход в абстрактном способе создания контента, создавая текстовое резюме. С исторической точки зрения, наиболее распространенный метод извлечения на основе, главным образом из-за его сложности достичь намного ниже, чем методы абстрактного типа.
За последние несколько лет модели, основанные на рекуррентных нейронных сетях (сокращенно RNN), начали делать поразительные успехи в генерации текста. Он очень хорошо работает в коротких текстовых сценариях ввода и вывода, но сгенерированный длинный текст имеет проблемы с плохой последовательностью и большим количеством повторений. В своей работе Паулюс и др. предлагают новую модель нейронной сети для преодоления вышеуказанных ограничений — и результаты впечатляют, как показано на следующем рисунке:
Сводное содержимое, созданное моделью
Авторы используют кодировщик biLSTM для чтения входных данных и используют декодер LSTM для генерации выходных данных. Их основной вклад заключается в использовании новой стратегии внутреннего внимания, чтобы обращать внимание на входное содержимое и постоянно генерируемые выходные результаты соответственно, а также в создании нового метода обучения, сочетающего стандартное предсказание слов под наблюдением и механизм обучения с подкреплением.
Стратегия внутреннего фокуса
Причина, по которой предлагается концепция стратегии внутреннего внимания, в основном состоит в том, чтобы избежать проблемы дублирования выходных результатов. Для этого они используют механизм временного внимания во время декодирования, чтобы просмотреть предыдущий абзац во входном тексте и использовать его для определения следующего слова, которое будет сгенерировано. Это заставляет модель использовать разные части ввода во время генерации. Кроме того, авторы позволяют модели получать доступ к ранее существовавшим скрытым состояниям из декодера. Сочетание этих двух функций позволяет выбрать наиболее идеальное следующее слово для итогового вывода.
обучение с подкреплением
Разные люди, как правило, используют совершенно разные слова и предложения при создании одного и того же реферата, и два реферата могут быть одинаково точными и эффективными. Таким образом, хорошее резюме не обязательно должно максимально точно соответствовать последовательности слов, присутствующих в обучающем наборе данных. Исходя из этого, авторы решили отказаться от стандартного алгоритма управляемого форсирования и вместо этого минимизировать отсутствующее значение на каждом этапе декодирования (т. е. при генерации каждого слова). Выбранная ими стратегия обучения с подкреплением оказалась действительно очень эффективной.
Отличные результаты от сквозной модели
Эта модель была протестирована на наборе данных CNN/Daily Mail и получила отличные результаты. Кроме того, оценщики протестировали модель и обнаружили, что удобочитаемость и качество сводных результатов улучшились. Эти результаты впечатляют, особенно если учесть, что они требуют только очень простой предварительной обработки: токенизации и перевода входного текста в нижний регистр, затем замены всех чисел на «0» и, наконец, удаления некоторых определенных объектов в наборе данных.
Является ли это первым шагом к неконтролируемому машинному переводу?
Индукция двуязычного словаря относится к использованию исходного языка и одноязычных корпусов на двух языках для достижения распознавания слов и перевода - задачи обработки естественного языка с долгой историей. Автоматически сгенерированный двуязычный словарь может активно поддерживать другие задачи НЛП, включая поиск информации и статистический машинный перевод. Однако большинство этих методов сильно зависят от определенного ресурса, например начальной версии двуязычного словаря. Таких словарей часто не существует или их трудно создать.
С успехом механизмов встраивания слов люди начали рассматривать возможность реализации межъязыкового встраивания слов, цель которого состоит в том, чтобы выделить пространство для встраивания, а не создавать словари. К сожалению, первые реализации все еще полагаются на двуязычные словари или одноранговые корпуса. На практике, однако, Конно и др. (2018) предлагают многообещающий подход, который не зависит от какого-либо конкретного ресурса и хорошо работает при многоязычном переводе, поиске перевода предложений и сходстве слов на разных языках. результаты, которые превосходят существующие методы обучения с учителем.
Метод, разработанный авторами, заключается в независимом обучении входных двух наборов вложений слов на основе данных одного языка, а затем изучении отношения отображения между ними, чтобы результаты перевода были как можно ближе в общедоступном пространстве. Авторы использовали fastText для обучения неконтролируемых векторов слов в документах Википедии.На следующем рисунке показана основная идея реализации этого метода:
Установите отношение сопоставления между двумя наборами пробелов для встраивания слов.
Красное распределение X — это встраивание английского слова, а синее распределение Y — встраивание итальянского слова.
Авторы сначала используют состязательное обучение, чтобы получить матрицу вращения W, используемую для выполнения первого начального выравнивания. Основываясь на основных принципах, предложенных Гудфеллоу и др. (2014), они построили набор генеративно-состязательных сетей (сокращенно GAN). Если вы хотите понять, как работают GAN, я рекомендую прочитать эту статью Пабло Сото.
Чтобы смоделировать проблему во время состязательного обучения, они добавили решающую роль к дискриминатору в определении и случайным образом предоставили некоторые элементы выборки из WX и Y (см. второй столбец на рисунке выше), чтобы судить об этих языках. элемент принадлежит. Затем они обучают W не позволять дискриминатору делать точные прогнозы. Такой подход кажется мне достаточно талантливым, а результаты вполне удовлетворительными.
После этого они дополнительно уточняют сопоставление, используя два последовательных шага. Один из них заключается в том, чтобы избежать проблем, вызванных редкими словами при вычислении отображения. Во-вторых, создать фактические возможности перевода, которые в основном применяются к изученным отношениям отображения и механизму измерения расстояния.
В некоторых случаях эта модель имеет чрезвычайно продвинутые результаты обработки. Например, в процессе перевода слов с английского на итальянский в случае P@10 он может завершить перевод исходного слова с точностью, близкой к 17% (конкретное число превышает 1500).
Средняя точность перевода слов с английского на итальянский.
Авторы утверждают, что их метод сможет послужить важной отправной точкой для неконтролируемых методов машинного перевода. Если это так, то перспективы на будущее определенно заслуживают ожидания. Конечно, мы также хотим, чтобы этот новый подход развивался быстрее и дальше.
Специализированные рамки и инструменты
На рынке представлено большое количество фреймворков и инструментов глубокого обучения общего назначения, среди которых широко используются варианты TensorFlow, Keras и PyTorch. Однако также появляются специализированные платформы и инструменты глубокого обучения НЛП с открытым исходным кодом. 2017 год был захватывающим, когда сообществу было представлено множество очень полезных фреймворков с открытым исходным кодом. Следующие три вызвали мой большой интерес.
AllenNLP
Фреймворк AllenNLP представляет собой набор платформ, построенных на PyTorch, для простого использования методов глубокого обучения для решения проблем в семантических задачах НЛП. Его цель — помочь исследователям разработать и оценить новые модели. Платформа содержит эталонные экспериментальные модели для множества общих семантических задач НЛП, включая тегирование семантических ролей, цитирование текста и анализ общих причин.
ParlAI
Платформа ParlAI — это программная платформа с открытым исходным кодом для проведения разговорных исследований. Он реализован на Python и призван обеспечить единую структуру для обмена, обучения и тестирования диалоговых моделей. ParlAI легко интегрируется с Amazon Mechanical Turk. Кроме того, он предоставляет множество популярных наборов данных и может поддерживать большое количество нейронных моделей, включая сети памяти, seq2seq и LSTM на основе внимания.
OpenNMT
Набор инструментов OpenNMT — это универсальная платформа для моделей классов последовательностей. Его можно использовать для выполнения таких задач, как машинный перевод, реферирование, преобразование изображения в текст и распознавание речи.
напиши в конце
Нет никаких сомнений в том, что количество методов глубокого обучения для решения задач, подобных НЛП, увеличивается. Основным показателем этого является значительное увеличение доли статей по глубокому обучению, опубликованных на ключевых конференциях НЛП, таких как ACL, EMNLP, EACL и NAACL, за последние несколько лет.
Диаграмма процентного изменения бумаги для глубокого обучения
Однако настоящее сквозное обучение только начинается. Нам все еще нужно выполнить некоторые классические задачи NLP для подготовки набора данных, такие как очистка, тегирование или нормализация определенных объектов (включая URL-адреса, числа, адреса электронной почты и т. д.). Мы по-прежнему используем различные универсальные вложения, недостатком которых является то, что они не учитывают значимость терминов, относящихся к предметной области, и плохо понимают многословные выражения. Я сталкивался с этими недостатками в своих собственных рабочих проектах.
2017 год, несомненно, был отличным годом для применения методов глубокого обучения в области НЛП. Я надеюсь, что 2018 год принесет больше сквозного обучения и дальнейшего развития различных специализированных фреймворков с открытым исходным кодом. Если у вас есть собственное мнение о различных результатах и платформах, упомянутых в этой статье, или если у вас есть решение, которое вы поддерживаете, поделитесь с нами в комментариях.
Развитие и тенденции машинного обучения и больших данных
В 2017 году мы увидели, как большие данные вывели ИИ на вершину технологической волны. ИИ стал центром внимания средств массовой информации и практиков, конечно же, в нем есть как положительные (все более мощные алгоритмы машинного обучения и приложения ИИ во всех сферах жизни), так и отрицательные (машины заменят человеческие рабочие места и даже будут контролировать человеческий мир) . Мы также наблюдаем инновации ценности на основе данных, включая платформы обработки данных, глубокое обучение и облачные сервисы машинного обучения от нескольких крупных поставщиков, а также машинный интеллект, предписывающую аналитику, поведенческую аналитику и Интернет вещей.
Мы собрали резюме некоторых специалистов по данным и экспертов по искусственному интеллекту о состоянии развития машинного обучения и генерации данных в 2017 году, а также их прогнозы относительно тенденций развития в 2018 году. Из-за ограниченного места мы опустили имена этих экспертов. , Для получения дополнительной информации обратитесь к справочной статье в конце статьи.Если у читателей есть другие дополнения и мнения, пожалуйста, обсудите их с нами в области комментариев.
2017 Статус разработки
AlphaGo Zero предлагает новый подход к обучению с подкреплением, что, возможно, является самым значительным исследовательским достижением в области ИИ в 2017 году.
В 2017 году мы увидели большие успехи в области искусственного интеллекта. В то время как предыдущие модели глубокого обучения требовали больших объемов данных для обучения алгоритмов, применение нейронных сетей и обучения с подкреплением научило нас тому, что большие наборы данных не являются требованием для эффективных алгоритмов. DeepMind использовал эти методы для создания AlphaGo Zero, который превзошел предыдущие алгоритмы.
Корпоративный ИИ становится мейнстримом
Многие крупные компании запустили проекты по искусственному интеллекту или машинному обучению, но цели этих проектов ограничены. Проекты крупных производителей становятся все более открытыми, а DIY-проектов будет все больше. Это означает, что предприятия должны повышать свои навыки работы с данными. Например:
(1) Google выпустила TPU второго поколения, который может сэкономить миллиарды долларов с точки зрения энергии.
(2) Архитектура Volta, выпущенная NVIDIA, основана на графических процессорах Tesla, и каждый графический процессор может поддерживать 120 триллионов операций с плавающей запятой.
(3) Ажиотаж вокруг квантовых компьютеров D-Wave поутих, и появился 20-кубитный квантовый компьютер со структурой квантового программирования QISKit.
Машинное обучение применяется для интеграции данных
2017 год — первый год разработки платформ интеллектуального анализа. От аналитических ботов до автоматизированного машинного обучения — в науке о данных так много сложной интеллектуальной автоматизации. Платформы интеграции и подготовки данных могут интеллектуально обрабатывать источники данных, автоматически исправлять ошибки в конвейерах данных и даже выполнять задачи по самообслуживанию или обработке данных на основе знаний, полученных в результате взаимодействия с людьми. Платформы автоматизированного машинного обучения и полуавтоматическая разработка функций быстро изменили правила цифровой аналитики.
Автоматизация науки о данных, существует множество автоматизированных платформ машинного обучения. Машинное обучение решает большую проблему анализа данных и управления данными.Интеграция данных, требующая большого количества ручного вмешательства, заменяется некоторой степенью автоматизации, что экономит нам много времени.
Консервативные компании выбирают открытый исходный код
Наиболее консервативные традиционные компании (такие как банковское дело, страхование, здравоохранение) активно используют программное обеспечение для анализа данных с открытым исходным кодом, ИИ и управления данными. Некоторые компании поощряют сотрудников отказываться от инструментов, защищенных авторским правом, в то время как другие рекомендуют использовать их только в отдельных проектах. Есть соображения стоимости, но более высокая производительность и простота найма также являются важными соображениями.
Python, Java и R — самые популярные языки программирования с 2017 года
Люди ожидают, что ИИ будет развиваться быстрее, чем это есть на самом деле
Прогноз тенденций на 2018 год
ИИ будет больше использоваться в сфере бизнеса
В 2018 году развитие ИИ ускорится, и ценность ИИ отразится в этом году:
- Исследования McAfree Labs показывают, что состязательное машинное обучение будет использоваться для обнаружения вторжений в сеть, обнаружения мошенничества, обнаружения спама и обнаружения троянов.
- HPE разработает механизм скалярного продукта и выпустит собственные микросхемы нейронных сетей для высокопроизводительных вычислений логических выводов, таких как глубокие нейронные сети, сверточные нейронные сети и рекуррентные нейронные сети.
- Неконтролируемое обучение и автономное обучение позволят роботам взаимодействовать с окружающей наземной и подводной средой.
- Порог применения машинного обучения в сфере Интернета вещей и граничных вычислений будет снижен, а в разведке пространственного местоположения появятся прорывные алгоритмы, которые будут применяться к мобильным телефонам, датчикам RFID, БПЛА, дронам и спутникам.
- Приложения машинного обучения продолжают расширяться в таких областях, как рынки, финансовые риски, обнаружение мошенничества, оптимизация рабочей силы, производство и здравоохранение.
- Глубокое обучение переживает бум как с точки зрения динамики, так и практической ценности. Новая серия усовершенствованных нейронных сетей выводит машинное обучение на новый уровень, решая задачи ввода больших сигналов с высокой производительностью, такие как классификация изображений (автономное вождение, медицинские изображения), звук (распознавание речи, распознавание говорящего), текст (классификация текста). ), или даже «стандартные» деловые вопросы.
Изменения в этой области, вероятно, не сильно изменятся с 2017 года: автоматизация процессов, машинный интеллект, обслуживание клиентов, персонализация и трансформация рабочей силы. В пространстве IoT также появятся более зрелые разработки, в том числе более зрелые функции безопасности, модульные платформы, API-интерфейсы для доступа к потокам данных датчиков и интерфейсы периферийной аналитики. Мы также увидим, что оцифровка станет основной в других секторах, таких как производство, инфраструктура, проектирование и строительство. Мы верим, что в 2018 году больше практиков смогут использовать преимущества ИИ в более широкой области.
2017 год был годом ослепительных звезд, и многие производители, которые даже близко не подошли к ИИ, начали поставлять продукты ИИ. В 2018 году мы увидим применение ИИ и машинного обучения в большем количестве областей бизнеса. Почему ты это сказал? Поскольку шишкам с неотложными бизнес-задачами все равно, как будет развиваться конкретная технология, они найдут способы ускорить поток цепочки поставок, они захотят знать, что делают клиенты, и они будут смотреть на компьютер. для ответов. Те, кто быстрее всех сможет предоставить прогнозную аналитику, изменят правила игры.
Инди-стартапы ИИ находятся на грани упадка
За последние несколько лет поток венчурного капитала породил сотни стартапов в области ИИ, каждый из которых решает лишь небольшую часть проблемы. Несмотря на их усилия, добиться интеграции в существующие процессы будет огромной проблемой. В результате существующие компании либо предлагают «микросервисы» ИИ, которые легко интегрировать, либо покупают услуги у поставщиков, которые уже встраивают ИИ в транзакционные системы.
Правила и безопасность будут иметь решающее значение
Поскольку ИИ используется во многих областях, таких как уголовное правосудие, финансы, образование и на рабочем месте, нам необходимо установить алгоритмические стандарты для оценки их точности. Исследования влияния ИИ на общество будут продолжать расширяться, включая установление применимых правил для ИИ (например, избегание черных ящиков принятия решений) и понимание того, как алгоритмы глубокого обучения принимают решения.
Проблемы безопасности будут продолжать обостряться, и компании будут уделять больше внимания безопасности, а улучшение видимости блокчейна — проверенный способ повысить безопасность данных компании. Ожидайте, что в следующем году автоматизированный ИИ будет органично интегрирован в большее количество процессов анализа и принятия решений. Внедрение Общего европейского регламента по защите данных гарантирует, что данные не будут использоваться не по назначению, что приведет к лучшей защите персональных данных.
Квантовые вычисления привлекут больше внимания
Будущее квантового машинного обучения зависит от кубитов с гораздо большим количеством состояний, возможно, 10+, а не от кубитов, которые могут поддерживать только два состояния. Квантовые вычисления и алгоритмы обработки данных будут привлекать больше внимания, хотя до настоящих квантовых компьютеров еще далеко.
Пузырь ИИ будет продолжать расширяться
Начиная с 2017 года люди говорят о большом машинном обучении, искусственном интеллекте и прогнозном анализе, но большинство компаний или производителей находятся в ловушке, у них нет реальной возможности делать эти вещи. Эти области требуют времени и таланта, реальный опыт очень важен! Пузырь AI продолжит расширяться, но мы также видим признаки осадков. ИИ по-прежнему будет переоцениваться.
Популяция специалистов по данным будет расширяться
Аналитики данных и специалисты по данным должны знать, какие алгоритмы для чего можно использовать. Автоматизация аналитики и машинного обучения приведет к разнообразному набору алгоритмов, что может привести к ситуации «каждый — специалист по данным». В то же время 25 мая 2018 года вступит в силу GDPR (Европейский общий регламент по защите данных), что будет иметь важные последствия для науки о данных.
2018 год станет годом многих лидеров в области науки о данных и прогнозной аналитики., не только потому, что это правильный путь, основная причина в том, что они будут иметь реальное значение для нашего бизнеса. Прогностический найм может сэкономить вам миллионы долларов, а искусственный интеллект и машинное обучение могут за секунды сделать то, что раньше требовалось днями.
Достижение цели «каждый является специалистом по данным» станет главным приоритетом в 2018 году. По опыту экспертов, командам по-прежнему необходимо поддерживать комплексную структуру: предоставлять сотрудникам и высшему руководству, не имеющим опыта анализа данных, инструменты, помогающие им принимать решения. Что еще более важно, командам необходимо разрабатывать свои собственные модели данных вместе с учеными, которые могут понимать ограничения моделей и конкретных аналитических методов.
Справочная статья
попробуйте OL ABS.com/blog/2017/1…
Ууху. См. nuggets.com/2017/12/datang…
Следите за нами в WeChat"Передовая линия ИИ", ответьте "AI" в фоновом режиме, чтобы получить серию электронных книг в формате PDF "AI Frontline".