«Угадай, что думаешь, ответь, что спросишь», Практика интеллектуального алгоритма обслуживания клиентов Ctrip.

глубокое обучение алгоритм

об авторе

 

Юань Линфэн, старший инженер-алгоритм отдела исследований и разработок искусственного интеллекта Ctrip Platform Center, отвечает за исследование и разработку интеллектуального алгоритма обслуживания клиентов Ctrip и интересуется алгоритмами НЛП, связанными с чат-ботами, и алгоритмами сортировки рекомендаций. В 2015 году он окончил Институт шаблонов изображений Шанхайского университета Цзяотун со степенью магистра, а затем присоединился к Ctrip, чтобы отвечать за такие проекты, как намерение пользователя в реальном времени и Xiaoshiji.

Обзор

 

Являясь лидером внутренних OTA, Ctrip ежедневно обслуживает тысячи путешественников. Чтобы обеспечить путешествие путешественников, очень важную роль в этом играет огромная служба поддержки клиентов Ctrip. Тем не менее, в повседневной работе по обслуживанию клиентов большую часть поведения составляет повторяющаяся работа, которая является пустой тратой ресурсов на обслуживание клиентов. Как высвободить производительность из работы по обслуживанию клиентов и повысить эффективность производства, стало серьезной проблемой, которую должны решить технологии.

Благодаря прорыву алгоритмов глубокого обучения и обновлению оборудования в последние годы технологии искусственного интеллекта расцвели во многих областях, и одним из основных сценариев применения является интеллектуальное обслуживание клиентов. В начале 2017 года Ctrip начала активно продвигать технологические исследования и разработки интеллектуального обслуживания клиентов.В настоящее время в области послепродажного обслуживания клиентов в отелях интеллектуальное обслуживание клиентов смогло решить 70% проблем, которые не только повышает эффективность обслуживания клиентов, но и значительно улучшает реакцию службы.

 

Итак, что машинное обучение или глубокое обучение могут сделать в обслуживании клиентов? Как это сделать? В этой статье мы сосредоточимся на этих двух аспектах, чтобы представить некоторый практический опыт Ctrip в области интеллектуального обслуживания клиентов.

Начнем с ответа, что именно эти алгоритмы могут делать в обслуживании клиентов.

Чтобы ответить на этот вопрос, нам нужно вернуться к самому инструменту чата обслуживания клиентов.Когда пользователи используют инструмент чата обслуживания клиентов, большая надежда состоит в том, что они могут увидеть вопрос, с которым они хотят проконсультироваться, в интерфейсе обслуживания клиентов в первый раз, а затем непосредственно найти ответ. Если вы не видите интересующий вас вопрос с первого взгляда, вы надеетесь получить нужный вам ответ с наименьшим количеством взаимодействий во время взаимодействия со «службой поддержки клиентов».

В этом процессе алгоритм состоит не более чем из двух вещей:Угадайте, что вы думаете, ответьте, что вы спросите.

Давайте сначала поговорим о предположениях.Подобно рекомендациям, когда пользователь не ввел никаких данных, мы угадываем, какой вопрос пользователь хочет задать при входе в интерфейс консультации, на основе информации пользователя, текущей контекстной информации и информации о консультируемом продукте, поэтому как получить Пользователю отображается последовательность из кучи вопросов. Если пользователь не угадает вопрос, который хочет пользователь на первом шаге, пользователь просто опишет свою ситуацию и вопрос, который он хочет задать через поле ввода.Угадайте вопросы, которые пользователи могут задать в режиме реального времени, и дайте им пользователям в виде предложений ввода. Если ни одно из вышеперечисленного не может позволить пользователям найти ответ, который они хотят, это и есть ответ на этот вопрос.

Мы будем использовать модель QA для анализа и сопоставления содержания слов, отправленных пользователем, получения вопросов, которые пользователь может захотеть задать, и предоставления обратной связи пользователю. На этом раунд диалога завершается, но на самом деле, в дополнение к вышеупомянутым пунктам, есть много мест, требующих участия алгоритма, таких как анализ проблемы, рекомендации по связанным проблемам и контекстный диалог.

Ниже мы сосредоточимся на том, как работают несколько часто используемых алгоритмов.

 

Question-AnswerMatch

Стандартная модель Q-согласования является базовой моделью взаимодействия роботов и предъявляет высокие требования к скорости сопоставления. Традиционный метод напрямую вычисляет рейтинг релевантности на основе поиска ключевых слов или алгоритмов, таких как BM25, но недостатком этих методов является необходимость поддерживать большое количество тезаурусов и правил сопоставления. Позднее была разработана технология скрытого семантического анализа (Latent Semantic Analysis, LSA).[1,2]), который отображает слова и предложения в низкоразмерное непрерывное пространство и вычисляет сходство в базовом семантическом пространстве.

Тогда есть PLSA (вероятностный латентный семантический анализ)[3], LDA (скрытое распределение Дирихле)[4]Модель равновероятности, формирующая очень горячее техническое направление мелкой тематической модели. Семантическое представление текста этими алгоритмами лаконично, что компенсирует недостатки традиционных методов лексического сопоставления. Однако ни один из этих методов не может полностью заменить сопоставление на основе слов с точки зрения производительности.

С появлением технологий глубокого обучения Word2vec основан на обучении нейронных сетей.[5]для выполнения вычислений сопоставления текста вызвало широкий интерес, и семантическая вычислимость результирующих представлений вектора слова еще больше улучшилась. Тем не менее, неконтролируемый Word2vec все еще имеет недостатки в практическом эффекте вычисления степени совпадения предложений и не решает проблему семантического представления фраз и предложений.

Поэтому исследователи начали изучать нейросетевые языковые модели на уровне предложений, такие как модель DSSM (Deep Structured Semantic Model), предложенная Microsoft Research.[6], Huawei Labs также предложила несколько новых вариантов модели сопоставления нейронных сетей.[7,8,9], например сверточная модель сопоставления, основанная на двумерном интерактивном сопоставлении. Исследовательские учреждения, такие как Китайская академия наук, также предложили модель сопоставления рекуррентных нейронных сетей с несколькими представлениями (MV-LSTM).[10], Иерархическая модель сопоставления на основе сопоставления матриц MatchPyramid[11]и более совершенные модели сопоставления текста нейронной сети. Хотя структура модели очень разнообразна, базовые структурные единицы в основном основаны на полном канальном уровне, LSTM, сверточном слое и слое пула (см.[12,13,14,15]способ действия).

 

Сортировать и сортировать

В рамках обучения семантической модели ее можно условно разделить на две категории: классификация и сортировка.

При использовании метода классификации, как правило, последний слой подключается к softmax с несколькими категориями, то есть входом является пользовательский Q, а результатом классификации является стандартная категория Q, к которой он принадлежит.

Структура модели на основе классификации

Существует три типа ранжирования: точечное, парное и списочное. В QA мы обычно используем точечные и парные методы. Среди них точечный метод напрямую преобразует проблему в две категории и оценивает, относится ли текущая проблема пользователя к проблеме с сопоставлением, и, наконец, можно получить ранжирование проблемы в соответствии со значением вероятности членства. И попарно изучает отношение порядка между парами и , и цель обучения состоит в том, чтобы максимизировать расстояние между парой положительных образцов и парой отрицательных образцов:

где представляет некоторую метрику расстояния.

Точечная структура модели

 

Структура модели на основе пар

 

Раунд и контекст

Бесперебойный разговор требует, чтобы робот имел возможность вести несколько раундов контекстного диалога. Однако большинство роботов QA в настоящее время основаны на сопоставлении в один раунд. Если пользователь продолжает задавать дополнительные вопросы из предыдущего вопроса, модель будет вырвана из контекста и не сможет точно определить текущее предложение, точное намерение. Следовательно, контекстная информация должна быть представлена ​​и рассчитана для реализации модели сопоставления с несколькими раундами.

Когда дело доходит до диалоговых сценариев с несколькими раундами, все будут думать о диалогах на основе задач. Тем не менее, есть еще некоторые различия в контекстуальном представлении этих двух. Задача (целеустремленная система) представляет контекст в соответствии с предопределенными слотами и состояниями, а также в соответствии со стратегией управления диалогами бизнес-логики (также доступной через POMDP).[16]методы построения стратегий), чтобы направлять пользователей к тому, что они хотят искать. А QA (non-target-driven system) не ориентирована на управление слотами, а подстраивает процесс диалога под разговорные намерения пользователя. В методе управления контекстным сеансом QA его можно условно разделить на два направления, одно из которых основано на правилах.[17]Контекстная модель; другая основана на модели[18,19]контекстная модель.

 

  • Rule-Based

Контекст представлен предварительным определением некоторого априорного знания, и априорное знание контекста постоянно модифицируется в сеансе и переупорядочивается в соответствии с информацией записи контекста.

 

  • Model-Based

Преимущество модели, основанной на правилах, заключается в том, что она может улучшить способность к обобщению. Есть исследователи[18,19]Просто воспользуйтесь этой функцией модели, представьте контекстную информацию в векторе, изучите и сделайте вывод с помощью иерархической модели. Модель в основном имеет три структуры: модель кодировщика на уровне предложения, модель кодера на уровне контекста и модель декодера ответа. Модель кодировщика контекста является ключом к решению контекстной информации, и вся модель представлена ​​математической моделью следующим образом:

Основываясь на нашем сценарии, модель немного изменена и обучена, чтобы получить эффект, как показано ниже.

 

 

Input suggestion

Сопоставление ввода имеет очень важный сценарий применения в поисковых системах или поиске продуктов, но приглашение сопоставления в сценариях обслуживания клиентов отличается от поиска.Ввод данных пользователем может быть разным, и результат сопоставления может не совпадать со словом, введенным пользователем. ., если семантика непротиворечива и он способен угадать намерение пользователя. Давайте поговорим о трех алгоритмах, которые мы повторяем в этом сценарии.

В первой версии используется наиболее часто используемая структура дерева Trie. Структура словарного дерева проста и практична. При поиске дерево словаря может быть построено для всех записей-кандидатов, а затем набор кандидатов может быть извлечен из дерева Trie в соответствии с префиксом, введенным пользователем, и отображен для пользователя. Преимущество этой структуры в том, что она проста и эффективна, и ее можно быстро запустить. Но недостатком является низкая скорость отзыва, поскольку дерево словаря требует, чтобы слова, вводимые пользователем, имели тот же префикс, что и фразовые предложения в наборе-кандидате. Мы также провели оптимизацию обобщения, например, удалили стоп-слова или бессмысленные слова и т. д., чтобы максимально улучшить запоминание. Но улучшение ограничено.

На втором этапе мы напрямую используем точечную модель ранжирования. Из-за накопления данных и ручной аннотации на первом этапе у нас уже есть определенные исторические данные о кликах по экспозициям. Учитывая высокие требования к производительности запросов для онлайн-ассоциации, мы сначала попробовали модель логистической регрессии. Что касается функций, мы в основном извлекли три типа функций: одна — это функции предложения на основе word2vec, другая — это традиционные функции TF-IDF, а последняя — важные лексические функции (такие функции получают путем интеллектуального анализа данных. важные слова, соответствующие сцена). После запуска модели общая скорость использования была значительно улучшена по сравнению с деревом словарей, особенно значительно улучшилась скорость отзыва.

Тем не менее, модель на втором этапе все еще имеет много дефектов.Мы проанализировали онлайн-экспозицию и данные по некликам и обнаружили следующие проблемы:

  • Во многих случаях пиньинь и китайские иероглифы смешиваются и сопоставляются онлайн, и модель не может решить эту проблему;

  • В словах, введенных пользователем, много опечаток;

  • В сценариях запросов Lenovo преобладают сверхкороткие тексты, в основном 2-6 слов.

Модель Microsoft DSSM хорошо влияет на решение проблемы семантического сопоставления коротких текстов.Главной изюминкой этой модели является введение операции хеширования слов, которая может хорошо решить проблему OOV (вне словарного запаса). Во-вторых, глубокая нейронная сеть повышает способность выражения функций.Схема расчета модели выглядит следующим образом:

После того, как модель была запущена, она принесла значительное улучшение.Итеративный эффект всей сцены ассоциации ввода показан на рисунке.

 

Суммировать

Из-за нехватки места, в дополнение к вышеупомянутым сценариям, алгоритмы машинного обучения и глубокого обучения также помогают обслуживанию клиентов Ctrip во многих других сценариях, помогая повысить эффективность обслуживания клиентов и удобство работы пользователей.

Искусственный интеллект не является новой черной технологией, но быстрое развитие глубокого обучения в последние годы снова сделало это слово активным в глазах общественности. Профессор Нельсон определяет искусственный интеллект следующим образом: «Искусственный интеллект — это дисциплина знаний — наука о том, как представлять знания и как приобретать и использовать знания».

Мы предпочитаем думать об искусственном интеллекте как о синтезе искусственного интеллекта + интеллектуального алгоритма + данных. Инженер-алгоритм должен не просто понимать алгоритмы, но знать, как использовать алгоритмы для оптимизации труда для повышения эффективности, как использовать алгоритмы для извлечения эффективной информации и тесно формировать замкнутый цикл между данными, алгоритмами и трудом. .

 

Reference

 

[1] DennisS, Landauer T, Kintsch W, et al. Introduction to latent semanticanalysis[C]//Slides from the tutorial given at the 25th Annual Meeting of theCognitive Science Society, Boston. 2003.

[2] DeerwesterS, Dumais S T, Furnas G W, et al. Indexing by latent semantic analysis[J].Journal of the American society for information science, 1990, 41(6): 391-407.

[3] HofmannT. Unsupervised learning by probabilistic latent semantic analysis[J]. Machinelearning, 2001, 42(1-2): 177-196.

[4] BleiD M, Ng A Y, Jordan M I. Latent dirichlet allocation[J]. Journal of machineLearning research, 2003, 3(Jan): 993-1022.

[5] MikolovT, Chen K, Corrado G, et al. Efficient estimation of word representations invector space[J]. arXiv preprint arXiv:1301.3781, 2013.

[6] HuangP S, He X, Gao J, et al. Learning deep structured semantic models for websearch using clickthrough data[C]//Proceedings of the 22nd ACM internationalconference on Conference on information & knowledge management. ACM, 2013:2333-2338.

[7] LuZ, Li H. A deep architecture for matching short texts[C]//Advances in NeuralInformation Processing Systems. 2013: 1367-1375.

[8] JiZ, Lu Z, Li H. An information retrieval approach to short text conversation[J].arXiv preprint arXiv:1408.6988, 2014.

[9] HuB, Lu Z, Li H, et al. Convolutional neural network architectures for matchingnatural language sentences[C]//Advances in neural information processingsystems. 2014: 2042-2050.

[10]Wan,Shengxian, Yanyan Lan, Jiafeng Guo, Jun Xu, Liang Pang, and XueqiCheng."A Deep Architecture for Semantic Matching with MultiplePositionalSentence Representations." In AAAI, pp. 2835-2841. 2016.

[11]Pang,Liang, Yanyan Lan, Jiafeng Guo, Jun Xu, Shengxian Wan, and XueqiCheng."Text Matching as Image Recognition." In AAAI, pp. 2793-2799.2016.s

[12] FengM, Xiang B, Glass M R, et al. Applying deep learning to answer selection: Astudy and an open task[J]. arXiv preprint arXiv:1508.01585, 2015.

[13] LaiS, Xu L, Liu K, et al. Recurrent Convolutional Neural Networks for TextClassification[C]//AAAI. 2015, 333: 2267-2273.

[14] SantosC, Tan M, Xiang B, et al. Attentive pooling networks[J]. arXiv preprintarXiv:1602.03609, 2016.

[15] KimY. Convolutional neural networks for sentence classification[J]. arXiv preprintarXiv:1408.5882, 2014.

[16] Янг С., Гашич М., Томсон Б. и др. Статистические голосовые диалоговые системы на основе Pomdp: обзор [J], Труды IEEE, 2013, 101(5): 1160-1179.

[17] LangleyP, Meadows B, Gabaldon A, et al. Abductive understanding of dialogues aboutjoint activities[J]. Interaction Studies, 2014, 15(3): 426-454.

[18] SerbanI V, Sordoni A, Bengio Y, et al. Building End-To-End Dialogue Systems UsingGenerative Hierarchical Neural Network Models[C]//AAAI. 2016, 16: 3776-3784.

[19] SordoniA, Galley M, Auli M, et al. A neural network approach to context-sensitivegeneration of conversational responses[J]. arXiv preprint arXiv:1506.06714,2015.

 

Не можете видеть достаточно?

Если вы хотите близко пообщаться с автором,

Добро пожаловать, чтобы нажать «Читать исходный текст» в конце статьи,

«Бесплатное бронирование» и 60-минутный эксклюзивный онлайн-чат с автором.


В эту субботу, 11 августа,

Инновации и практика тестирования технологий в мобильном Интернете

Осталось небольшое количество билетов, поторопитесь и садитесь в автобус

Нажмите на картинку, чтобы зарегистрироваться~

【Рекомендуется к прочтению】