содержание
1. Введение
2. Предварительные условия — Загрузите стоп-слова nltk и пространственную модель.
3. Импортируйте пакет
4. Что делает LDA?
5. Подготовьте стоп-слова
6. Импорт данных группы новостей
7. Удалите электронные письма и разрывы строк
8. Отметьте слова и очистите текст
9. Создайте модели биграмм и триграмм
10. Удалить стоп-слова, сделать биграммы и морфологические преобразования
11. Создайте необходимый словарь и корпус для тематического моделирования
12. Создавайте тематические модели
13. Просмотр тем в модели LDA
14. Сложность вычислительной модели и оценка согласованности
15. Визуальные темы - ключевые слова
16. Создайте модель LDA Mallet
17. Как найти оптимальное количество тем для LDA?
18. Найдите главную тему в каждом предложении
19. Найдите наиболее репрезентативные файлы для каждой темы
20. Назначайте темы для файлов
1. Введение
Одним из основных применений обработки естественного языка является автоматическое извлечение тем, которые люди обсуждают, из больших объемов текста. Некоторыми примерами больших объемов текста могут быть каналы из социальных сетей, отзывы клиентов об отелях, фильмах и т. д., отзывы пользователей, новости, электронные письма с жалобами клиентов и т. д.
Знание того, о чем говорят люди, и понимание их вопросов и мнений чрезвычайно важно для бизнеса, менеджеров и политических активистов. И трудно вручную читать такой большой объем текста и определять темы.
Поэтому необходим автоматический алгоритм, способный читать текстовые документы и автоматически выводить обсуждаемые темы.
В этом уроке мы возьмем реальный пример из набора данных «20 групп новостей» и используем LDA для извлечения тем естественного обсуждения.
Я буду использовать скрытое распределение Дирихле (LDA) из пакета Gensim вместе с реализацией Mallet (через Gensim). Маллет эффективно реализует LDA. Известно, что он работает быстрее и обеспечивает лучшую изоляцию тем.
Мы также извлечем числовой и процентный вклад каждой темы, чтобы понять важность темы.
Давайте начнем!
Тематическое моделирование в Python с помощью Gensim. Фотография: Джереми Бишоп.
2. Предварительные условия — Загрузите стоп-слова nltk и пространственную модель.
Нам нужно от НЛТКstopwords
и просторныйen
Модель выполняет предварительную обработку текста. Позже мы будем использовать пространственную модель для лемматизации.
Лемматизация — это не что иное, как преобразование слова в корень. Например: Лемма слова «машина» — «машина». Аналогично, «прогулка» -> «прогулка», «мышь» -> «мышь» и т. д.
# Run in python console
import nltk; nltk.download('stopwords')
# Run in terminal or command prompt
python3 -m spacy download en
3. Импортируйте пакет
Основные пакеты, используемые в этом руководствеre
,gensim
,spacy
иpyLDAvis
. В дополнение к этому мы также будем использоватьmatplotlib
,numpy
а такжеpandas
Офис данных
управление и визуализация. Давайте импортируем их.
import re
import numpy as np
import pandas as pd
from pprint import pprint
# Gensim
import gensim
import gensim.corpora as corpora
from gensim.utils import simple_preprocess
from gensim.models import CoherenceModel
# spacy for lemmatization
import spacy
# Plotting tools
import pyLDAvis
import pyLDAvis.gensim # don't skip this
import matplotlib.pyplot as plt
%matplotlib inline
# Enable logging for gensim - optional
import logging
logging.basicConfig(format='%(asctime)s : %(levelname)s : %(message)s', level=logging.ERROR)
import warnings
warnings.filterwarnings("ignore",category=DeprecationWarning)
4. Что делает LDA?
Подход LDA к моделированию тем заключается в том, чтобы рассматривать каждый документ как набор тем в определенном масштабе. И каждая тема используется как набор ключевых слов, которые опять-таки составляют тему в определенной пропорции.
Как только вы предоставляете алгоритму количество тем, он перестраивает распределение тем в документе и распределение ключевых слов в теме, чтобы получить хорошую комбинацию распределения тем и ключевых слов.
Когда я говорю субъект, что это на самом деле и как оно представлено?
Тема — это не что иное, как набор доминирующих ключевых слов, которые обычно представлены. Просто взглянув на ключевые слова, вы можете определить, о чем тема.
Вот ключевые факторы для получения хорошей изолированной темы:
Качество обработки текста.
Различные темы, о которых говорится в тексте.
Выбор алгоритмов тематического моделирования.
Количество тем, предоставленных алгоритму.
Настройка параметров алгоритма.
5. Подготовьте ключевые слова
Мы загрузили стоп-слова. Давайте импортируем их и сделаем доступнымиstop_words
.
# NLTK Stop words
from nltk.corpus import stopwords
stop_words = stopwords.words('english')
stop_words.extend(['from', 'subject', 're', 'edu', 'use'])
6. Импорт данных группы новостей
Для этого упражнения мы будем использовать набор данных из 20 групп новостей. Эта версия набора данных содержит около 11 000 сообщений в группах новостей по 20 различным темам. Это доступно как newsgroups.json.
Это импортируется с использованиемpandas.read_json
, результирующий набор данных имеет 3 столбца, как показано.
# Import Dataset
df = pd.read_json('https://raw.githubusercontent.com/selva86/datasets/master/newsgroups.json')
print(df.target_names.unique())
df.head()
['rec.autos' 'comp.sys.mac.hardware' 'rec.motorcycles' 'misc.forsale'
'comp.os.ms-windows.misc' 'alt.atheism' 'comp.graphics'
'rec.sport.baseball' 'rec.sport.hockey' 'sci.electronics' 'sci.space'
'talk.politics.misc' 'sci.med' 'talk.politics.mideast'
'soc.religion.christian' 'comp.windows.x' 'comp.sys.ibm.pc.hardware'
'talk.politics.guns' 'talk.religion.misc' 'sci.crypt']
20 наборов данных групп новостей
7. Удалите электронные письма и разрывы строк
Как видите, писем много, разрывы строк и лишние пробелы очень отвлекают. Избавимся от них с помощью регулярных выражений.
# Convert to list
data = df.content.values.tolist()
# Remove Emails
data = [re.sub('\S*@\S*\s?', '', sent) for sent in data]
# Remove new line characters
data = [re.sub('\s+', ' ', sent) for sent in data]
# Remove distracting single quotes
data = [re.sub("\'", "", sent) for sent in data]
pprint(data[:1])
['From: (wheres my thing) Subject: WHAT car is this!? Nntp-Posting-Host: '
'rac3.wam.umd.edu Organization: University of Maryland, College Park Lines: '
'15 I was wondering if anyone out there could enlighten me on this car I saw '
'the other day. It was a 2-door sports car, looked to be from the late 60s/ '
'early 70s. It was called a Bricklin. The doors were really small. In '
'addition, the front bumper was separate from the rest of the body. This is '
'all I know. (..truncated..)]
После удаления электронной почты и лишних пробелов текст по-прежнему выглядит беспорядочно. Он не готов к потреблению LDA. Вам нужно разбить каждое предложение на список слов с помощью токенизации, при этом очищая весь беспорядок в процессе.
Gensim помогает в этомsimple_preprocess
.
8. Отметьте слова и очистите текст
Разметим каждое предложение как список слов, полностью удалив знаки препинания и ненужные символы.
Gensim помогает в этомsimple_preprocess()
. Кроме того, я установилdeacc=True
Удалить знаки препинания.
def sent_to_words(sentences):
for sentence in sentences:
yield(gensim.utils.simple_preprocess(str(sentence), deacc=True)) # deacc=True removes punctuations
data_words = list(sent_to_words(data))
print(data_words[:1])
[['from', 'wheres', 'my', 'thing', 'subject', 'what', 'car', 'is', 'this', 'nntp', 'posting', 'host', 'rac', 'wam', 'umd', 'edu', 'organization', 'university', 'of', 'maryland', 'college', 'park', 'lines', 'was', 'wondering', 'if', 'anyone', 'out', 'there', 'could', 'enlighten', 'me', 'on', 'this', 'car', 'saw', 'the', 'other', 'day', (..truncated..))]]
9. Создайте модели биграмм и триграмм
Биграммы — это два слова, которые часто встречаются в документах. Триграммы — это 3 слова, которые часто встречаются.
Вот некоторые из наших примеров: «front_bumper», «oil_leak», «maryland_college_park» и т. д.
ГенсимPhrases
Модели могут строить и реализовывать биграммы, триграммы, квадрограммы и т. д. Два важных аргументаPhrases
даmin_count
иthreshold
. Чем выше значение этих параметров, тем сложнее объединить слова в биграммы.
# Build the bigram and trigram models
bigram = gensim.models.Phrases(data_words, min_count=5, threshold=100) # higher threshold fewer phrases.
trigram = gensim.models.Phrases(bigram[data_words], threshold=100)
# Faster way to get a sentence clubbed as a trigram/bigram
bigram_mod = gensim.models.phrases.Phraser(bigram)
trigram_mod = gensim.models.phrases.Phraser(trigram)
# See trigram example
print(trigram_mod[bigram_mod[data_words[0]]])
['from', 'wheres', 'my', 'thing', 'subject', 'what', 'car', 'is', 'this', 'nntp_posting_host', 'rac_wam_umd_edu', 'organization', 'university', 'of', 'maryland_college_park', 'lines', 'was', 'wondering', 'if', 'anyone', 'out', 'there', 'could', 'enlighten', 'me', 'on', 'this', 'car', 'saw', 'the', 'other', 'day', 'it', 'was', 'door', 'sports', 'car', 'looked', 'to', 'be', 'from', 'the', 'late', 'early', 'it', 'was', 'called', 'bricklin', 'the', 'doors', 'were', 'really', 'small', 'in', 'addition', 'the', 'front_bumper' (..truncated..)]
10. Удаляем стоп-слова, делаем биграммы и лемматизируем
Модель из двух слов готова. Определим функции для удаления стоп-слов, создания биграмм и лемматизаций и вызовем их последовательно.
# Define functions for stopwords, bigrams, trigrams and lemmatization
def remove_stopwords(texts):
return [[word for word in simple_preprocess(str(doc)) if word not in stop_words] for doc in texts]
def make_bigrams(texts):
return [bigram_mod[doc] for doc in texts]
def make_trigrams(texts):
return [trigram_mod[bigram_mod[doc]] for doc in texts]
def lemmatization(texts, allowed_postags=['NOUN', 'ADJ', 'VERB', 'ADV']):
"""https://spacy.io/api/annotation"""
texts_out = []
for sent in texts:
doc = nlp(" ".join(sent))
texts_out.append([token.lemma_ for token in doc if token.pos_ in allowed_postags])
return texts_out
Мы вызываем эти функции последовательно.
# Remove Stop Words
data_words_nostops = remove_stopwords(data_words)
# Form Bigrams
data_words_bigrams = make_bigrams(data_words_nostops)
# Initialize spacy 'en' model, keeping only tagger component (for efficiency)
# python3 -m spacy download en
nlp = spacy.load('en', disable=['parser', 'ner'])
# Do lemmatization keeping only noun, adj, vb, adv
data_lemmatized = lemmatization(data_words_bigrams, allowed_postags=['NOUN', 'ADJ', 'VERB', 'ADV'])
print(data_lemmatized[:1])
[['where', 's', 'thing', 'car', 'nntp_post', 'host', 'rac_wam', 'umd', 'organization', 'university', 'maryland_college', 'park', 'line', 'wonder', 'anyone', 'could', 'enlighten', 'car', 'see', 'day', 'door', 'sport', 'car', 'look', 'late', 'early', 'call', 'bricklin', 'door', 'really', 'small', 'addition', 'front_bumper', 'separate', 'rest', 'body', 'know', 'anyone', 'tellme', 'model', 'name', 'engine', 'spec', 'year', 'production', 'car', 'make', 'history', 'whatev', 'info', 'funky', 'look', 'car', 'mail', 'thank', 'bring', 'neighborhood', 'lerxst']]
11. Создайте словари и корпуса, необходимые для тематического моделирования
Двумя основными входными данными для тематической модели LDA являются словари (id2word
) и корпус. Давайте создадим их.
# Create Dictionary
id2word = corpora.Dictionary(data_lemmatized)
# Create Corpus
texts = data_lemmatized
# Term Document Frequency
corpus = [id2word.doc2bow(text) for text in texts]
# View
print(corpus[:1])
[[(0, 1), (1, 2), (2, 1), (3, 1), (4, 1), (5, 1), (6, 5), (7, 1), (8, 1), (9, 2), (10, 1), (11, 1), (12, 1), (13, 1), (14, 1), (15, 1), (16, 1), (17, 1), (18, 1), (19, 1), (20, 1), (21, 1), (22, 2), (23, 1), (24, 1), (25, 1), (26, 1), (27, 1), (28, 1), (29, 1), (30, 1), (31, 1), (32, 1), (33, 1), (34, 1), (35, 1), (36, 1), (37, 1), (38, 1), (39, 1), (40, 1), (41, 1), (42, 1), (43, 1), (44, 1), (45, 1), (46, 1), (47, 1), (48, 1), (49, 1), (50, 1)]]
Gensim создает уникальный идентификатор для каждого слова в документе. Результирующий корпус, показанный выше, представляет собой карту (word_id, word_frequency).
Например, (0,1) выше означает, что слово с идентификатором 0 встречается один раз в первом документе. Точно так же слово с идентификатором 1 появляется дважды и так далее.
Это используется в качестве входных данных для модели LDA.
Если вы хотите увидеть слово, соответствующее данному идентификатору, передайте идентификатор в качестве ключа словарю.
id2word[0]
'addition'
Кроме того, вы можете увидеть удобочитаемую форму самого корпуса.
# Human readable format of corpus (term-frequency)
[[(id2word[id], freq) for id, freq in cp] for cp in corpus[:1]]
[[('addition', 1), ('anyone', 2), ('body', 1), ('bricklin', 1), ('bring', 1), ('call', 1), ('car', 5), ('could', 1), ('day', 1), ('door', 2), ('early', 1), ('engine', 1), ('enlighten', 1), ('front_bumper', 1), ('maryland_college', 1), (..truncated..)]]
Хорошо, давайте вернемся к следующему шагу: построению тематической модели.
12. Создавайте тематические модели
У нас есть все необходимое для обучения модели LDA. В дополнение к корпусу и словарю вам также необходимо указать количество тем.
Кроме,alpha
иeta
Гиперпараметры, влияющие на разреженность темы. Согласно документации Gensim, по умолчанию используется значение до 1.0/num_topics.
chunksize
– количество документов, используемых в каждом обучающем блоке.update_every
определить, как часто параметры модели должны обновляться, иpasses
Общее количество тренировочных проходов.
# Build LDA model
lda_model = gensim.models.ldamodel.LdaModel(corpus=corpus,
id2word=id2word,
num_topics=20,
random_state=100,
update_every=1,
chunksize=100,
passes=10,
alpha='auto',
per_word_topics=True)
13. Просмотр тем в модели LDA
Вышеупомянутая модель LDA построена из 20 различных тем, где каждая тема представляет собой комбинацию ключевых слов, и каждое ключевое слово придает теме определенный вес.
Вы можете увидеть ключевые слова для каждой темы и вес (важность) каждого ключевого слова,lda_model.print_topics()
Следующее.
# Print the Keyword in the 10 topics
pprint(lda_model.print_topics())
doc_lda = lda_model[corpus]
[(0,
'0.016*"car" + 0.014*"power" + 0.010*"light" + 0.009*"drive" + 0.007*"mount" '
'+ 0.007*"controller" + 0.007*"cool" + 0.007*"engine" + 0.007*"back" + '
'0.006*"turn"'),
(1,
'0.072*"line" + 0.066*"organization" + 0.037*"write" + 0.032*"article" + '
'0.028*"university" + 0.027*"nntp_post" + 0.026*"host" + 0.016*"reply" + '
'0.014*"get" + 0.013*"thank"'),
(2,
'0.017*"patient" + 0.011*"study" + 0.010*"slave" + 0.009*"wing" + '
'0.009*"disease" + 0.008*"food" + 0.008*"eat" + 0.008*"pain" + '
'0.007*"treatment" + 0.007*"syndrome"'),
(3,
'0.013*"key" + 0.009*"use" + 0.009*"may" + 0.007*"public" + 0.007*"system" + '
'0.007*"order" + 0.007*"government" + 0.006*"state" + 0.006*"provide" + '
'0.006*"law"'),
(4,
'0.568*"ax" + 0.007*"rlk" + 0.005*"tufts_university" + 0.004*"ei" + '
'0.004*"m" + 0.004*"vesa" + 0.004*"differential" + 0.004*"chz" + 0.004*"lk" '
'+ 0.003*"weekly"'),
(5,
'0.029*"player" + 0.015*"master" + 0.015*"steven" + 0.009*"tor" + '
'0.009*"van" + 0.008*"king" + 0.008*"scripture" + 0.007*"cal" + '
'0.007*"helmet" + 0.007*"det"'),
(6,
'0.028*"system" + 0.020*"problem" + 0.019*"run" + 0.018*"use" + 0.016*"work" '
'+ 0.015*"do" + 0.013*"window" + 0.013*"driver" + 0.013*"bit" + 0.012*"set"'),
(7,
'0.017*"israel" + 0.011*"israeli" + 0.010*"war" + 0.010*"armenian" + '
'0.008*"kill" + 0.008*"soldier" + 0.008*"attack" + 0.008*"government" + '
'0.007*"lebanese" + 0.007*"greek"'),
(8,
'0.018*"money" + 0.018*"year" + 0.016*"pay" + 0.012*"car" + 0.010*"drug" + '
'0.010*"president" + 0.009*"rate" + 0.008*"face" + 0.007*"license" + '
'0.007*"american"'),
(9,
'0.028*"god" + 0.020*"evidence" + 0.018*"christian" + 0.012*"believe" + '
'0.012*"reason" + 0.011*"faith" + 0.009*"exist" + 0.008*"bible" + '
'0.008*"religion" + 0.007*"claim"'),
(10,
'0.030*"physical" + 0.028*"science" + 0.012*"direct" + 0.012*"st" + '
'0.012*"scientific" + 0.009*"waste" + 0.009*"jeff" + 0.008*"cub" + '
'0.008*"brown" + 0.008*"msg"'),
(11,
'0.016*"wire" + 0.011*"keyboard" + 0.011*"md" + 0.009*"pm" + 0.008*"air" + '
'0.008*"input" + 0.008*"fbi" + 0.007*"listen" + 0.007*"tube" + '
'0.007*"koresh"'),
(12,
'0.016*"motif" + 0.014*"serial_number" + 0.013*"son" + 0.013*"father" + '
'0.011*"choose" + 0.009*"server" + 0.009*"event" + 0.009*"value" + '
'0.007*"collin" + 0.007*"prediction"'),
(13,
'0.098*"_" + 0.043*"max" + 0.015*"dn" + 0.011*"cx" + 0.009*"eeg" + '
'0.008*"gateway" + 0.008*"c" + 0.005*"mu" + 0.005*"mr" + 0.005*"eg"'),
(14,
'0.024*"book" + 0.009*"april" + 0.007*"group" + 0.007*"page" + '
'0.007*"new_york" + 0.007*"iran" + 0.006*"united_state" + 0.006*"author" + '
'0.006*"include" + 0.006*"club"'),
(15,
'0.020*"would" + 0.017*"say" + 0.016*"people" + 0.016*"think" + 0.014*"make" '
'+ 0.014*"go" + 0.013*"know" + 0.012*"see" + 0.011*"time" + 0.011*"get"'),
(16,
'0.026*"file" + 0.017*"program" + 0.012*"window" + 0.012*"version" + '
'0.011*"entry" + 0.011*"software" + 0.011*"image" + 0.011*"color" + '
'0.010*"source" + 0.010*"available"'),
(17,
'0.027*"game" + 0.027*"team" + 0.020*"year" + 0.017*"play" + 0.016*"win" + '
'0.010*"good" + 0.009*"season" + 0.008*"fan" + 0.007*"run" + 0.007*"score"'),
(18,
'0.036*"drive" + 0.024*"card" + 0.020*"mac" + 0.017*"sale" + 0.014*"cpu" + '
'0.010*"price" + 0.010*"disk" + 0.010*"board" + 0.010*"pin" + 0.010*"chip"'),
(19,
'0.030*"space" + 0.010*"sphere" + 0.010*"earth" + 0.009*"item" + '
'0.008*"launch" + 0.007*"moon" + 0.007*"mission" + 0.007*"nasa" + '
'0.007*"orbit" + 0.006*"research"')]怎么解释这个?
Тема 0 представлена как _0.016
Это означает, что первые 10 ключевых слов, относящихся к этой теме, включают: «автомобиль», «мощность», «свет» и т. д., а вес слова «автомобиль» в теме 0 составляет 0,016.
Вес показывает, насколько важно ключевое слово для темы.
Глядя на эти ключевые слова, вы можете догадаться, что это за тема? Вы можете резюмировать это как «автомобиль» или «автомобиль».
Аналогичным образом, можете ли вы просмотреть оставшиеся ключевые слова темы и выяснить, что это за тема?
Вывод тем по ключевым словам
14. Сложность вычислительной модели и оценка согласованности
Сложность модели и согласованность тем обеспечивают удобный способ оценить, насколько хороша или плоха данная тематическая модель. По моему опыту, более полезными, в частности, являются оценки согласованности темы.
# Compute Perplexity
print('\nPerplexity: ', lda_model.log_perplexity(corpus)) # a measure of how good the model is. lower the better.
# Compute Coherence Score
coherence_model_lda = CoherenceModel(model=lda_model, texts=data_lemmatized, dictionary=id2word, coherence='c_v')
coherence_lda = coherence_model_lda.get_coherence()
print('\nCoherence Score: ', coherence_lda)
Perplexity: -8.86067503009
Coherence Score: 0.532947587081
У вас показатель согласованности 0,53.
15. Визуальные темы - ключевые слова
Теперь, когда модель LDA построена, следующим шагом будет изучение сгенерированных тем и связанных ключевых слов. Нет лучшего инструмента, чем интерактивные диаграммы пакета pyLDAvis, предназначенные для работы с ноутбуками Jupyter.
# Visualize the topicspyLDAvis.enable_notebook()vis = pyLDAvis.gensim.prepare(lda_model, corpus, id2word)vis
Выход ПИЛДАВИС
Итак, как сделать вывод о выводе pyLDAvis?
Каждый кружок на изображении слева представляет собой тему. Чем больше пузырь, тем более распространена тема.
Хорошая тематическая модель будет иметь довольно большие неперекрывающиеся кружки, разбросанные по всей диаграмме, а не сгруппированные в одном квадранте.
Модели со слишком большим количеством тем часто имеют много перекрывающихся пузырьков небольшого размера, сгруппированных в одной области диаграммы.
Что ж, если вы наведете курсор на один из пузырьков, слово и полоса справа обновятся. Эти слова являются видными ключевыми словами, которые составляют выбранную тему.
Мы успешно построили хорошую модель темы.
Найти лучшую модель несложно, учитывая наше предварительное знание количества естественных тем в документе.
Остальная часть главы продолжается. . .
Посмотреть другие статьи: www.apexyun.com
Общедоступный номер: Galaxy № 1
Контактный адрес электронной почты: public@space-explore.com
(Пожалуйста, не перепечатывайте без разрешения)