bert+seq2seq Чжоу Гун интерпретирует сны, посмотрите, как ИИ интерпретирует ваши сны?

NLP

Код для этой статьи:GitHub.com/Иностранный язык…

вводить

В участвующих проектах и ​​продуктах задействованы требования моделей и алгоритмов, в основном, в обработке естественного языка (NLP) и граф знаний (KG) в качестве основного.NLPОбласть применения слишком широка, и требуется много работы, чтобы сосредоточиться на конкретных сценариях.

В качестве основного направления НЛП в проекте применен анализ настроений, мультиклассификация текста, распознавание сущностей и т.д. Например

  • Благодаря распознаванию юридических лиц извлекаются компании, физические лица и финансовые продукты, упомянутые в тексте.
  • С помощью анализа настроений определить, полезна ли новостная информация для упомянутых компаний и отдельных лиц?
  • С помощью текстовой мультиклассификации, чтобы судить о том, является ли информация высокого качества? Определить отрасль и тему информации?

Пожалуйста, найдите время, чтобы поделиться конкретными подробностями. Во время генерации текста последовательность к последовательности (Sequence to Sequence) имеет широкий спектр приложений в машинном переводе, системах ответов на вопросы и чат-роботах и ​​не участвовал в проектах-участниках.tensorflow+bert+seq2seqВнедрите простую модель ответов на вопросы, направленную наseq2seqпонимания и знакомства.

данные

оseq2seqизdemoЕсть много данных, таких как корпус чата Xiaohuangji, корпус фильмов и телевидения, корпус переводов и так далее. Поскольку в последнее время мне снятся странные сны, я подумал о том, чтобы сделать приложение для толкования снов с помощью ИИ.just for fun.

Собирайте из Интернета, собирая周公解梦Данные, путем очистки, формы

  • сон: сон;
  • расшифровать: Результат разбора сна.

Такие пары последовательностей, всего 33000+ записей.набор данных

{
    "dream": "梦见商人或富翁",
    "decode": "是个幸运的预兆,未来自己的事业很有机会成功,不过如果梦中的富翁是自己,则是一个凶兆。。"
}

Подготовка модели

bert

скачатьbert

$ git clone https://github.com/google-research/bert.git

Скачать китайскую предварительно обученную модель

$ wget -c https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip
$ unzip chinese_L-12_H-768_A-12.zip 

bert + seq2seq

bertизinput:

    
self.input_ids = tf.placeholder(
    dtype=tf.int32,
    shape=[None, None],
    name="input_ids"
)
self.input_mask = tf.placeholder(
    dtype=tf.int32,
    shape=[None, None],
    name="input_mask"
)
self.segment_ids = tf.placeholder(
    dtype=tf.int32,
    shape=[None, None],
    name="segment_ids"
)
self.dropout = tf.placeholder(
    dtype=tf.float32,
    shape=None,
    name="dropout"
)

bertизmodel :

self.bert_config = modeling.BertConfig.from_json_file(bert_config)
    model = modeling.BertModel(
        config=self.bert_config,
        is_training=self.is_training,
        input_ids=self.input_ids,
        input_mask=self.input_mask,
        token_type_ids=self.segment_ids,
        use_one_hot_embeddings=False
    )

seq2seqизencoder_embeddingзаменять:

# 默认seq2seq model_inputs
# self.encoder_embedding = tf.Variable(tf.random_uniform([from_dict_size, embedded_size], -1, 1),name ="encoder_embedding")
# self.model_inputs = tf.nn.embedding_lookup(self.encoder_embedding, self.X),
#  替换成bert
self.embedded = model.get_sequence_output()
self.model_inputs = tf.nn.dropout(self.embedded, self.dropout)

seq2seqизdecoder_embeddingзаменять:

# 默认seq2seq decoder_embedding
# self.decoder_embedding = tf.Variable(tf.random_uniform([to_dict_size, embedded_size], -1, 1),name="decoder_embedding")
#  替换成bert
self.decoder_embedding = model.get_embedding_table()
self.decoder_input = tf.nn.embedding_lookup(self.decoder_embedding, decoder_input),

предварительная обработка данных

for i in range(len(inputs)):
    tokens = inputs[i]
    inputs_ids = model.tokenizer.convert_tokens_to_ids(inputs[i])
    segment_ids = [0] * len(inputs_ids)
    input_mask = [1] * len(inputs_ids)
    tag_ids = model.tokenizer.convert_tokens_to_ids(outputs[i])
    data.append([tokens, tag_ids, inputs_ids, segment_ids, input_mask])
    

def pad_data(data):
    c_data = copy.deepcopy(data)
    max_x_length = max([len(i[0]) for i in c_data])
    max_y_length = max([len(i[1]) for i in c_data]) 
    # 这里生成的序列的tag-id 和 input-id 长度要分开
    # print("max_x_length : {} ,max_y_length : {}".format( max_x_length,max_y_length))
    padded_data = []
    for i in c_data:
        tokens, tag_ids, inputs_ids, segment_ids, input_mask = i
        tag_ids = tag_ids + (max_y_length - len(tag_ids)) * [0]
        # 注意tag-ids 的长度补充,和预测的序列长度一致。
        inputs_ids = inputs_ids + (max_x_length - len(inputs_ids)) * [0]
        segment_ids = segment_ids + (max_x_length - len(segment_ids)) * [0]
        input_mask = input_mask + (max_x_length - len(input_mask)) * [0]
        assert len(inputs_ids) == len(segment_ids) == len(input_mask)
        padded_data.append(
            [tokens, tag_ids, inputs_ids, segment_ids, input_mask]
        )
    return padded_data

тренироваться

$ python3 model.py --task=train \
    --is_training=True \
    --epoch=100 \
    --size_layer=256 \
    --bert_config=chinese_L-12_H-768_A-12/bert_config.json \
    --vocab_file=chinese_L-12_H-768_A-12/vocab.txt \
    --num_layers=2 \
    --learning_rate=0.001 \
    --batch_size=16 \
    --checkpoint_dir=result

15744775485612.jpg

предсказывать

$ python3 model.py --task=predict \
        --is_training=False \
        --epoch=100 \
        --size_layer=256 \
        --bert_config=chinese_L-12_H-768_A-12/bert_config.json \
        --vocab_file=chinese_L-12_H-768_A-12/vocab.txt \
        --num_layers=2 \
        --learning_rate=0.001 \
        --batch_size=16 \
        --checkpoint_dir=result

15745175850857.jpg

Just For Fun ^_^

Код для этой статьи:GitHub.com/Иностранный язык…