Это 4-й день моего участия в ноябрьском испытании обновлений.Подробности о событии:Вызов последнего обновления 2021 г.
StructBERT
StructBERT: Incorporating Language Structures into Pre-training for Deep Language Understanding
StructBERT — это усовершенствование BERT от Alibaba.Модель добилась хороших результатов и в настоящее время занимает второе место в рейтинге GLUE.
Во-первых, давайте посмотрим на следующие два предложения на английском и китайском языках.
i tinhk yuo undresatnd this sentneces.
Исследования показали, что порядок китайских иероглифов не обязательно влияет на чтение. Например, когда вы читаете это предложение, вы понимаете, что все слова в нем перепутаны.
На самом деле два приведенных выше предложения не по порядку.
Отсюда идея улучшения structBERT. Для человека порядок слов или символов не влияет на чтение, а модель та же, хороший ЛМ должен уметь исправлять собственные ошибки.
Архитектура модели StructBERT такая же, как у BERT, и ее улучшение заключается в добавлении двух новых целей предварительной подготовки в случае существующих задач MLM и NSP:Word Structural ObjectiveиSentence Structural Objective
Word Structural Objective
Произвольно выберите частичные подпоследовательности из разоблаченной последовательности (используя гиперпараметрычтобы определить длину подпоследовательности), перетасуйте порядок слов в подпоследовательности и дайте модели восстановить исходный порядок слов
в,Представляет параметры модели, желаемый результат состоит в том, чтобы восстановить подпоследовательность в правильном порядке с наибольшей вероятностью.
- Larger , модель должна научиться восстанавливать больше данных о помехах, задача сложная
- Smaller , модель должна научиться восстанавливать менее зашумленные данные, задача проста
Наборы бумаги, Это лучше для эффекта одного задания предложений
Sentence Structural Objective
Учитывая пару предложений (S1, S2), определите, что S2 является следующим предложением, предыдущим предложением и несвязанным предложением S1 (задача трех категорий)
При выборке для предложения SВероятность выборки следующего предложения S составляет пару предложений,Вероятность выборки предыдущего предложения S,Вероятность случайной выборки предложений из другого документа для формирования пар предложений
Ablation Studies
Авторы проводят исследования абляции двух предложенных предтренировочных задач, чтобы проверить эффективность каждой задачи.
Как показано на рисунке выше, эти две задачи сильно влияют на производительность большинства нижестоящих задач (кроме SNLI).
- Первые три задания состоят из одного предложения, и видно, что на них большое влияние оказывает Word Structural Objective.
- Последние три представляют собой задания на пары предложений, и видно, что Sentence Structural Obejctive оказывает на них большое влияние.
постскриптум
Жаль, что автор поискал на github и не смог найти предварительно обученную модель StructBERT