Измерение гендерной корреляции в предварительно обученных моделях НЛП

машинное обучение глубокое обучение
Измерение гендерной корреляции в предварительно обученных моделях НЛП

Видео введение:Измерение гендерной корреляции в предварительно обученных моделях НЛП

Обработка естественного языка (NLP) добилась значительного прогресса за последние несколько лет: предварительно обученные модели, такие как BERT, ALBERT, ELECTRA и XLNet, достигли необычайной точности в различных задачах. При предварительном обучении репрезентации изучаются из большого массива текстов (такого как Википедия) путем многократного маскирования слов и попыток их предсказания (это называется моделированием маскированного языка). Полученные представления кодируют богатую информацию о корреляции между языком и понятиями, такими как хирурги и скальпели. Затем наступает второй этап обучения, точная настройка, на котором модель использует обучающие данные для конкретной задачи, чтобы узнать, как использовать общее предварительно обученное представление для выполнения конкретной задачи, такой как классификация. Учитывая, что эти представления широко используются во многих задачах НЛП, очень важно понимать закодированную в них информацию и то, как любые изученные корреляции влияют на производительность последующего потока, чтобы гарантировать, что применение этих моделей соответствует нашим принципам ИИ.

В разделе «Измерение и сокращение гендерных корреляций в предварительно обученных моделях» мы проводим тематическое исследование BERT и его аналога ALBERT с низким объемом памяти, исследуем гендерные корреляции и разрабатываем серию экспериментов с использованием предварительно обученных языковых моделей. Мы представляем экспериментальные результаты на общедоступных контрольных точках модели и наборах данных академических задач, чтобы проиллюстрировать, как применяются передовые методы, закладывая основу для изучения параметров, выходящих за рамки этого тематического исследования. Вскоре мы выпустим Zari 1, серию контрольных точек, которые уменьшают гендерную корреляцию, сохраняя при этом современную точность стандартных метрик задач НЛП.

измерять корреляцию

Чтобы понять, как корреляции в предварительно обученных представлениях влияют на выполнение последующих задач, мы применяем разнообразный набор показателей оценки для изучения гендерных представлений. Здесь мы обсуждаем результаты одного из этих тестов, основанного на анализе кореферентности, способности, которая позволяет модели понять правильный антецедент для данного местоимения в предложении. Например, в следующем предложении модель должна понимать, что это относится к медсестре, а не к пациенту.

Стандартной академической формулировкой для этой задачи является тест OntoNotes (Hovy et al., 2006), и мы используем для этих данных оценку F1 (например, Tenney et al., 2019). Поскольку OntoNotes представляет только одно распределение данных, мы также рассмотрели тест WinoGender, который предоставляет дополнительные сбалансированные данные, предназначенные для определения того, когда модельные ассоциации между полом и профессией неправильно влияют на разрешение кореферентности. Высокое значение метрики WinoGender (ближе к 1) указывает на то, что модель принимает решения на основе нормативных ассоциаций между полом и профессией (например, ассоциированная медсестра с женским полом, а не с мужским). Когда модельное решение не имело постоянной связи между полом и профессией, оценка равнялась нулю, что указывало на то, что решение было основано на некоторой другой информации, такой как структура предложения или семантика.

В этом исследовании мы видим, что ни общедоступные модели BERT, ни ALBERT (крупномасштабные) не достигают нуля на примере WinoGender, несмотря на достижение впечатляющей точности (близкой к 100%) на OntoNotes. По крайней мере, отчасти это связано с тем, что модель предпочитает гендерную корреляцию в выводах. В этом нет ничего удивительного: для понимания текста доступен целый ряд подсказок, и общая модель может уловить любой из них или все. Тем не менее, есть причина быть осторожным, поскольку модели не рекомендуется делать прогнозы, основанные в первую очередь на гендерных корреляциях, полученных априори, а не на данных, доступных во входных данных.

Лучшие практики

Учитывая, что неожиданные корреляции в представлениях предварительно обученной модели могут повлиять на последующий вывод задачи, мы теперь спрашиваем: что мы можем сделать, чтобы снизить любой риск, который это представляет при разработке новых моделей НЛП?

  • Измерение неожиданных корреляций важно: качество модели можно оценить с помощью метрик точности, но эти метрики измеряют только одно измерение производительности, особенно когда тестовые и обучающие данные поступают из одного и того же распределения. Например, точность контрольных точек BERT и ALBERT находится в пределах 1% друг от друга, но степень, в которой они используют гендерную корреляцию для разрешения кореферентности, различается на 26% (относительно). Это различие может быть важным для некоторых задач; выбор модели с низким показателем WinoGender может подойти для приложений, содержащих текст о специалистах, которые могут не соответствовать исторически сложившимся социальным нормам, например, медсестры-мужчины.
  • Будьте осторожны даже при внесении, казалось бы, безобидных изменений конфигурации.: Обучение модели нейронной сети регулируется рядом гиперпараметров, которые часто выбираются для достижения максимальной цели обучения. Хотя выбор конфигурации часто кажется безобидным, мы обнаружили, что он может привести к значительным изменениям в гендерных соотношениях, к лучшему или к худшему. Например, используйте регуляризацию отсева, чтобы уменьшить переобучение в больших моделях. Когда мы увеличили показатели отсева, используемые для предварительной подготовки BERT и ALBERT, мы увидели значительное снижение гендерной корреляции даже после тонкой настройки. Это многообещающе, потому что простые изменения конфигурации позволяют нам обучать модель с меньшим риском повреждения, но это также предполагает, что мы должны быть осторожны и тщательно оценивать при внесении любых изменений в конфигурацию модели.

  • Шансы на общую ремиссию: Еще одним следствием возможного непреднамеренного влияния отсева на гендерные корреляции является то, что он открывает возможность использования общего подхода для уменьшения неожиданных корреляций: добавив отсев в нашем исследовании, мы улучшили то, как наши модели рассуждают о примере WinoGender без указания вручную что-либо о задаче или изменении этапа тонкой настройки вообще. К сожалению, точность OntoNotes начинает падать по мере увеличения процента отсева (как мы видим в результатах BERT), но мы рады возможности смягчить это на этапе предварительной подготовки, где изменения могут привести к улучшению модели без выполнения задачи. конкретные обновления. В нашей статье мы рассматриваем аугментацию контрфактических данных как еще одну стратегию смягчения последствий с различными компромиссами.

Следующий шаг

Мы считаем, что эти передовые методы обеспечивают отправную точку для разработки надежных систем НЛП, которые хорошо работают в самом широком диапазоне языковых настроек и приложений. Конечно, одних этих методов недостаточно, чтобы выявить и устранить все потенциальные проблемы. Любая модель, развернутая в реальном мире, должна быть тщательно протестирована, принимая во внимание множество способов ее использования и внедряя меры безопасности для обеспечения этического соответствия, такие как принципы искусственного интеллекта Google. Мы с нетерпением ожидаем разработки оценочных рамок и данных, которые станут более широкими и инклюзивными, чтобы охватить множество вариантов использования языковых моделей и групп населения, для обслуживания которых они предназначены.

Инструкции по обновлению: Приоритет отдается обновлению общедоступной учетной записи WeChat «Блог дождливой ночи», а блог будет обновлен позже, а затем будет распространен на различные платформы.Если вы хотите узнать больше заранее, обратите внимание на Публичный аккаунт WeChat «Блог дождливой ночи».

Источник блога:Блог Дождливой ночи