Бог снова вышел! Хэ Вэй, 2-я премия ICCV 2017 за лучшую статью!

искусственный интеллект дизайн Microsoft Facebook
Бог снова вышел! Хэ Вэй, 2-я премия ICCV 2017 за лучшую статью!

Бог есть Бог в конце концов!

Только что AI Technology Base Camp узнал, что после двукратного получения награды CVPR за лучшую статью две последние статьи, в которых участвовал Хэ Юмин, получили две награды ICCV 2017 за лучшую статью и лучшую студенческую работу соответственно.

Двумя работами-победителями являются «Mask R-CNN», выпущенная в апреле этого года, и «Focal Loss for Dense Object Detection», выпущенная в августе этого года, обе из которых были выпущены в этом году с разницей всего в 4 месяца. Вы должны знать, что ICCV — одна из топовых конференций в области компьютерного зрения, и она проводится раз в два года, а Хэ Юмин — первый и четвертый автор двух статей, что достаточно, чтобы доказать его силу.

Ниже приводится введение в две отмеченные наградами статьи AI Technology Base Camp:

источник: Зная

Введение в статью:Мы предлагаем простую, гибкую и общую структуру сегментации экземпляров объектов. Наш метод эффективно обнаруживает объекты на изображениях, создавая высококачественные маски сегментации для каждого экземпляра. Этот метод, называемый Mask R-CNN, расширяет Faster R-CNN, добавляя ветвь для прогнозирования масок объектов, которая работает параллельно с существующей ветвью для распознавания ограничивающей рамки. Mask R-CNN прост в обучении с небольшими накладными расходами поверх Faster R-CNN, работающего со скоростью 5 кадров в секунду. Кроме того, Mask R-CNN легко обобщить на другие задачи, например, он может позволить оценку позы в той же структуре. Мы достигаем самых современных результатов по трем орбитальным задачам из серии задач COCO, включая сегментацию экземпляров, обнаружение граничных объектов и обнаружение ключевых точек человека. Безо всяких ухищрений Mask R-CNN превосходит все существующие одномодельные результаты, включая победителя конкурса COCO 2016.

Адрес бумаги:АР Вест V.org/ABS/1703.06…

источник: Зная

Введение в статью:Наиболее точные детекторы объектов сегодня используют двухэтапный подход, обычно используемый в R-CNN, который применяет классификатор к разреженному набору местоположений объектов-кандидатов. Напротив, одноэтапные детекторы применяются к регулярному плотному набору выборок возможных местоположений объектов, они быстрее и проще, но уступают двухэтапным детекторам по точности. В этой статье мы исследуем причины этого явления.

Мы обнаружили, что основной причиной этого явления является серьезный дисбаланс классов переднего плана и фона во время обучения детекторов плотных объектов. Наше решение этого дисбаланса классов состоит в том, чтобы изменить стандартную кросс-энтропийную потерю так, чтобы она уменьшила вес потери для хорошо классифицированных выборок. Focal Loss сосредотачивает обучение на разреженном наборе жестких образцов и предотвращает перегрузку детектора большим количеством простых отрицательных образцов во время обучения. Чтобы оценить эффективность этой потери, мы разрабатываем и обучаем простой детектор плотных объектов — RetinaNet. Экспериментальные результаты показывают, что при обучении с помощью Focal Loss RetinaNet может не только догнать по скорости обнаружения одноэтапные детекторы, но и превзойти по точности все современные двухэтапные детекторы.

Мы предлагаем новую функцию потерь, Focal Loss, которая добавляет коэффициент (1-pt) γ к стандартному кросс-энтропийному критерию. Установка γ > 0 уменьшает относительную потерю хорошо классифицированных выборок (pt > 0,5), позволяя модели больше сосредоточиться на сложных ошибочно классифицированных выборках. Эксперименты показывают, что предлагаемая нами функция Focal Loss может обучать детекторы плотных объектов с высокой точностью при наличии большого количества простых фоновых примеров.

Для получения подробной информации см. статью о базовом лагере технологии ИИ: "Команда Хэ Юмина предложила Focal Loss, точность обнаружения цели достигает 39,1 AP, побив существующий рекорд.".

Чемпион открытых вступительных экзаменов в колледж

На самом деле, это не первый раз, когда Хэ Юймин демонстрирует свою способность вешать трубку.

В 2003 году Хэ Юймин поступила в Университет Цинхуа как победитель вступительных экзаменов в научный колледж в провинции Гуандун.

В 2009 году на конференции CVPR, проведенной IEEE, первая статья Хэ Юминга «Удаление дымки одиночного изображения с использованием предварительного темного канала», который все еще был стажером в Азиатском исследовательском институте Microsoft (MSRA), выиграла лучшую статью и выиграла лучший документ. В свое время награду выиграла команда, полностью состоящая из китайцев.

В 2016 году еще одна статья «Глубокое остаточное обучение для распознавания изображений», написанная командой Хэ Юмина, снова получила награду CVPR за лучшую статью.

В августе того же года Хэ Юмин покинул MSRA и присоединился к FAIR (Facebook AI Research) в качестве ученого.

После прихода в Facebook Хэ Юмин сразу же стал основным участником Faster R-CNN и Mask R-CNN, и периода адаптации не было вообще.

Сегодня Хэ Юймин снова стал победителем в номинации «Лучшая работа ICCV», еще раз увеличив разрыв с обычными людьми, такими как я, который находится за пределами досягаемости людей.

Тем не менее, это не самое безнадежное, посмотрите на Weibo Хэ Юмина, путешествуйте, играйте в игры ... все не отстали. Так что великий бог есть великий бог!

Что вы думаете, читатели? Добро пожаловать, чтобы оставить сообщение в области комментариев.