Замена фона изображения с помощью OpenCV

машинное обучение OpenCV

1. Предыстория бизнеса

В одном из наших предприятий нам нужно «автоматически» фотографировать группы мобильных телефонов с помощью интеллектуального оборудования собственной разработки.Иногда эти фотографии необходимо заменить общим цветом фона из-за факторов освещения, а затем представить C конечный пользователь. Тогда возникает необходимость замены фона.

2. Техническая реализация

При использовании OpenCV это требование достигается за счет традиционной обработки изображений.

Вариант первый:

Первое, что приходит на ум, это использовать K-средние для выделения цвета фона.

Общие шаги таковы:

  1. Линеаризуйте данные 2D-изображения
  2. Используйте алгоритм кластеризации K-средних, чтобы выделить фоновый цвет изображения.
  3. Бинаризация фона с телефоном
  4. Используя морфологическую эрозию, алгоритм размытия по Гауссу размывает пересечение изображения и фона Размытие по Гауссу
  5. Замена цветов фона и смешивание пересечений

k- Алгоритм усреднения(Английский:kкластеризация средних значений) возникла из метода векторного квантования в обработке сигналов и в настоящее время более популярна в области интеллектуального анализа данных в качестве метода кластерного анализа.k- Цель средней кластеризации: разделить n точек (которые могут быть наблюдением или экземпляром выборки) наkВ каждом кластере каждая точка принадлежит кластеру, соответствующему ближайшему среднему (то есть центру кластера), который используется в качестве эталона кластеризации. Эта проблема сведется к проблеме разделения пространства данных на ячейки Вороного.

Идея алгоритма K-средних заключается в следующем: учитывая n точек данных {x1, x2,...,xn}, найдите K кластерных центров {a1, a2,..., aK}, чтобы каждая точка данных была ближайший к нему кластер Сумма квадратов расстояний от центра является наименьшей, и эта сумма квадратов расстояний называется целевой функцией, обозначается как Wn, и ее математическое выражение имеет вид:

K-means.png

Основной процесс алгоритма K-средних:

  1. Исходные центры кластера K.
  2. Все образцы классифицируются по удаленности от центра кластера.
  3. Пересчитайте центр кластера, чтобы определить, следует ли выйти из условия: Расстояние между центрами двух кластеров достаточно мало, чтобы выполнить условие выхода; Если вы не выходите, вернитесь к шагу 2.
int main() {

    Mat src = imread("test.jpg");
    if (src.empty()) {
        printf("could not load image...\n");
        return -1;
    }
    imshow("origin", src);

    // 将二维图像数据线性化
    Mat data;
    for (int i = 0; i < src.rows; i++) {//像素点线性排列
        for (int j = 0; j < src.cols; j++)
        {
            Vec3b point = src.at<Vec3b>(i, j);
            Mat tmp = (Mat_<float>(1, 3) << point[0], point[1], point[2]);
            data.push_back(tmp);
        }
    }

    // 使用K-means聚类
    int numCluster = 4;
    Mat labels;
    TermCriteria criteria = TermCriteria(TermCriteria::EPS + TermCriteria::COUNT, 10, 0.1);
    kmeans(data, numCluster, labels, criteria, 4, KMEANS_PP_CENTERS);

    // 背景与手机二值化
    Mat mask = Mat::zeros(src.size(), CV_8UC1);
    int index = src.rows * 2 + 2;  //获取点(2,2)作为背景色
    int cindex = labels.at<int>(index);
    /*  提取背景特征 */
    for (int row = 0; row < src.rows; row++) {
        for (int col = 0; col < src.cols; col++) {
            index = row * src.cols + col;
            int label = labels.at<int>(index);
            if (label == cindex) { // 背景
                mask.at<uchar>(row, col) = 0;
            }
            else {
                mask.at<uchar>(row, col) = 255;
            }
        }
    }
    imshow("mask", mask);

    // 腐蚀 + 高斯模糊:图像与背景交汇处高斯模糊化
    Mat k = getStructuringElement(MORPH_RECT, Size(3, 3), Point(-1, -1));
    erode(mask, mask, k);
    GaussianBlur(mask, mask, Size(3, 3), 0, 0);

    // 更换背景色以及交汇处融合处理
    RNG rng(12345);
    Vec3b color;  //设置的背景色
    color[0] = 255;//rng.uniform(0, 255);
    color[1] = 255;// rng.uniform(0, 255);
    color[2] = 255;// rng.uniform(0, 255);
    Mat result(src.size(), src.type());

    double w = 0.0;   //融合权重
    int b = 0, g = 0, r = 0;
    int b1 = 0, g1 = 0, r1 = 0;
    int b2 = 0, g2 = 0, r2 = 0;

    for (int row = 0; row < src.rows; row++) {
        for (int col = 0; col < src.cols; col++) {
            int m = mask.at<uchar>(row, col);
            if (m == 255) {
                result.at<Vec3b>(row, col) = src.at<Vec3b>(row, col); // 前景
            }
            else if (m == 0) {
                result.at<Vec3b>(row, col) = color; // 背景
            }
            else {/* 融合处理部分 */
                w = m / 255.0;
                b1 = src.at<Vec3b>(row, col)[0];
                g1 = src.at<Vec3b>(row, col)[1];
                r1 = src.at<Vec3b>(row, col)[2];

                b2 = color[0];
                g2 = color[1];
                r2 = color[2];

                b = b1 * w + b2 * (1.0 - w);
                g = g1 * w + g2 * (1.0 - w);
                r = r1 * w + r2 * (1.0 - w);

                result.at<Vec3b>(row, col)[0] = b;
                result.at<Vec3b>(row, col)[1] = g;
                result.at<Vec3b>(row, col)[2] = r;
            }
        }
    }
    imshow("final", result);

    waitKey(0);
    return 0;
}

背景替换的效果.png

Вариант 2:

Алгоритм схемы 1 эффективен не для всех мобильных телефонов, для некоторых светлых мобильных телефонов, похожих на цвет фона, алгоритм будет бессилен.

相近颜色替换背景的效果.png

Итак, другой способ мышления:

  1. Улучшение изображения с помощью алгоритма повышения резкости USM
  2. Затем используйте чисто белое изображение в качестве фонового изображения и выполните слияние изображения с изображением с повышенной резкостью.

Повышение резкости изображения — это метод обработки изображения, который делает края изображения более четкими.

Алгоритм повышения резкости USM (маска нерезкости) заключается в том, чтобы сначала выполнить размытие по Гауссу для исходного изображения, затем вычесть коэффициент из исходного изображения и умножить размытое по Гауссу изображение, а затем масштабировать значение до диапазона значений пикселей RGB от 0 до 255. внутри. Алгоритм, основанный на повышении резкости USM, может удалить некоторые мелкие мешающие детали и шум, что является более реалистичным и достоверным, чем результаты повышения резкости изображения, полученные при непосредственном использовании оператора повышения резкости свертки.

int main() {
    Mat src = imread("./test.jpg");
    if (src.empty()) {
        printf("could not load image...\n");
        return -1;
    }
    namedWindow("src", WINDOW_AUTOSIZE);
    imshow("origin", src);

    Mat blur_img, usm;
    GaussianBlur(src, blur_img, Size(0, 0), 25);
    addWeighted(src, 1.5, blur_img, -0.5, 0, usm);
    imshow("usm", usm);

    Mat roi = Mat(Size(src.cols,src.rows), CV_8UC3, Scalar(255, 255, 255));

    Mat dst;
    addWeighted(usm, 1.275, roi, 0.00015, 0, dst);

    imshow("final", dst);

    waitKey(0);
    return 0;
}

Среди них функция addWeighted — объединение двух изображений одинакового размера и типа. Математическая формула выглядит следующим образом:

dst = src1*alpha + src2*beta + gamma;

融合后的效果.png

3. Резюме

На самом деле, я пробовал различные способы реализации этой функции с помощью OpenCV, а также пытался реализовать ее с помощью глубокого обучения. Удовлетворительного результата пока нет. В будущем я буду более склонен использовать глубокое обучение для реализации этой функции.