ИИ все еще далек от настоящего интеллекта

Python

Введение

Объяснять искусственный интеллект друзьям из не ИТ индустрий всегда трудоемкое дело.У них тоже большое непонимание по этому поводу.Я хоть и не известный человек, но тоже занимался изучением и исследованием связанного контента для Эта статья В этой статье делается попытка обсудить искусственный интеллект и его текущие ограничения с высокого уровня.

В качестве примера я возьму область НЛП (обработка естественного языка), в которой я хорош. Ниже приведены мои личные мнения. Если что-то не так, пожалуйста, поправьте меня.

Природа современного искусственного интеллекта

Искусственный интеллект, о котором мы часто говорим, обычно относится к глубокому обучению, Из-за роста больших данных в последние годы глубокое обучение добилось большого прогресса, но глубокое обучение «не сделало большого прорыва на теоретическом уровне», это еще старая вещь, и суть ее все та же Это теория вероятностей и статистика.

Вот, например, интеллектуальные помощники, такие как Microsoft Xiaoice и Apple Siri, их технические принципы — фактически диалоговые системы + распознавание речи. Когда мы сказали слово Сяобину, что Сяобин делал в это время?

Когда Xiaoice получит это предложение, он сначала выполнит распознавание речи.Так называемое распознавание речи заключается в том, чтобы использовать свою предварительно обученную модель вероятности для вычисления того, каким словам соответствуют речевые данные, а затем выполнять прогнозирование диалога, то есть вероятность Появляется следующее предложение этих слов. Какой самый большой текст: «XiaoIce не понял, что я сказал, он просто дал ответ, вычислив вероятность».

Обучение коммерческой чат-машины требует много инженерных навыков, но суть в вероятностной модели. Мы можем сканировать большое количество корпусных данных из Weibo и форумов. Это то, что нормальные люди оставляют в сети. Да, после сложной предобработки, обучения данные получены, и обучение заключается в том, чтобы грубо найти правила между словами из этих данных.

Например, в корпусе из 100Т много раз встречается фраза «Приходи и обрати внимание на HackPython», затем модель запомнит слово «Следуй» и потом с большой вероятностью подключится к «HackPython», но модель не понимает В этом предложении он не знает, что «HackPython» является публичной учетной записью, и он не знает, что «обратите внимание» — это пропагандистское выражение, все, что он знает, — это вероятность.

В области НЛП, будь то «LSTM», «GRU», «Механизм внимания» или популярный в настоящее время «График знаний», все они играют в вероятностные игры, основанные на тексте, а различные методы просто используют обучающие данные. .информация разная.

Суть всех нынешних известных моделей одна и та же.Определенное распределение вероятностей получается путем обучения данных посредством матричных операций.Распределение вероятностей сложных моделей, как правило, многомерное, и здесь будут выводиться различные математические методы, такие как мера теория, многообразие, но основная идея по-прежнему состоит в том, чтобы описать характеристики обучающих данных через распределение вероятностей. С их помощью одно и то же распределение вероятностей можно использовать для описания одного и того же типа данных, чтобы реализовать так называемое «распознавание».

После получения распределения вероятностей остаются еще проблемы, которые не дают нам покоя, например: почему обучается именно такое распределение вероятностей?

Этот кусок до сих пор для нас является черным ящиком, и мы не знаем, почему данные имеют такое распределение вероятностей после обучения на этой модели, то есть не могут быть объяснены.

Проблема необъяснимости делает использование глубокого обучения в некоторых областях сопряженным с определенными препятствиями, например, в финансовой сфере.Модель говорит, что инвестирование таким образом с высокой вероятностью принесет деньги, но вы не можете строго доказать достоверность этого вывода. ,только интуитивно.Объясните,что такое можно нерешительно проиграть,ведь много денег можно потерять.

Точно так же автономное вождение также страдает от непонятных моделей, а автономное вождение зависит от технологии распознавания образов. Хотя модель распознавания изображений, обученная на большом количестве данных, имеет высокую скорость распознавания, проблемы все же есть, это видно из исследований в области «состязательной атаки», когда мы меняем небольшое количество данных в изображении. , модель распознавания изображений не может Идентифицировать или идентифицировать ошибки. Поскольку мы не можем объяснить распределение вероятностей модели распознавания изображений на уровне данных, неясно, при каких обстоятельствах она выйдет из строя.

Найдите и поймите разницу

Из предыдущего обсуждения мы можем знать, что текущее глубокое обучение достигает «узнавания», такого как распознавание языка, распознавание изображений и т. Д., Но не достигает «понимания». Это можно интуитивно увидеть в области НЛП. интеллектуальная диалоговая система по-прежнему неудовлетворительна.

Благодаря обучению большого количества данных мы уже добились хороших результатов в «распознавании», и эти эффекты уже могут иметь большой эффект, например, распознавание лиц для проверок безопасности, распознавание номерных знаков для систем дорожного движения и т. д. «Но Работа над пониманием, возможно, только началась».

Искусственный интеллект не так умен, как мы думаем.Независимо от того, насколько велика компания, насколько продвинута инфраструктура и мощные функции, такие как автоматическая настройка параметров и автоматическое обучение, суть одна и та же.Продвинутая инфраструктура просто делает нас более Более быстрый и лучший доступ к распределениям вероятностей, которые характеризуют данные, но которые «не понимают».

Давайте подумаем, как люди «понимают»?

Когда мы «понимаем» что-то, это обычно означает знание абстрактного понятия, стоящего за этим, например слова «яблоко». Когда мы видим это слово, в нашем уме возникает информация, связанная с «яблоком», которая не исходит от «» Слово «яблоко» происходит из моей жизни, которая дает нам базовые знания, позволяющие понять слово «яблоко».

Как мы получили эти фоновые знания? Он все еще исследуется.

Это заставило многих ученых усомниться в правильности нынешнего пути исследования глубокого обучения.Вот известная дискуссия, показывающая огромную разницу между тем, как мы обучаем модели сегодня, и тем, как мы на самом деле учимся в природе.

На улицах Японии много ворон.Исследователи обнаружили, что эти вороны воровали орехи, чтобы съесть их, но сами вороны не могли разбить ореховую скорлупу, так как же они поедали ореховую мякоть? Смотрит светофор на перекрестке на столбах, когда горит красный, кладут орехи на дорогу, потом улетают, ждут зеленый свет, когда горит зеленый, транспорт проезжает мимо, раздавливаем ореховую скорлупу , когда следующий красный свет, ворона прилетела, чтобы съесть мякоть не спеша.

Эта общая вещь показывает, что биологическое обучение на самом деле требует только простого наблюдения для приобретения определенного навыка, что полностью отличается от метода глубокого обучения.Глубокое обучение будет использовать большой объем данных, а затем многократно тренироваться методом проб и ошибок.Потеря получена по ошибке для обновления модели используется алгоритм градиентного спуска и обратного распространения, и в итоге получается распределение вероятностей, которое может описать характеристики данных, и у вороны не так много жизни, чтобы пробовать и ошибаться, и времени на пробы и ошибки не так много.

Можно сказать, что ворона «понимает» закон светофора посредством небольшого количества наблюдений, но модель, полученная путем глубокого обучения, не может этого сделать.

Трудно избежать различий между методами обучения естественных организмов и современными методами глубокого обучения.

Моравец Парадокс

В 1980 году Ганс Моравек заметил: Сравнительно легко заставить компьютер играть в шахматы, как взрослый, но довольно сложно или даже невозможно заставить компьютер чувствовать и вести себя как годовалый ребенок. Это знаменитый парадокс Моравца. Этот парадокс актуален и сегодня. Короче говоря, «сложные проблемы — легкие, легкие — трудные» — такова текущая ситуация с искусственным интеллектом.

Для компьютеров требуется лишь относительно небольшая вычислительная мощность для реализации человеческого интеллекта высокого уровня, такого как логическое мышление и математические операции, в то время как реализация интеллекта низкого уровня, такого как восприятие и движение, требует огромных вычислительных ресурсов, что прямо противоположно человеческому. Подождите, нам не нужно тратить много мозгов, чтобы сделать это самим, но такие задачи, как логический вывод и математический расчет, требуют много времени для размышлений.

Как сделать искусственный интеллект способным «понимать»? Как сделать так, чтобы у искусственного интеллекта были базовые фоновые знания и реакция на реальный мир?

Когда эти две проблемы будут решены, нам нужно начать беспокоиться о том, не заменит ли нас искусственный интеллект.

Однако способность описывать характеристики данных, принесенные глубоким обучением, уже может оказать фатальное влияние на некоторые профессии, например, на фабричных рабочих.Роботы-манипуляторы с распознаванием изображений могут заменить большую часть работы рабочих.

хвостик

Если вы беспокоитесь о технологии или о чем-то, что повлияет на вас, лучший способ сделать это — понять ее и понять, как она работает, а не читать различные статьи в СМИ, они могут только отвлекать глаза и усложнять игру. . Познав принцип, беспокойство, вызванное невежеством, рассеется, и вы сами сможете внести соответствующие коррективы.

Хотя в статье в основном обсуждается проблема с точки зрения НЛП, эти явления существуют в разных областях, таких как обработка изображений, обучение с подкреплением и т. д.

Наконец, спасибо за чтение.