Более 60 лет искусственного интеллекта

машинное обучение искусственный интеллект глубокое обучение Нейронные сети
Более 60 лет искусственного интеллекта

предисловие

Как едоки дыни, большинство людей понимают искусственный интеллект в основном через научно-фантастические фильмы, в которых роботы обладают человеческим мышлением и экстраординарными способностями. Однако современная реальность искусственного интеллекта — это всего лишь очень слабый искусственный интеллект, это всего лишь программа с единственной функцией.

Развитие искусственного интеллекта за более чем 60 лет пережило несколько периодов расцвета и упадка.Хотя были достигнуты хорошие успехи, разрыв между реальностью и идеалом все еще очень велик, и путь вперед тернист.

Перед Дартмутской конференцией

Дартмутская конференция 1956 года известна как место рождения ИИ, но исследования, связанные с ИИ, проводились и раньше. На Международном конгрессе математиков в 1900 году математик Гильберт предложил «Математические проблемы будущего», некоторые из которых были связаны с искусственным интеллектом.

Алан Тьюринг разработал машину Тьюринга, которая также является теоретическим прототипом современных компьютеров. А в 1950 году он опубликовал «Вычислительные машины и интеллект», в котором дал определение машин и мышления, а также дал стандарт «Тест Тьюринга», если тест пройден, машина считается разумной.

Основное содержание этого знаменитого теста состоит в том, что есть две закрытые комнаты, одна из которых находится в определенной комнате, другая - машина, а вне комнаты находится тестер, который может общаться только по проводам, если это невозможно. определяется в течение определенного периода времени.В какой комнате есть люди, а в какой комнате машины, проходит тест Тьюринга.

В 2014 году, через 64 ​​года после того, как был предложен тест Тьюринга, программа под названием «Юджин» прошла тест Тьюринга.Тьюринг внес значительный вклад в искусственный интеллект и также известен как «отец искусственного интеллекта». Если бы гений не покончил с собой, съев отравленное яблоко в возрасте 42 лет, возможно, искусственный интеллект получил бы большее развитие.

Другой гений, фон Нейман, известный как «отец компьютеров», является научным универсалом в области современных компьютеров, теории игр, ядерного оружия, биологического и химического оружия. Он разработал современный компьютер с архитектурой фон Неймана. Появление современных компьютеров позволило математикам преобразовать свои исследования в практические результаты.

Дартмутская конференция

На основе теорий математиков и компьютеров в инженерном мире действительно появился искусственный интеллект. В августе 1956 года в Дартмутском колледже в тихом городке Ханнос, США, Джон Маккарти, Марвин Мински (Марвин Мински, специалист в области искусственного интеллекта и познания), Клод М. Клод Шеннон (основатель теории информации), Аллен Ньюэлл (компьютер ученый), Герберт Саймон (лауреат Нобелевской премии по экономике) и другие ученые собираются вместе, чтобы обсудить совершенно нечеловеческую тему: использование машин для имитации человеческого обучения и других аспектов интеллекта.

Встреча длилась два месяца, и хотя все не пришли к общему мнению, она дала название содержанию встречи: искусственный интеллект. Таким образом, 1956 год также стал первым годом искусственного интеллекта.

На встрече Артур Сэмюэл разработал шашечную программу, которая способна учиться сама по себе и постоянно получать опыт игры для улучшения шахматных навыков.Через три года программа смогла его обыграть.

После Дартмутской конференции искусственный интеллект начал бурно развиваться, и в 1956 году Оливер Салфрид разработал первую программу распознавания символов, которая открыла новую область распознавания образов. В 1957 г. Розенблатт изобрел персептрон, а в 1960 г. - общую систему решения задач GPS. В 1965 году искусственный интеллект попал в узкое место, потерпел много неудач, вступил в холодную зиму, и связанные с этим средства постоянно сокращались. В 1968 году вышла первая успешная экспертная система DENDRAL, и продолжали появляться различные экспертные системы, формируя новую отрасль индустрии знаний.

После 1977 года искусственный интеллект оказался в узком месте, он мог выполнять только задачи в небольшой области, и самая трудная проблема заключалась в том, что никто не знал, как приобретать знания и как усваивать такую ​​богатую информацию.

Три школы

С 1980-х годов в центре внимания находится машинное обучение, являющееся узким местом в получении знаний. Традиционный искусственный интеллект похож на зубрежку, в то время как машинное обучение — это эвристическое обучение, позволяющее машине учиться самой. Группа людей считает, что этого можно достичь путем моделирования структурной нейронной сети мозга, то есть коннекционизма. Другие считают, что ответы можно найти в простых схемах взаимодействия между организмами и окружающей их средой, известных как бихевиоризм. Традиционный искусственный интеллект называется школой семиотики. С 1980-х по 1990-е годы три школы были тремя столпами.

Семиотика

Представителем семиотики является Джон Маккарти, один из основоположников искусственного интеллекта, его точка зрения состоит в том, что любая система, которая может оперировать определенными паттернами или символами физики и преобразовывать их в другие паттерны или символы, может производить разумное поведение. Физический символ здесь может состоять из высоких и низких потенциалов, а может быть электрическим импульсным сигналом нейронной сети.

Семиотика в основном фокусируется на поведении человеческого интеллекта высокого уровня, таком как рассуждение, планирование, представление знаний и т. д.

Компьютерная игра (игра в шахматы) прославила семиотику на весь мир.В 1988 году компания IBM разработала шахматную интеллектуальную программу «Глубокая мысль», обладающая замечательной скоростью мышления в 700 000 ходов. В 1991 году второе поколение Deep Thoughts сыграло вничью с чемпионом Австралии по шахматам, а в 1997 году Deep Blue, модернизированная версия Deep Thought, победила чемпиона мира по шахматам.

В 2011 году суперкомпьютер IBM Watson победил игроков-людей в викторине, которая охватывала знания в различных областях, таких как текущие события, история, литература, наука, спорт, география и культура.

Импульс семиотической школы становится все слабее и слабее, а превосходство искусственного интеллекта начинает уступать место другим школам.

школа связи

Точно так же, как человеческий интеллект исходит из мозга, каждый человеческий мозг имеет триллион нейронов, которые сложным образом связаны друг с другом. Естественно задаться вопросом, можно ли смоделировать лобную часть мозга с помощью большого количества нейронов. Школа связи считает, что продвинутое интеллектуальное поведение возникает спонтанно из-за соединений большого количества нейронных сетей.

Развитие школы связи имеет свои перипетии. В 1957 году Фрэнк Розенблатт расширил вычислительную модель одного нейрона алгоритмом обучения, назвав его персептроном. Он учится, регулируя веса на основе ошибки между выходом модели и нашим желаемым результатом.

К 1969 году автор искусственного интеллекта Мински указал с помощью теоретического анализа, что персептрон не может изучить все проблемы, даже самые простые: невозможно решить, содержит ли двузначный двоичный код только 0 или 1. Этот смертельный удар едва не убил исследования в области нейронных сетей.

В 1974 году Джефф Хинтон, спаситель школы связи искусственного интеллекта, предположил, что чем больше нейронная сеть, тем она мощнее.Объединив несколько персептронов в иерархическую сеть, она может удовлетворительно решить проблему Мински. Несколько нейронов также создают более сложные проблемы обучения сети, и могут быть сотни или тысячи параметров, которые необходимо отрегулировать.Хинтон и др. обнаружили, что использование алгоритма обратного распространения, предложенного Артуром Брайсоном и др. проблема обучения сети.

Вскоре коннекционисты снова попали в беду, потому что не было теоретической поддержки, потому что нейронные сети могли решать задачи, но почему они неоднократно терпели неудачу в некоторых задачах, никто внятно не сказал. Более того, незнание принципа работы нейронной сети приводит к тому, что люди не знают, как повысить эффективность работы нейронной сети.

Статистическая теория обучения была предложена примерно в 2000 году и указывала, что наша модель должна соответствовать решаемой задаче.Если модель слишком проста, а сама задача сложна, ожидаемая точность не может быть получена, а если задача проста, но сложна используется модель, произойдет переобучение.

поведенческая школа

Отправная точка школы поведения полностью отличается от двух других школ: они фокусировались не на высокоразвитых людях, а на низкоуровневых насекомых. Насекомые могут ловко передвигаться и быстро реагировать, что является проявлением интеллекта.

Различные насекомые-роботы не имеют сложного мозга, им не нужно вмешательство в мозг, и они полагаются только на координацию конечностей и суставов для адаптации к окружающей среде. На сложной местности они могут разумно избегать препятствий, и этот интеллект исходит не от сложной конструкции, а от взаимодействия с окружающей средой.

Самой известной из них является большая собака-робот, разработанная Boston Dynamics, которая может ходить, карабкаться, бегать и переносить тяжести в различных сложных ландшафтах.

Глядя на это с течением времени, адаптация организмов к окружающей среде вызовет биологическую эволюцию.Джон Холланд опубликовал генетический алгоритм для компьютерного моделирования биологической эволюции. Он абстрагирует биологическую эволюцию в природе и выделяет два звена: мутацию и отбор. В компьютере организм моделируется бинарными строками, а выбор природы абстрагируется как функция пригодности.

нет необходимости в единстве

Примерно в 2000 году искусственный интеллект вступил в новый век.Развитие искусственного интеллекта не только не решило проблему, но и поставило один новый вопрос за другим.На эти вопросы становилось все труднее ответить, а связанные с ними теории становились все глубже и глубже. . Поэтому я просто игнорирую теоретические вопросы и сосредотачиваюсь только на применении.Практика - единственный критерий проверки истины.Независимо от того, какая школа, та, которая может решить практические проблемы, является хорошей школой.

В этом контексте искусственный интеллект еще больше дифференцируется, образуя множество самостоятельных дисциплин. Например, автоматическое доказательство теорем, распознавание образов, машинное обучение, понимание естественного языка, компьютерное зрение, автоматическое программирование. Единый искусственный интеллект не имеет смысла и не должен существовать.

Дебют глубокого обучения

Во втором десятилетии 21 века глубокое обучение стало самым ярким исследованием в области искусственного интеллекта. В 2011 году Google X Labs извлекла 10 миллионов изображений с YouTube и передала их Google Brain, который использует глубокое обучение, и через три дня мозг обнаружил кошек самостоятельно, без помощи человека. В 2012 году Microsoft использовала глубокое обучение для полного распознавания речи и перевода говорящих в реальном времени, то есть для выполнения синхронного перевода.

Хотя глубокое обучение появилось в 1980-х годах, оно не было эффективным из-за отсутствия в то время аппаратных возможностей и ресурсов данных. Только Хинтон взял своих учеников на усердную работу в этой непопулярной области.Хинтон и другие добились неожиданного успеха только в 2009 году.Они использовали глубокое обучение в области распознавания речи, побив мировой рекорд, а количество ошибок было снижено на 25%. Глубокое обучение начинает загораться.

Причина, по которой глубокое обучение дает такой большой прирост производительности, заключается в том, что оно похоже на глубокую нейронную сеть человеческого мозга, которая лучше имитирует работу человеческого мозга.

Развитие искусственного интеллекта полно перипетий, как оно будет развиваться в будущем?

------------- Рекомендуем прочитать ------------

Резюме моей статьи за 2017 год — машинное обучение

Краткое изложение моих статей за 2017 год — Java и промежуточное ПО

Резюме моих статей 2017 года — глубокое обучение

Краткое изложение моих статей за 2017 год — исходный код JDK

Резюме моих статей 2017 года — обработка естественного языка

Резюме моих статей 2017 года — Java Concurrency


Поговори со мной, задай мне вопросы:

这里写图片描述

Меню официальной учетной записи было разделено на «Сводка для чтения», «Распределенное», «Машинное обучение», «Глубокое обучение», «НЛП», «Глубина Java», «Ядро параллелизма Java», «Исходный код JDK», "Tomcat Core" "Подождите, может быть, есть тот, который соответствует вашему аппетиту.

Зачем писать «Анализ проектирования ядра Tomcat»

Добро пожаловать, чтобы следовать:

这里写图片描述