Обзор
Захватывающие виды спорта, такие как прыжки с парашютом, банджи-джампинг, катание на лыжах и т. д., являются очень важной частью удовольствия от путешествия, и в путешествии с ИИ есть такие веселые и захватывающие проекты.Это Magenta, исследование машинного обучения в процессе. создания искусства и музыки ролевой исследовательский проект. Другими словами, пусть ИИ занимается искусством, включая написание песен, рисование, написание романов и т. д. Вы можете сказать, что так называемое творение ИИ никогда не сможет превзойти людей. настоящее и обозримое будущее. , и цель Magenta состоит не в том, чтобы заменить человеческое творчество, а в том, чтобы исследовать процесс художественного творчества, который можно использовать в качестве инструмента для оказания ценной помощи в процессе создания человеком искусства.
Самая известная из многих моделей Magenta — Sketch-RNN, Как и ее название, это рекуррентная модель нейронной сети, которая может автоматически генерировать эскизы. Если вы не слышали о Sketch-RNN, то наверняка играли или слышали в игру Quick, Draw!, дайте вам имя, нарисуйте его и посмотрите, сможет ли ИИ угадать вас Что вы рисуете? Набор данных Draw! собрал в общей сложности 50 миллионов векторных эскизов в категориях 345. Если вы играли в эту игру, значит, есть и ваш вклад.
Краткая история искусственного интеллекта
легенда
Роботы и киборги появились еще в греческой мифологии, например, золотая роботизированная дева Гефеста, бога огня, и Галатея, жена кипрского короля Пигмалиона (статуя, оживленная богом любви).
Подобные записи есть и в древнем Китае.В книге "Лиецзы" в 3 веке до н.э. есть рассказ о "Янши, предлагающем свои умения". В нем рассказывается история царя Чжоу Му, возвращавшегося из своего западного путешествия, но он еще не достиг территории Китая.Мастер Ян,ремесленник,который добровольно приехал показать свое мастерство,привез на следующий день певца и танцора,похожего на настоящего человека.Он умел хорошо петь и танцевать,и хотя сердце , печень, селезенка, желудок и почки были поддельными, у него было все. Даже король Чжоу Му вздохнул. Сказал: «Может ли мастерство человека быть таким же, как у создателя?»
В Средние века ходили слухи, что алхимики могут помещать разум в предметы.
К 19 годам идеи о людях и мыслящих машинах развились в романах, таких как «Франкенштейн» Мэри Шелли (можете посмотреть этот фильм, если вам интересно).
Хотя китайские, индийские и греческие философы разработали структурированные методы формальной дедукции еще в 1000 г. до н.э., на протяжении столетий, благодаря непрерывным исследованиям многих философов, психологов, математиков и других великих людей, только тогда искусственный интеллект или механическое мышление постепенно стали возможными. Например, в XVII веке Лейбниц и Декарт исследовали возможность систематизации всех рациональных идей подобно алгебре или геометрии.Вдохновленный «Принципами математики» Уайтхеда, Дэвид Гильберт бросил вызов математикам в можно формализовать рассуждения?», машины Тьюринга, лямбда-исчисление и т. д. Эти ответы удивительны по двум причинам: во-первых, они демонстрируют, что действительно существуют пределы того, как может быть реализована математическая логика, а во-вторых, они также показывают, что любая форма математического рассуждения может быть механизирована в этих пределах
Нейронные сети
Примерное строение наших нейронов известно с 20 века.
В 1949 году Дональд О. Хебб предложил хеббовскую теорию обучения в своей книге «Организация поведения», которая открыла путь к созданию компьютерных моделей, имитирующих физиологические процессы биологических нервных систем, т. что хорошую модель можно обучить, динамически регулируя каждый вес.
В 1950 году Тьюринг предложил знаменитый "тест Тьюринга" в знаменательной статье. Проще говоря, это разговор между людьми и машинами. Если более 30% людей не знают, разговаривают ли они с людьми или машинами, то машина прошла тест, свидетельствующий о наличии у машины искусственного интеллекта
В 1951 году, вдохновленный Маккаллохом и Питтсом, 24-летний студент Марвин Мински (вместе с Дином Эдмондсом) построил первую машину нейронной сети SNARC и стал ключевым лидером и новатором на следующие 50 лет в области ИИ. В том же году программа для шашек, написанная Кристофером Стрейчи, также положила начало применению игрового ИИ.
В 1955 году Аллен Ньюэлл и Герберт А. Саймон создали программу «Теоретик логики», которая доказала 38 из первых 52 теорем Principia Mathematica, и Саймон сказал, что они «решили древние проблемы разума и тела», объяснив, как система материи обладает свойствами разума»
ИИ рождается
В 1956 году Марвин Мински, Джон Маккарти и два старших ученых из IBM, Клод Шеннон и Натан Рочестер, организовали Дартмутскую конференцию, на которой было заявлено, что «каждый аспект обучения или любую другую характеристику интеллекта можно описать настолько точно, что можно создать машину для его имитации». Маккарти убедил участников принять «искусственный интеллект» в качестве названия области, поэтому конференция также считается днем рождения ИИ.
Золотой век
С 1956 по 1974 год, золотой век искусственного интеллекта, люди были полны оптимизма и энтузиазма в отношении результатов теории и процедур искусственного интеллекта, и даже некоторые исследователи были оптимистичны в отношении того, что полностью интеллектуальную машину можно будет построить менее чем за 20 лет. правительство и компании также вложили много денег и рабочей силы для участия в исследованиях и разработках искусственного интеллекта. В 1958 году Фрэнк Розенблатт из Корнеллской авиационной лаборатории изобрел машину (программу), называемую персептроном. Отныне это фактически контролируемый алгоритм машинного обучения простого двоичного линейного классификатора, но распознаваемые изображения в то время в сочетании с участием американские военные тоже вызвали много шума и споров
Первая ИИ зима
С 1974 по 1980 год была первая зима ИИ, ИИ подвергся критике и финансовым трудностям, оптимизм и энтузиазм интеллектуальных роботов перед лицом далекого будущего вкупе с разрушительной критикой персептрона Марвином Мински вызвали поле нейронных сетей (коннекционизм) закрыть почти на десятилетие
бум
С 1980 по 1987 год ИИ открыл период бума, появление экспертных систем (экспертных систем) сделало знания основным направлением исследований ИИ, и различные правительства и компании начали поддерживать финансирование ИИ. В 1982 году Джон Хопфилд доказал, что нейронные сети Хопфилда могут обучаться и обрабатывать информацию совершенно по-новому.Почти в то же время Джеффри Хинтон и Дэвид Румельхарт популяризировали метод обучения нейронных сетей, известный как обратное распространение. в области коннекционизма
Вторая зима ИИ
С 1987 по 1993 год была вторая зима ИИ. Хотя экспертные системы были полезны, они были ограничены несколькими особыми случаями. Финансирование ИИ снова и снова сокращалось, и многие компании ИИ разорялись, разорялись или были приобретены.
период охлаждения
С 1993 по 2011 год это был период охлаждения для ИИ.Компьютерные инженеры стали более осторожно инвестировать в исследования искусственного интеллекта, внедряя в ИИ теорию вероятности и принятия решений, сосредоточив внимание на решении подзадач, таких как интеллектуальный анализ данных, распознавание речи, медицина. диагностики и поисковых систем, инженеры даже намеренно избегают терминов ИИ
С 2011 года, благодаря исследованиям и применению глубокого обучения, больших данных и простого искусственного интеллекта, искусственный интеллект стал уделять больше внимания решению некоторых конкретных задач. Среди них прогресс глубокого обучения (особенно глубокой сверточной нейронной сети и рекуррентной нейронной сети) способствовал прогрессу и исследованиям в области обработки изображений и видео, анализа текста и даже распознавания речи.Глубокое обучение — это ветвь машинного обучения, которая использует много обрабатывающих карт глубины слоев для моделирования высокоуровневых абстракций в данных, в соответствии с универсальной теоремой приближения нейронным сетям не требуется большая глубина для аппроксимации любой непрерывной функции
Основные нейронные сети
Сверточная нейронная сеть
Сверточная нейронная сеть, обычно сокращенно CNN или ConvNet, является наиболее часто используемым типом глубокой нейронной сети для анализа визуальных изображений.Он вдохновлен биологическими процессами, потому что паттерны между нейронами аналогичны зрительной коре животных.Организация корковых нейронов только отвечает на раздражители в ограниченной области поля зрения (эту область также называют рецептивным полем), причем рецептивные поля разных нейронов перекрываются, так что может быть охвачено все поле зрения.
Свертка — неотъемлемая операция в аналитической математике, которую можно использовать при обработке изображений для обработки собственных значений с целью устранения шума и улучшения характеристик.
CNN широко используются для распознавания изображений и видео, рекомендательных систем, классификации изображений, анализа медицинских изображений, поиска лекарств, обработки естественного языка и игрового ИИ, такого как AlphaGo.
Рекуррентная нейронная сеть
Рекуррентная нейронная сеть (рекуррентная нейронная сеть) обычно обозначается аббревиатурой RNN, которая представляет собой тип нейронной сети, в которой связь между узлами образует ориентированный граф вдоль временного ряда.Внутреннее состояние для обработки входных последовательностей, что делает его подходящим для таких задач, как несегментированное, непрерывное распознавание рукописного ввода или распознавание речи
LSTM является частью наиболее важного и оптимального очарования RNN, с его помощью он может эффективно предотвращать исчезновение градиента и взрыв градиента во время обратного распространения.
В отличие от предыдущих моделей, основанных на скрытых марковских моделях или аналогичных концепциях, LSTM могут научиться распознавать контекстно-зависимые языки.
Стоит отметить, что в 2014 году Baidu преодолела тест распознавания речи Switchboard Hub5'00, используя RNN, обученную с помощью CTC, без использования каких-либо традиционных методов обработки речи.
интересная нейронная сеть
Нейронная сеть, не зависящая от веса
Основываясь на нашем предыдущем понимании, нам нужно потратить много времени на проектирование признаков и весовые коэффициенты обучения, поэтому возможно ли выполнять задачи без этих предпосылок или даже без обучения модели? Независимые от веса нейронные сети дают ответ, конечно
Суммировать
Дорога к искусственному интеллекту полна взлетов и падений, а также похвал и споров.Отрадно, что люди наконец успокаиваются и перестают ломать голову над созданием сознания. Вместо этого они уделяют больше внимания подобласти машинного обучения , Применительно к жизни, пусть результаты исследований в области машинного обучения улучшат мир и улучшат образ жизни людей.
Есть много интересных приложений машинного обучения, таких как Sketch-RNN, о котором мы упоминали выше, может рисовать, а некоторые модели могут писать песни, писать романы, раскрашивать картинки и даже изучать произношение на основе фрагмента аудио и генерировать на основе изображение. Видео, оно может быть забавным и полезным, если мы используем его в нужном месте.
Ссылаться на
- Magenta
- Sketch-RNN
- Quick, Draw! Dataset
- Magic Sketchpad
- Weight Agnostic Neural Networks
- History of artificial intelligence
- Мисс Google придумала волшебную доску для рисования: можно рисовать что угодно, если не придумаешь, потеряешь ИИ
- Краткое введение в нейронные сети: от нейронов к глубокому обучению