Введение:Эта статья представляет собой набор руководств о том, как TensorFlow реализует популярные алгоритмы машинного обучения. Цель состоит в том, чтобы читатели могли легко узнать больше о TensorFlow с помощью четких и кратких примеров. Эти кейсы предназначены для новичков, которые хотят реализовать некоторые кейсы TensorFlow. Этот учебник также содержит примечания и код с комментариями.
Шаг 1: Учебник для новичков в ТФ
1: новичкам нужно понимать подготовку к входу
- Вступительные замечания по машинному обучению:
- Начало работы с набором данных MNIST
2: Основы входа, которые нужно знать новичкам
- Hello World
- Основная операция
3: Базовая модель, которую необходимо освоить новичкам
- Ближайший сосед:
- Линейная регрессия:
- Логистическая регрессия:
4. Нейронные сети, которые нужно попробовать новичкам в tf
- Многослойный персептрон:
- Сверточная нейронная сеть:
- Рекуррентная нейронная сеть (LSTM):
- Двунаправленная рекуррентная нейронная сеть (LSTM):
- Динамическая рекуррентная нейронная сеть (LSTM)
- автоэнкодер
5: Практические приемы, которыми должны владеть новички.
- Сохранение и восстановление моделей
- График и визуализация потерь
- Tensorboard — расширенная визуализация
6: Основные операции с несколькими графическими процессорами, которые должны понимать новички
- Основные операции на нескольких графических процессорах
7: Наборы данных, необходимые для случая
В некоторых случаях для обучения и тестирования требуется набор данных MNIST. При выполнении этих случаев набор данных загружается автоматически (с помощью input_data.py).
Примечания к набору данных MNIST:aymericdamien/TensorFlow-Examples
Официальный сайт: MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges
Шаг 2: Различные типы кейсов, моделей и наборов данных для новичков в ТФ
Первоначальное понимание: TFLearn TensorFlow
Следующие примеры взяты из библиотеки TFLearn, предоставляющей упрощенный интерфейс для TensorFlow. Есть много примеров и готовых операций и слоев.
Используйте учебник:
Быстрый старт с TFLearn. Изучите основы TFLearn с помощью конкретной задачи машинного обучения. Разработать и обучить классификатор глубокой нейронной сети.
Адрес TFLearn:tflearn/tflearn
Пример:tflearn/tflearn
Готовые операции и слои:Index - TFLearn
Примечания:tflearn/tflearn
Базовая модель и набор данных
- Линейная регрессия с использованием TFLearn для реализации линейной регрессии
- Логические операторы. Реализация логических операторов с помощью TFLearn
- Веса сохраняются. Сохранение и восстановление модели
- Тонкая настройка. Тонкая настройка предварительно обученной модели для новой задачи
- Используйте HDF5. Обработка больших наборов данных с HDF5
- Используйте ДАСК. Работа с большими наборами данных с помощью DASK
Модели компьютерного зрения и наборы данных
- Многослойный персептрон. Многоуровневая реализация восприятия для задачи классификации MNIST
- Сверточные сети (MNIST). Реализация сверточной нейронной сети для классификации набора данных MNIST.
- Сверточные сети (CIFAR-10). Реализация сверточной нейронной сети для классификации набора данных CIFAR-10.
- сеть внутри сети. Реализация сети в сети для классификации набора данных CIFAR-10
- Алекснет. Применение Alexnet к задаче классификации Oxford Flowers 17
- ВГГНет. Применение VGGNet к задаче классификации Oxford Flowers 17
- Тонкая настройка VGGNet (быстрое обучение). Используйте предварительно обученную сеть VGG и ограничьте ее собственными данными для быстрого обучения.
- Пиксели РНН. Классифицируйте изображение с помощью RNN (на последовательности пикселей)
- Сеть автомобильных дорог. Реализация Highway Network для классификации набора данных MNIST
- Сверточная сеть шоссе. Реализация Highway Convolutional Network для классификации набора данных MNIST
- Остаточная сеть (MNIST). Остаточная сеть узкого места, примененная к задаче классификации MNIST
- Остаточная сеть (CIFAR-10). Остаточная сеть, примененная к задаче классификации CIFAR-10
- Начало Google (v3). Сеть Google Inception v3 применяется к задаче классификации Oxford Flowers 17
- автоэнкодер. Автоэнкодер для рукописных цифр MNIST
Модели обработки естественного языка и наборы данных
- Рекуррентная нейронная сеть (LSTM), применяющая LSTM к задаче классификации набора данных настроений IMDB
- Двунаправленный RNN (LSTM), применяющий двунаправленный LSTM к задаче классификации набора данных настроений IMDB:
- Динамический RNN (LSTM), который использует динамический LSTM для классификации текста переменной длины из набора данных IMDB:
- Генерация названий городов с использованием сети LSTM для генерации новых названий городов США:
- Создание рукописи Шекспира с использованием сети LSTM для создания новых рукописей Шекспира:
- Обучающий пример рекуррентной сети Seq2seq, seq2seq:
- CNN Seq, применение одномерной сверточной сети для классификации последовательностей слов из набора данных настроений IMDB.
Случай обучения с подкреплением
- Atari Pacman 1-step Q-Learning, использующий 1-step Q-learning для обучения машины играть в игры Atari:
Шаг 3: Другие аспекты для новичков в ТФ
- Recommender-Wide&Deep Network, обучающий пример широкой и глубокой сети в рекомендательной системе:
- Задача спиральной классификации, реализация TFLearn задачи спиральной классификации Stanford CS231n:
- Используйте слои TFLearn с TensorFlow:
- Тренер, используйте класс тренера TFLearn для обучения любого графа TensorFlow:
- Встроенные операции вместе с TensorFlow с использованием встроенных операций TFLearn:
- Резюме, наряду с TensorFlow, используют суммировщики TFLearn:
- Переменные вместе с TensorFlow с использованием переменных TFLearn:
вперед от:Галантерея | 55 классических случаев TensorFlow
Все веб-ссылки, представленные в этой статье, взяты из Интернета. Если у вас есть какие-либо вопросы, сообщите нам об этом на сайте.
Для перепечатки, пожалуйста, сначала свяжитесь с авторомBigQuantдать согласие!