Введите cmd и выполните, чтобы просмотреть номер версии Anaconda:
Выполните команду:conda -VПримечание. Если установка прошла успешно, будет выведен номер версии Anaconda. Если есть какие-либо отклонения, переустановите
Шаг 2. Установите блокнот jupyter и tensorflow.
2.1 Создать независимую среду python-v3.6 на базе Anaconda
В настоящее время поддержка python37 для tensorflow не очень удобна, поэтому рекомендуется использовать версию python3.6.
Запустите cmd, чтобы выполнить команду:conda create -n tf-20190930 python=3.6
tf-20190930: это пользовательское имя
После успешного создания вы можете просмотреть созданную среду выполнения python с помощью команды:conda info --env
2.2 Установите ipykernel ядра jupyter на основе независимой среды python
Перед установкой jupyter установите ipykernel, который является ядром jupyter.
Представляет имя автономной среды Python (tf-20190930).
--display-name
Представляет отображаемое имя в Jupyter NoteBook (tf-20190930).
2.4 pip install keras (keras включает VGG16, VGG19)
Если вы не можете скачать напрямую, вам нужно настроить источник pip, здесь мы настраиваем его как источник зеркала Ali.
Файл конфигурации pip под windows находится по адресу:C:\Users\To Kill a MockinBird\pip.ini(Примечание: если файл не существует, он будет активно создан по этому пути)
Файл конфигурации pip под Linux находится по адресу:/root/.pip/pip.conf
2.5 Два способа запустить Jupyter
Первый способ, начните с графического интерфейса Anaconda.
Второй способ, запуск из командной строки cmd
Запущено успешно
Шаг 3 «Модель VGG», «таблица классификации элементов (imagenet_class_index.json)» сохраняются в указанном каталоге.
3.1 Путь хранения по умолчанию предварительно обученной модели
Путь по умолчанию под windows10:C:\Users\To Kill a MockinBird\.keras\models;
Путь по умолчанию в Linux:/root/.keras/
3.2 Jupyter создает новую программу на Python и вызывает модель VGG через API
3.3 Вызов модели VGG для классификации типа изображения, код выглядит следующим образом:
# 加载VGG16模型
model = VGG16()
from keras.preprocessing.image import load_img
# 加载图像资源,图像默认存储路径:C:\Users\To Kill a MockinBird\dots.jpg
image = load_img('dots.jpg', target_size=(224, 224))
from keras.preprocessing.image import img_to_array
# 将图片像素转换为numpy数组
image = img_to_array(image)
image = image.reshape((1, image.shape[0], image.shape[1], image.shape[2]))
from keras.applications.vgg16 import preprocess_input
# prepare the image for the VGG model
image = preprocess_input(image)
# predict the probability across all output classes
yhat = model.predict(image)
from keras.applications.vgg16 import decode_predictions
# convert the probabilities to class labels
label = decode_predictions(yhat)
# retrieve the most likely result, e.g. highest probability
label = label[0][0]
# print the classification
print('分类结果:%s (%.2f%%)' % (label[1], label[2]*100))
3.4 Нажмите «Выполнить», чтобы выполнить классификацию сверточных нейронных изображений VGG.
(Примечание: путь хранения изображений по умолчанию: C:\Users\To Kill a MockinBird\dots.jpg)