Tensorflow 101 (2 серии деталей)
Это второй пост из серии Tensorflow 101, поэтому я предполагаю, что вы установили Conda, Tensorflow и Jupyter (предпочтительно jupyterlab).
Первая ноутбука Юпитера
Давайте создадим нашу первую ноутбук Юпитера. Для этого нам нужно запустить сервер Юпитера. Мы можем сделать это с двумя командами. Вы можете начать с включенного jupyterlab или нет.
Если вы хотите использовать лабораторию, вам просто нужно запустить:
jupyter lab
и без этого:
jupyter notebook
Если вы используете Pycharm или VS -код, вам не нужно запускать его вручную из терминала. Вы можете запустить его внутри IDE/редактора.
Protip: Если вы используете Pycharm – научный вид очень полезен. Это Отображает Ipython Repl, все ваши переменные, документацию и ваш ноутбук в в то же время.
После того, как вы запустили Jupyter, мы сможем создать новую ноутбук. Это может быть создано в голой Юпитер в Новый
меню справа.
Для jupyterlab это должно быть видно внутри Пусковая установка
в Ноутбук
категория.
В противном случае вы можете получить доступ к нему в панели меню под Файл> Новый> Ноутбук
вариант.
Для Pycharm вы можете создать его с Rmb
в списке файлов, с Файл
меню или alt+вставка
Ключевой связки.
Что мы можем сделать здесь?
По сути, любой правильный код в Python должен работать просто хорошо. Ноутбуки Jupyter превосходят обычные сценарии, потому что вы можете запустить свой код только частично с помощью блоков. Это также позволяет создавать блоки комментариев с помощью Marckdown.
Как вы можете видеть на картинке – этот код работает совершенно нормально, если вы запустите Блок [3]
до [5]
, Но есть улов. Если вы запускаете всю свою записную книжку в Однажды – это принесет ошибку, потому что A
объявлено После Печать (а)
Анкет
Основы тензора
Кулак мы должны импортировать тензоры. Обычно он псевдоним как tf
Анкет
import tensorflow as tf
Теперь мы можем проверить установленную версию и проверить, доступен ли GPU. Конечно, если вы установили версию только для процессора, вы не сможете получить доступ к графическим процессорам.
print(tf.__version__) print(tf.config.list_physical_devices("GPU"))
Я сделал это в отдельных блоках, так что для меня это выглядит так.
Теперь мы можем создать наши первые тензоры (но не течь!)
Создание тензоров
Мы можем создать тензор из них с
tf.ones([2,3,4])
Его аргумент – список измерений. В этом примере тензор имеет размеры 2x3x4. Это очень похоже на вложенные списки в Python. Давайте предположим, что Tensor (пока) список – поэтому он содержит 2 списка с 3 подпадами и 4 элементами.
По умолчанию TF использует тип float32. Да, важно понять, как работает тип. Каждый тензор может иметь как Float16 (половина точностью), float32 (одиночная точность), float64 (двойная точность), целые числа с правильным размером, строками, комплексными числами и многими другими. Есть один немного особенный – BFLOAT16 – этот немного сложнее, потому что он не совместим с IEEE 754, он имеет 8 -битный показатель и 7 -битная доля. Половина точных поплавок содержат добычу 5b и фракцию 10b, но вариант использования немного отличается.
Есть больше функций, таких как tf.ones ()
, но самый важный – просто tf.constant ()
Анкет С этим мы можем создать любой тензор, содержащий постоянный ценности. Есть также тфу Variable ()
, где наши значения, конечно, переменные.
Это все на данный момент, ребята. Если у вас есть какие -либо вопросы или что -то неясно, не стесняйтесь спрашивать. Я сделаю все возможное, чтобы все объяснить.
Следите за обновлениями!
Пса Вы также можете подписаться на мой Новостная рассылка
Tensorflow 101 (2 серии деталей)
Оригинал: “https://dev.to/pgronkievitz/tensorflow-2-getting-started-3a9a”