Введение в архитектуры нейронных сетей / highload++ 2016
TRANSCRIPT
![Page 1: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/1.jpg)
Введение в архитектуры нейронных сетейГригорий Сапунов / CTO, [email protected]
![Page 2: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/2.jpg)
План доклада
1. Recap: a. Нейрон, нейросеть, глубокая нейросеть.b. Важные тренды.
2. Архитектуры нейросетейa. Нейросети прямого распространения.b. Свёрточные нейросети.c. Рекуррентные нейросети.
3. Мультимодальное обучение.4. Sequence Learning и парадигма seq2seq.5. Фреймворки и библиотеки для работы с нейросетями.
![Page 3: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/3.jpg)
Recap: Нейрон, нейросеть, глубокая нейросетьКраткое напоминание
![Page 4: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/4.jpg)
Искусственный нейрон
Искусственный нейрон — отдалённое подобие биологического. Базовый элемент искусственной нейронной сети
![Page 5: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/5.jpg)
В реальности всё посложнее...
![Page 6: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/6.jpg)
Искусственная нейросеть
![Page 7: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/7.jpg)
Существует многообразие архитектур
http://www.asimovinstitute.org/neural-network-zoo/
![Page 8: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/8.jpg)
Обучение нейросети: backpropagation
![Page 9: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/9.jpg)
Recap: Важные трендыЧто сейчас происходит с качеством и сложностью моделей
![Page 10: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/10.jpg)
#1. Точность сетей растёт
● Blue: Traditional CV● Purple: Deep Learning● Red: Human
![Page 11: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/11.jpg)
#2. Сложность сетей растёт
![Page 12: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/12.jpg)
#2. Сложность сетей растёт
Реальная нейросеть: GoogLeNet (2014)http://cs.unc.edu/~wliu/papers/GoogLeNet.pdf
![Page 13: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/13.jpg)
#2. Сложность сетей растёт
https://culurciello.github.io/tech/2016/06/04/nets.html
![Page 14: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/14.jpg)
#3. Объёмы данных растут
![Page 15: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/15.jpg)
#4. Вычислительные мощности растут● NVIDIA DGX-1 ($129,000)
○ 170 TFLOPS (FP16)○ 85 TFLOPS (FP32)
● NVIDIA GTX Titan X Pascal ($1000)
○ 11 TFLOPS (FP32)● NVIDIA GTX 1080
○ 8 TFLOPS (FP32)● NVIDIA GTX Titan X Old
○ 6.1 TFLOPS (FP32)
● NVIDIA Drive PX-2 ○ 8.0 TFLOPS
● NVIDIA Drive PX○ 2.3 TFLOPS
● Intel Core i7-6700K○ ~0.1-0.2 TFLOPS
![Page 16: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/16.jpg)
Нейросети прямого распространенияFully Connected Feed-Forward Neural Networks, FNN
![Page 17: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/17.jpg)
Multilayer Perceptron (MLP)
Классика FNN. Хорошо работают для классификации, но есть трудности:
• Много параметров• Для сети, у которой на входе картинка 100x100, три скрытых слоя
по 100 нейронов каждый, и выходом на 10 классов, число параметров будет примерно 1M(10000*100 + 100*100 + 100*100 + 100*10)
• Затухающие градиенты (если слоёв много)
Как следствие — трудно обучать.
![Page 18: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/18.jpg)
Вариации FNN: Автоэнкодер (AE)
Учится создавать компактное описание входных данных.
Используется для уменьшения размерности и получения новых высокоуровневых признаков.
Может быть глубоким (многослойным).
![Page 19: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/19.jpg)
Вариации FNN: RBM
Restricted Boltzmann Machine (RBM)
Неглубокая генеративная модель, которая учится генерировать данные с заданными характеристиками. По факту очень похожа на автоэнкодер, но в отличие от автоэнкодера стохастическая.
![Page 20: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/20.jpg)
Вариации FNN: DBN
Deep Belief Networks (DBN) — фактически способ обучения глубоких сетей, при котором каждый уровень сети учится как отдельная RBM.
![Page 21: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/21.jpg)
Свёрточные нейросетиConvolutional Neural Networks, CNN
![Page 22: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/22.jpg)
Классические задачи для CNN
https://research.facebook.com/blog/learning-to-segment/
![Page 23: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/23.jpg)
Свёрточная нейросеть: общий видСвёрточная нейросеть (CNN) — это Feed-Forward сеть специального вида:
![Page 24: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/24.jpg)
Состав CNN
• Свёрточные слои: каждая плоскость в свёрточном слое — это один нейрон, реализующий операцию свёртки (convolution) и являющийся матричным фильтром небольшого размера (например, 5x5).
• Слои субдискретизации (subsampling, spatial pooling): уменьшают размер изображения (например, в 2 раза).
• Полносвязные слои (MLP) на выходе модели (используются для классификации).
![Page 25: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/25.jpg)
Визуализация операции свёртки
input kernel outputhttp://intellabs.github.io/RiverTrail/tutorial/
Знакомые по фотошопу фильтры blur, emboss, sharpen и другие — это именно матричные фильтры.
![Page 26: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/26.jpg)
Визуализация операции свёртки
http://intellabs.github.io/RiverTrail/tutorial/
![Page 27: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/27.jpg)
CNN: Свёрточный слой (5 нейронов)
http://cs231n.github.io/convolutional-networks/
Веса нейронов — это коэффициенты ядра свёртки. Каждая “обучаемая” свёртка выделяет одинаковые локальные признаки во всех частях изображения.
![Page 28: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/28.jpg)
Операция pooling (max pool, avg pool)
http://vaaaaaanquish.hatenablog.com/entry/2015/01/26/060622
![Page 29: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/29.jpg)
CNN: Pooling слой (downsampling)
http://cs231n.github.io/convolutional-networks/
![Page 30: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/30.jpg)
У CNN меньше параметров, чем у FNN
• вход картинка 100x100
• два свёрточных слоя по 100 плоскостей каждый (conv 5x5 и subsampling 2)
• полносвязный слой на 100 нейронов
• выход: 10 классов• число параметров примерно
70K (25*100 + 25*100 + 25*25*100 + 100*10)
FNN
• вход: картинка 100x100
• три скрытых слоя по 100 нейронов каждый
• выход: 10 классов• число параметров примерно
1M (10000*100 + 100*100 + 100*100 + 100*10)
CNN
![Page 31: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/31.jpg)
Свёрточные слои учат иерархические признаки для изображений, а spatial pooling даёт некоторую инвариантность к перемещениям.
Свёрточная нейросеть
![Page 32: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/32.jpg)
Современные архитектурыInception, ResNet и другие современные архитектуры содержат специальные блоки слоёв.
![Page 33: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/33.jpg)
Обычная свёрточная сеть, но без MLP сверху (нет полносвязных слоёв).Позволяет работать с изображениями произвольного размера и выдавать на выходе тепловую карту классификации.
Fully-convolutional networks (FCN)
https://arxiv.org/abs/1411.4038
![Page 34: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/34.jpg)
Правильнее называть это Transposed convolution, а не Deconvolution (это слово уже занято в цифровой обработке сигналов для обратной операции).По сути, реализован обучаемый upsampling.
Deconvolution networks
http://cvlab.postech.ac.kr/research/deconvnet/
![Page 35: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/35.jpg)
Генерация изображений
https://arxiv.org/abs/1411.5928
![Page 36: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/36.jpg)
Неклассические задачи: перенос стиля
https://arxiv.org/abs/1508.06576
![Page 37: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/37.jpg)
Перенос стиля: оригинальный алгоритм
https://arxiv.org/abs/1508.06576
![Page 38: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/38.jpg)
Перенос стиля: быстрый алгоритм
https://arxiv.org/abs/1603.03417
![Page 39: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/39.jpg)
Рекуррентные нейросетиRecurrent Neural Networks, RNN
![Page 40: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/40.jpg)
Главное отличие RNN от FNN в наличии циклических связей (W
hh на рисунке)
RNN
![Page 41: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/41.jpg)
Свойства нейросетейFeedforward NN (FNN):
● FFN — это универсальный аппроксиматор: однослойная нейросеть с конечным числом нейронов может аппроксимировать непрерывную функцию на компактных подмножествах Rn (Теорема Цыбенко, универсальная теорема аппроксимации).
● FFN не имеют естественной возможности учесть порядок во времени.● FFN не обладают памятью, кроме полученной во время обучения.
Recurrent NN (RNN):
● RNN Тьюринг-полны: можно реализовать любую вычислимую функцию. ● RNN обладают определённым видом памяти и гораздо лучше подходят для
работы с последовательностями, моделированием контекста и временными зависимостями.
![Page 42: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/42.jpg)
Для обучения RNN используется специальный вариант backpropagation: (backpropagation through time, BPTT) и “разворачивание” нейросети.
Из-за этого есть проблема с затуханием градиентов при большой глубине. Для её решения вместо простых нейронов используют более сложные ячейки памяти — LSTM или GRU.
Backpropagation through time (BPTT)
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
![Page 43: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/43.jpg)
Ячейка LSTM (Long Short-Term Memory)
https://deeplearning4j.org/lstm
![Page 44: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/44.jpg)
Ячейки LSTM и GRU
http://kvitajakub.github.io/2016/04/14/rnn-diagrams
![Page 45: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/45.jpg)
Bidirectional RNN(BRNN/BLSTM)
Часто последовательность доступна сразу целиком, так что её можно сканировать в обоих направлениях.
![Page 46: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/46.jpg)
Multidimensional and Multidirectional RNNs
RNN могут также быть многомерными и многонаправленными.
Это более естественно для многомерных данных, например, изображений.
![Page 47: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/47.jpg)
ReNet (2015)
PyraMiD-LSTM (2015)
![Page 48: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/48.jpg)
Grid LSTM (2016)Интересное многомерное обобщение LSTM: Grid LSTM
https://arxiv.org/abs/1507.01526
![Page 49: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/49.jpg)
Мультимодальное обучение (Multimodal Learning)Смешивание различных модальностей в одной нейросети, например, изображения и текст
![Page 50: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/50.jpg)
Генерация описаний картинок
http://arxiv.org/abs/1411.4555 “Show and Tell: A Neural Image Caption Generator”
![Page 51: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/51.jpg)
Мультимодальное обучение
https://www.cs.utexas.edu/~vsub/
![Page 52: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/52.jpg)
Мультимодальное обучение
http://arxiv.org/abs/1411.2539 Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models
![Page 53: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/53.jpg)
Sequence Learning и парадигма seq2seqКогда надо работать с последовательностями произвольной длины на входе и/или выходе
![Page 54: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/54.jpg)
Sequence to Sequence Learning (seq2seq)
http://karpathy.github.io/2015/05/21/rnn-effectiveness/
![Page 55: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/55.jpg)
CTC (Connectionist Temporal Classification)Есть много задач, где точное расположение меток неважно, а важна только их последовательность. Например, в распознавании речи, рукописного текста, автомобильных номеров.
Специальный выходной слой CTC (Graves, Fernández, Gomez, Schmidhuber, 2006) был создан для временной классификации, когда выравнивание входных данных и выходных меток неизвестно и не требуется.
![Page 56: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/56.jpg)
CTC (Connectionist Temporal Classification)
https://github.com/baidu-research/warp-ctc
![Page 57: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/57.jpg)
Encoder-Decoder architecture
https://github.com/farizrahman4u/seq2seq
![Page 58: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/58.jpg)
Encoder-Decoder with Attention
https://research.googleblog.com/2016/09/a-neural-network-for-machine.html
![Page 59: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/59.jpg)
CNN+RNN with Attention
http://kelvinxu.github.io/projects/capgen.html
![Page 60: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/60.jpg)
CNN+RNN with Attention
http://kelvinxu.github.io/projects/capgen.html
![Page 61: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/61.jpg)
Фреймворки и библиотеки для работы с нейросетямиОчень краткий обзор
![Page 62: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/62.jpg)
Библиотеки и фреймворки
Подробный список: http://deeplearning.net/software_links/
![Page 63: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/63.jpg)
Универсальные библиотеки и сервисы● Torch7 (http://torch.ch/) [Lua]● TensorFlow (https://www.tensorflow.org/) [Python, C++]● Theano (http://deeplearning.net/software/theano/) [Python]
○ Keras (http://keras.io/) ○ Lasagne (https://github.com/Lasagne/Lasagne)○ blocks (https://github.com/mila-udem/blocks)○ pylearn2 (https://github.com/lisa-lab/pylearn2)
● Microsoft Cognitive Toolkit (CNTK) (http://www.cntk.ai/) [Python, C++, C#, BrainScript]
● Neon (http://neon.nervanasys.com/) [Python]● Deeplearning4j (http://deeplearning4j.org/) [Java]● MXNet (http://mxnet.io/) [C++, Python, R, Scala, Julia, Matlab, Javascript]● …
![Page 64: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/64.jpg)
Обработка изображений и видео
● OpenCV (http://opencv.org/) [C, C++, Python]● Caffe (http://caffe.berkeleyvision.org/) [C++, Python, Matlab]● Torch7 (http://torch.ch/) [Lua]● clarifai (https://www.clarifai.com/)● Google Vision API (https://cloud.google.com/vision/) ● …
![Page 65: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/65.jpg)
Распознавание речи
● Microsoft Cognitive Toolkit (CNTK) (http://www.cntk.ai/) [Python, C++, C#, BrainScript]
● KALDI (http://kaldi-asr.org/) [C++]● Google Speech API (https://cloud.google.com/) ● Yandex SpeechKit (https://tech.yandex.ru/speechkit/) ● Baidu Speech API (http://www.baidu.com/) ● wit.ai (https://wit.ai/) ● …
![Page 66: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/66.jpg)
Обработка текстов
● Torch7 (http://torch.ch/) [Lua]● Theano/Keras/… [Python]● TensorFlow (https://www.tensorflow.org/) [C++, Python]● Google Translate API (https://cloud.google.com/translate/) ● …
![Page 67: Введение в архитектуры нейронных сетей / HighLoad++ 2016](https://reader031.vdocuments.us/reader031/viewer/2022020203/586fdb8f1a28ab18428b616b/html5/thumbnails/67.jpg)
Спасибо!