回答:
Mocha.jl -MochaはC ++フレームワークCaffeに触発されたJuliaのディープラーニングフレームワークです。
適切なドキュメントとサンプルを含むプロジェクト。CPUおよびGPUバックエンドで実行できます。
MXNet Juliaパッケージ-Juliaの柔軟で効率的なディープラーニング
https://github.com/dmlc/MXNet.jl
長所
短所
2016年10月現在、Julia用のTensorflowラッパーもあります。
より新しい(2019)回答:Fluxを追加するだけです。
Flux is an elegant approach to machine learning. It's a 100% pure-Julia stack,
and provides lightweight abstractions on top of Julia's native GPU and
AD support. Flux makes the easy things easy while remaining fully hackable.
例えば:
model = Chain(
Dense(768, 128, σ),
LSTM(128, 256),
LSTM(256, 128),
Dense(128, 10),
softmax)
loss(x, y) = crossentropy(model(x), y)
Flux.train!(loss, data, ADAM(...))
注目すべき新しいライブラリの1つはKnet.jlです。GPUを内部で使用するなどのことを行います。