Deep Learning in MATLAB: From Concept to Embedded Code
Learn how to use MATLAB® for designing, developing, and deploying computer vision and deep learning applications on NVIDIA® Tesla® GPUs or Tegra® system-on-chips, whether on your local machine, in a cluster, or on embedded systems, including NVIDIA Jetson™ TK1/TX1/TX2 and DRIVE™ PX platforms. The workflow starts with algorithm design in MATLAB. The deep learning network is defined in MATLAB and is trained using GPU and parallel computing support for MATLAB, either on the desktop computer, a local compute cluster, or in the cloud. Then, the trained network is augmented with traditional computer vision techniques and the application is verified in MATLAB. Finally, a compiler automatically generates portable and highly optimized CUDA® code from the MATLAB algorithm, which is then implemented on the Tegra platform using cross-compilation. The execution speed of the auto-generated CUDA code is ~2.5x faster than Apache MXNet™, ~5x faster than Facebook Caffe2, ~7x faster than Google™ TensorFlow™, and comparable to an optimized TensorRT™ implementation.
Prior to R2019a, MATLAB Parallel Server was called MATLAB Distributed Computing Server.
Recorded: 17 Apr 2018
Featured Product
MATLAB
Web サイトの選択
Web サイトを選択すると、翻訳されたコンテンツにアクセスし、地域のイベントやサービスを確認できます。現在の位置情報に基づき、次のサイトの選択を推奨します:
また、以下のリストから Web サイトを選択することもできます。
最適なサイトパフォーマンスの取得方法
中国のサイト (中国語または英語) を選択することで、最適なサイトパフォーマンスが得られます。その他の国の MathWorks のサイトは、お客様の地域からのアクセスが最適化されていません。
南北アメリカ
- América Latina (Español)
- Canada (English)
- United States (English)
ヨーロッパ
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)
アジア太平洋地域
- Australia (English)
- India (English)
- New Zealand (English)
- 中国
- 日本Japanese (日本語)
- 한국Korean (한국어)