Rapid Prototyping of a Computer Vision Stack for AD Using MATLAB and Simulink
Dr. Stephan Kirstein, Continental
Dr. Roxana Daniela Florescu, Continental
There are a large variety of AI learning frameworks. If you are interested in a particular convolutional neural network, you are restricted to the framework it was originally developed in. Often Docker containers are used to run different networks at the same computing hardware. When running different networks into a test vehicle, a standardized way of deployment is mandatory instead of maintaining different Docker containers with competing requirements to the GPU driver and libraries. It is a comfortable handling of the complete vision stack, including image acquisition, network inference, and all preprocessing and postprocessing steps.
MATLAB® and Simulink® provide many image processing functions and supports to run neural networks based on the Open Neural Network Exchange (ONNX) format—an established standard in the community. Furthermore, the capability of C/C++ code generation is beneficial for in-vehicle usage.
In this presentation, see different deployment options using CPUs, GPUs, standard PCs, or embedded devices.
Related Products
Learn More
Featured Product
Simulink
Up Next:
Related Videos:
Web サイトの選択
Web サイトを選択すると、翻訳されたコンテンツにアクセスし、地域のイベントやサービスを確認できます。現在の位置情報に基づき、次のサイトの選択を推奨します:
また、以下のリストから Web サイトを選択することもできます。
最適なサイトパフォーマンスの取得方法
中国のサイト (中国語または英語) を選択することで、最適なサイトパフォーマンスが得られます。その他の国の MathWorks のサイトは、お客様の地域からのアクセスが最適化されていません。
南北アメリカ
- América Latina (Español)
- Canada (English)
- United States (English)
ヨーロッパ
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)
アジア太平洋地域
- Australia (English)
- India (English)
- New Zealand (English)
- 中国
- 日本Japanese (日本語)
- 한국Korean (한국어)