Skip to content

tutorials directory part of container #21

@khintz

Description

@khintz

In our current container there is a directory called tutorials under /workspace.
Seems to come from torch. I haven't looked into why it's there in details, but we probably want to clean it up when everything is working.

root@7bc3889aa21d:/workspace# tree tutorials/
tutorials/
├── LICENSE
├── Makefile
├── README.md
├── _static
│   ├── ajax-loader.gif
│   ├── basic.css
│   ├── broken_example.png
│   ├── comment-bright.png
│   ├── comment-close.png
│   ├── comment.png
│   ├── css
│   │   └── pytorch_theme.css
│   ├── doctools.js
│   ├── documentation_options.js
│   ├── down-pressed.png
│   ├── down.png
│   ├── file.png
│   ├── fonts
│   │   ├── FreightSans
│   │   │   ├── freight-sans-light.woff
│   │   │   ├── freight-sans-light.woff2
│   │   │   ├── freight-sans-regular.woff
│   │   │   └── freight-sans-regular.woff2
│   │   └── IBMPlexMono
│   │       ├── IBMPlexMono-Light.woff
│   │       ├── IBMPlexMono-Light.woff2
│   │       ├── IBMPlexMono-Medium.woff
│   │       ├── IBMPlexMono-Medium.woff2
│   │       ├── IBMPlexMono-Regular.woff
│   │       ├── IBMPlexMono-Regular.woff2
│   │       ├── IBMPlexMono-SemiBold.woff
│   │       └── IBMPlexMono-SemiBold.woff2
│   ├── gallery.css
│   ├── imagenet_class_index.json
│   ├── images
│   │   ├── arrow-down-orange.svg
│   │   ├── arrow-right-with-tail.svg
│   │   ├── chevron-down-grey.svg
│   │   ├── chevron-right-orange.svg
│   │   ├── chevron-right-white.svg
│   │   ├── home-footer-background.jpg
│   │   ├── icon-close.svg
│   │   ├── icon-menu-dots-dark.svg
│   │   ├── logo-dark.svg
│   │   ├── logo-facebook-dark.svg
│   │   ├── logo-icon.svg
│   │   ├── logo-twitter-dark.svg
│   │   ├── logo.svg
│   │   └── view-page-source-icon.svg
│   ├── img
│   │   ├── ONNXLive.png
│   │   ├── SRResNet.png
│   │   ├── Variable.png
│   │   ├── audio_preprocessing_tutorial_waveform.png
│   │   ├── autodiff.png
│   │   ├── bert.png
│   │   ├── bert_mrpc.png
│   │   ├── cartpole.gif
│   │   ├── cat.jpg
│   │   ├── cat_224x224.jpg
│   │   ├── cat_superres_with_ort.jpg
│   │   ├── channels_last_memory_format.png
│   │   ├── char_rnn_generation.png
│   │   ├── chat.png
│   │   ├── chatbot
│   │   │   ├── RNN-bidirectional.png
│   │   │   ├── attn1.png
│   │   │   ├── attn2.png
│   │   │   ├── bot.png
│   │   │   ├── diff.png
│   │   │   ├── global_attn.png
│   │   │   ├── grad_clip.png
│   │   │   ├── pytorch_workflow.png
│   │   │   ├── scores.png
│   │   │   ├── seq2seq_batches.png
│   │   │   └── seq2seq_ts.png
│   │   ├── cifar10.png
│   │   ├── classic_memory_format.png
│   │   ├── compare_output.png
│   │   ├── compare_stub.png
│   │   ├── cpp-frontend
│   │   │   └── digits.png
│   │   ├── cpp-pytorch.png
│   │   ├── cpp_logo.png
│   │   ├── data_parallel.png
│   │   ├── dcgan_generator.png
│   │   ├── deeplabv3_android.png
│   │   ├── deeplabv3_android2.png
│   │   ├── deeplabv3_ios.png
│   │   ├── deeplabv3_ios2.png
│   │   ├── distributed
│   │   │   ├── DistPyTorch.jpg
│   │   │   ├── all_gather.pdf
│   │   │   ├── all_gather.png
│   │   │   ├── all_reduce.pdf
│   │   │   ├── all_reduce.png
│   │   │   ├── broadcast.png
│   │   │   ├── gather.png
│   │   │   ├── reduce.png
│   │   │   ├── scatter.png
│   │   │   ├── send_recv.png
│   │   │   └── send_recv_big.png
│   │   ├── dynamic_graph.gif
│   │   ├── fgsm_panda_image.png
│   │   ├── flask.png
│   │   ├── hybrid_frontend
│   │   │   ├── 220px-KnnClassification.png
│   │   │   ├── iris_pic.jpg
│   │   │   └── pytorch_workflow_small.jpg
│   │   ├── landmarked_face2.png
│   │   ├── memory_format_logo.png
│   │   ├── mnist.png
│   │   ├── model-parallel-images
│   │   │   ├── mp_vs_rn.png
│   │   │   ├── mp_vs_rn_vs_pp.png
│   │   │   └── split_size_tradeoff.png
│   │   ├── named_tensor.png
│   │   ├── neural-style
│   │   │   ├── dancing.jpg
│   │   │   ├── neuralstyle.png
│   │   │   ├── picasso.jpg
│   │   │   ├── sphx_glr_neural_style_tutorial_001.png
│   │   │   ├── sphx_glr_neural_style_tutorial_002.png
│   │   │   ├── sphx_glr_neural_style_tutorial_003.png
│   │   │   └── sphx_glr_neural_style_tutorial_004.png
│   │   ├── panda.png
│   │   ├── per_channel_quant.png
│   │   ├── per_tensor_quant.png
│   │   ├── pruning.png
│   │   ├── pytorch-logo-dark.png
│   │   ├── pytorch-logo-dark.svg
│   │   ├── qat.png
│   │   ├── quant_asym.png
│   │   ├── quant_embeddings.png
│   │   ├── quantized_transfer_learning.png
│   │   ├── ray-tune.png
│   │   ├── reinforcement_learning_diagram.jpg
│   │   ├── rnnclass.png
│   │   ├── rpc-images
│   │   │   └── batch.png
│   │   ├── rpc_trace_img.png
│   │   ├── sample_file.jpeg
│   │   ├── scipynumpy.png
│   │   ├── seq-seq-images
│   │   │   ├── attention-decoder-network.dot
│   │   │   ├── attention-decoder-network.png
│   │   │   ├── decoder-network.dot
│   │   │   ├── decoder-network.png
│   │   │   ├── decoder.png
│   │   │   ├── decoder@2x.png
│   │   │   ├── encoder-network.dot
│   │   │   ├── encoder-network.png
│   │   │   ├── seq2seq.png
│   │   │   ├── seq2seq@2x.png
│   │   │   ├── word-encoding.png
│   │   │   └── word-encoding@2x.png
│   │   ├── seq2seq_flat.png
│   │   ├── shadow.png
│   │   ├── steam-train-whistle-daniel_simon-converted-from-mp3.wav
│   │   ├── stn
│   │   │   ├── FSeq.png
│   │   │   ├── Five.gif
│   │   │   ├── stn-arch.png
│   │   │   └── tr.png
│   │   ├── tensor_illustration.png
│   │   ├── tensor_illustration_flat.png
│   │   ├── tensorboard_figure.png
│   │   ├── tensorboard_first_view.png
│   │   ├── tensorboard_images.png
│   │   ├── tensorboard_model_viz.png
│   │   ├── tensorboard_pr_curves.png
│   │   ├── tensorboard_projector.png
│   │   ├── tensorboard_scalar_runs.png
│   │   ├── text_sentiment_ngrams_model.png
│   │   ├── thumbnails
│   │   │   ├── 220px-KnnClassification.png
│   │   │   ├── babel.jpg
│   │   │   ├── captum_teaser.png
│   │   │   ├── cropped
│   │   │   │   ├── 60-min-blitz.png
│   │   │   │   ├── Adversarial-Example-Generation.png
│   │   │   │   ├── Autograd-in-Cpp-Frontend.png
│   │   │   │   ├── Combining-Distributed-DataParallel-with-Distributed-RPC-Framework.png
│   │   │   │   ├── Custom-Cpp-and-CUDA-Extensions.png
│   │   │   │   ├── DCGAN-Tutorial.png
│   │   │   │   ├── Deploying-PyTorch-in-Python-via-a-REST-API-with-Flask.png
│   │   │   │   ├── Distributed-Pipeline-Parallelism-Using-RPC.png
│   │   │   │   ├── Extending-TorchScript-with-Custom-Cpp-Classes.png
│   │   │   │   ├── Extending-TorchScript-with-Custom-Cpp-Operators.png
│   │   │   │   ├── Getting Started with Distributed-RPC-Framework.png
│   │   │   │   ├── Getting-Started-with Distributed RPC Framework.png
│   │   │   │   ├── Getting-Started-with-Distributed-Data-Parallel.png
│   │   │   │   ├── Getting-Started-with-Distributed-RPC-Framework.png
│   │   │   │   ├── Implementing-Batch-RPC-Processing-Using-Asynchronous-Executions.png
│   │   │   │   ├── Implementing-a-Parameter-Server-Using-Distributed-RPC-Framework.png
│   │   │   │   ├── Introduction-to-TorchScript.png
│   │   │   │   ├── Language-Translation-with-TorchText.png
│   │   │   │   ├── Loading-a-TorchScript-Model-in-Cpp.png
│   │   │   │   ├── Model-Parallel-Best-Practices.png
│   │   │   │   ├── NLP-From-Scratch-Classifying-Names-with-a-Character-Level-RNN.png
│   │   │   │   ├── NLP-From-Scratch-Generating-Names-with-a-Character-Level-RNN.png
│   │   │   │   ├── NLP-From-Scratch-Translation-with-a-Sequence-to-Sequence-Network-and-Attention.png
│   │   │   │   ├── Pruning-Tutorial.png
│   │   │   │   ├── PyTorch-Distributed-Overview.png
│   │   │   │   ├── Sequence-to-Sequence-Modeling-with-nnTransformer-andTorchText.png
│   │   │   │   ├── Text-Classification-with-TorchText.png
│   │   │   │   ├── TorchScript-Parallelism.jpg
│   │   │   │   ├── TorchVision-Object-Detection-Finetuning-Tutorial.png
│   │   │   │   ├── Transfer-Learning-for-Computer-Vision-Tutorial.png
│   │   │   │   ├── Tutorials_Card_Template.psd
│   │   │   │   ├── Using-the-PyTorch-Cpp-Frontend.png
│   │   │   │   ├── Writing-Distributed-Applications-with-PyTorch.png
│   │   │   │   ├── advanced-PyTorch-1point0-Distributed-Trainer-with-Amazon-AWS.png
│   │   │   │   ├── amp.png
│   │   │   │   ├── android.png
│   │   │   │   ├── custom-datasets-transforms-and-dataloaders.png
│   │   │   │   ├── defining-a-network.PNG
│   │   │   │   ├── experimental-Channels-Last-Memory-Format-in-PyTorch.png
│   │   │   │   ├── experimental-Dynamic-Quantization-on-BERT.png
│   │   │   │   ├── experimental-Dynamic-Quantization-on-an-LSTM-Word-Language-Model.png
│   │   │   │   ├── experimental-Introduction-to-Named-Tensors-in-PyTorch.png
│   │   │   │   ├── experimental-Quantized-Transfer-Learning-for-Computer-Vision-Tutorial.png
│   │   │   │   ├── experimental-Static-Quantization-with-Eager-Mode-in-PyTorch.png
│   │   │   │   ├── ios.png
│   │   │   │   ├── learning-pytorch-with-examples.png
│   │   │   │   ├── loading-data-in-pytorch.png
│   │   │   │   ├── loading-data.PNG
│   │   │   │   ├── mobile.png
│   │   │   │   ├── model-interpretability-using-captum.png
│   │   │   │   ├── optional-Exporting-a-Model-from-PyTorch-to-ONNX-and-Running-it-using-ONNX-Runtime.png
│   │   │   │   ├── profile.png
│   │   │   │   ├── profiler.png
│   │   │   │   ├── saving-and-loading-general-checkpoint.PNG
│   │   │   │   ├── saving-and-loading-models-across-devices.PNG
│   │   │   │   ├── saving-and-loading-models-for-inference.PNG
│   │   │   │   ├── saving-multiple-models.PNG
│   │   │   │   ├── torch-nn.png
│   │   │   │   ├── torchaudio-Tutorial.png
│   │   │   │   ├── torchaudio-speech.png
│   │   │   │   ├── torchscript_overview.png
│   │   │   │   ├── using-dynamic-post-training-quantization.png
│   │   │   │   ├── using-flask-create-restful-api.png
│   │   │   │   ├── visualizing-with-tensorboard.png
│   │   │   │   ├── warmstarting-models.PNG
│   │   │   │   ├── what-is-a-state-dict.PNG
│   │   │   │   └── zeroing-out-gradients.PNG
│   │   │   ├── custom_dataset.png
│   │   │   ├── default.png
│   │   │   ├── defining_a_network.png
│   │   │   ├── examples.png
│   │   │   ├── eye.png
│   │   │   ├── floppy.png
│   │   │   ├── german_to_english_translation.png
│   │   │   ├── landmarked_face2.png
│   │   │   ├── pixelated-cat.png
│   │   │   ├── pytorch-logo-flat.png
│   │   │   ├── pytorch_tensorboard.png
│   │   │   ├── sphx_glr_transfer_learning_tutorial_001.png
│   │   │   ├── tensorboard_dev.png
│   │   │   ├── tensorboard_scalars.png
│   │   │   ├── torch-logo.png
│   │   │   ├── torchtext.png
│   │   │   └── tv-img.png
│   │   ├── torch-nn-vs-pytorch-nn.png
│   │   ├── torch.nn.png
│   │   ├── torchscript.png
│   │   ├── torchscript_to_cpp.png
│   │   ├── trace_img.png
│   │   ├── transformer_architecture.jpg
│   │   ├── transformer_input_target.png
│   │   └── tv_tutorial
│   │       ├── tv_image01.png
│   │       ├── tv_image02.png
│   │       ├── tv_image03.png
│   │       ├── tv_image04.png
│   │       ├── tv_image05.png
│   │       ├── tv_image06.png
│   │       └── tv_image07.png
│   ├── jquery-3.2.1.js
│   ├── jquery.js
│   ├── js
│   │   └── modernizr.min.js
│   ├── minus.png
│   ├── no_image.png
│   ├── plus.png
│   ├── pygments.css
│   ├── pytorch-logo-dark.svg
│   ├── searchtools.js
│   ├── torchvision_finetuning_instance_segmentation.ipynb
│   ├── tv-training-code.py
│   ├── underscore-1.3.1.js
│   ├── underscore.js
│   ├── up-pressed.png
│   ├── up.png
│   └── websupport.js
├── _templates
│   └── layout.html
├── advanced_source
│   ├── ONNXLive.rst
│   ├── README.txt
│   ├── cpp_autograd.rst
│   ├── cpp_export.rst
│   ├── cpp_extension.rst
│   ├── cpp_frontend.rst
│   ├── dispatcher
│   │   ├── CMakeLists.txt
│   │   ├── op.cpp
│   │   └── test.py
│   ├── dispatcher.rst
│   ├── dynamic_quantization_tutorial.py
│   ├── neural_style_tutorial.py
│   ├── numpy_extensions_tutorial.py
│   ├── rpc_ddp_tutorial
│   │   └── main.py
│   ├── rpc_ddp_tutorial.rst
│   ├── static_quantization_tutorial.py
│   ├── super_resolution_with_onnxruntime.py
│   ├── torch-script-parallelism.rst
│   ├── torch_script_custom_classes
│   │   ├── CMakeLists.txt
│   │   ├── custom_class_project
│   │   │   ├── CMakeLists.txt
│   │   │   ├── class.cpp
│   │   │   ├── custom_test.py
│   │   │   ├── export_attr.py
│   │   │   └── save.py
│   │   ├── infer.cpp
│   │   ├── run.sh
│   │   └── run2.sh
│   ├── torch_script_custom_classes.rst
│   ├── torch_script_custom_ops
│   │   ├── CMakeLists.txt
│   │   ├── op.cpp
│   │   ├── smoke_test.py
│   │   └── test.py
│   ├── torch_script_custom_ops.rst
│   └── transformer__timeseries_cpp_tutorial
│       ├── CMakeLists.txt
│       ├── scheduler.h
│       └── transformer_timeseries.cpp
├── beginner_source
│   ├── Intro_to_TorchScript_tutorial.py
│   ├── PyTorch Cheat.md
│   ├── README.txt
│   ├── audio_preprocessing_tutorial.py
│   ├── blitz
│   │   ├── README.txt
│   │   ├── autograd_tutorial.py
│   │   ├── cifar10_tutorial.py
│   │   ├── data_parallel_tutorial.py
│   │   ├── neural_networks_tutorial.py
│   │   └── tensor_tutorial.py
│   ├── chatbot_tutorial.py
│   ├── colab.rst
│   ├── data_loading_tutorial.py
│   ├── dcgan_faces_tutorial.py
│   ├── deep_learning_60min_blitz.rst
│   ├── deep_learning_nlp_tutorial.rst
│   ├── deeplabv3_on_android.rst
│   ├── deeplabv3_on_ios.rst
│   ├── deploy_seq2seq_hybrid_frontend_tutorial.py
│   ├── dist_overview.rst
│   ├── examples_autograd
│   │   ├── README.txt
│   │   ├── tf_two_layer_net.py
│   │   ├── two_layer_net_autograd.py
│   │   └── two_layer_net_custom_function.py
│   ├── examples_nn
│   │   ├── README.txt
│   │   ├── dynamic_net.py
│   │   ├── two_layer_net_module.py
│   │   ├── two_layer_net_nn.py
│   │   └── two_layer_net_optim.py
│   ├── examples_tensor
│   │   ├── README.txt
│   │   ├── two_layer_net_numpy.py
│   │   └── two_layer_net_tensor.py
│   ├── fgsm_tutorial.py
│   ├── former_torchies
│   │   ├── README.txt
│   │   ├── autograd_tutorial_old.py
│   │   ├── nnft_tutorial.py
│   │   ├── parallelism_tutorial.py
│   │   └── tensor_tutorial_old.py
│   ├── former_torchies_tutorial.rst
│   ├── hybrid_frontend
│   │   ├── README.txt
│   │   └── learning_hybrid_frontend_through_example_tutorial.py
│   ├── hybrid_frontend_tutorial.rst
│   ├── hyperparameter_tuning_tutorial.py
│   ├── nlp
│   │   ├── README.txt
│   │   ├── advanced_tutorial.py
│   │   ├── deep_learning_tutorial.py
│   │   ├── pytorch_tutorial.py
│   │   ├── sequence_models_tutorial.py
│   │   └── word_embeddings_tutorial.py
│   ├── nn_tutorial.py
│   ├── ptcheat.rst
│   ├── pytorch_with_examples.rst
│   ├── saving_loading_models.py
│   ├── text_sentiment_ngrams_tutorial.py
│   ├── torchtext_translation_tutorial.py
│   ├── transfer_learning_tutorial.py
│   └── transformer_tutorial.py
├── build.sh
├── cleanup.sh
├── conf.py
├── custom_directives.py
├── index.rst
├── intermediate_source
│   ├── README.txt
│   ├── char_rnn_classification_tutorial.py
│   ├── char_rnn_generation_tutorial.py
│   ├── ddp_tutorial.rst
│   ├── dist_pipeline_parallel_tutorial.rst
│   ├── dist_tuto.rst
│   ├── dynamic_quantization_bert_tutorial.rst
│   ├── flask_rest_api_tutorial.py
│   ├── memory_format_tutorial.py
│   ├── model_parallel_tutorial.py
│   ├── named_tensor_tutorial.py
│   ├── pruning_tutorial.py
│   ├── quantized_transfer_learning_tutorial.rst
│   ├── reinforcement_q_learning.py
│   ├── rpc_async_execution.rst
│   ├── rpc_param_server_tutorial.rst
│   ├── rpc_tutorial.rst
│   ├── seq2seq_translation_tutorial.py
│   ├── spatial_transformer_tutorial.py
│   ├── speech_command_recognition_with_torchaudio.py
│   ├── tensorboard_tutorial.rst
│   └── torchvision_tutorial.rst
├── prototype_source
│   ├── README.md
│   ├── README.txt
│   ├── distributed_rpc_profiling.rst
│   ├── graph_mode_dynamic_bert_tutorial.rst
│   ├── graph_mode_static_quantization_tutorial.py
│   ├── ios_gpu_workflow.rst
│   ├── nnapi_mobilenetv2.rst
│   ├── numeric_suite_tutorial.py
│   ├── torchscript_freezing.py
│   ├── vmap_recipe.py
│   └── vulkan_workflow.rst
├── recipes_source
│   ├── README.txt
│   ├── android_native_app_with_custom_op.rst
│   ├── deployment_with_flask.rst
│   ├── distributed_rpc_profiling.rst
│   ├── fuse.rst
│   ├── mobile_perf.rst
│   ├── model_preparation_android.rst
│   ├── model_preparation_ios.rst
│   ├── ptmobile_recipes_summary.rst
│   ├── quantization.rst
│   ├── recipes
│   │   ├── Captum_Recipe.py
│   │   ├── README.txt
│   │   ├── amp_recipe.py
│   │   ├── custom_dataset_transforms_loader.py
│   │   ├── defining_a_neural_network.py
│   │   ├── dynamic_quantization.py
│   │   ├── loading_data_recipe.py
│   │   ├── profiler.py
│   │   ├── save_load_across_devices.py
│   │   ├── saving_and_loading_a_general_checkpoint.py
│   │   ├── saving_and_loading_models_for_inference.py
│   │   ├── saving_multiple_models_in_one_file.py
│   │   ├── tensorboard_with_pytorch.py
│   │   ├── tuning_guide.py
│   │   ├── warmstarting_model_using_parameters_from_a_different_model.py
│   │   ├── what_is_state_dict.py
│   │   └── zeroing_out_gradients.py
│   ├── recipes_index.rst
│   ├── script_optimized.rst
│   └── torchscript_inference.rst
├── requirements.txt
└── runtime.txt

41 directories, 439 files
root@7bc3889aa21d:/workspace#

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Type

    No type

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions