-
Notifications
You must be signed in to change notification settings - Fork 4
Open
Description
In our current container there is a directory called tutorials under /workspace.
Seems to come from torch. I haven't looked into why it's there in details, but we probably want to clean it up when everything is working.
root@7bc3889aa21d:/workspace# tree tutorials/
tutorials/
├── LICENSE
├── Makefile
├── README.md
├── _static
│ ├── ajax-loader.gif
│ ├── basic.css
│ ├── broken_example.png
│ ├── comment-bright.png
│ ├── comment-close.png
│ ├── comment.png
│ ├── css
│ │ └── pytorch_theme.css
│ ├── doctools.js
│ ├── documentation_options.js
│ ├── down-pressed.png
│ ├── down.png
│ ├── file.png
│ ├── fonts
│ │ ├── FreightSans
│ │ │ ├── freight-sans-light.woff
│ │ │ ├── freight-sans-light.woff2
│ │ │ ├── freight-sans-regular.woff
│ │ │ └── freight-sans-regular.woff2
│ │ └── IBMPlexMono
│ │ ├── IBMPlexMono-Light.woff
│ │ ├── IBMPlexMono-Light.woff2
│ │ ├── IBMPlexMono-Medium.woff
│ │ ├── IBMPlexMono-Medium.woff2
│ │ ├── IBMPlexMono-Regular.woff
│ │ ├── IBMPlexMono-Regular.woff2
│ │ ├── IBMPlexMono-SemiBold.woff
│ │ └── IBMPlexMono-SemiBold.woff2
│ ├── gallery.css
│ ├── imagenet_class_index.json
│ ├── images
│ │ ├── arrow-down-orange.svg
│ │ ├── arrow-right-with-tail.svg
│ │ ├── chevron-down-grey.svg
│ │ ├── chevron-right-orange.svg
│ │ ├── chevron-right-white.svg
│ │ ├── home-footer-background.jpg
│ │ ├── icon-close.svg
│ │ ├── icon-menu-dots-dark.svg
│ │ ├── logo-dark.svg
│ │ ├── logo-facebook-dark.svg
│ │ ├── logo-icon.svg
│ │ ├── logo-twitter-dark.svg
│ │ ├── logo.svg
│ │ └── view-page-source-icon.svg
│ ├── img
│ │ ├── ONNXLive.png
│ │ ├── SRResNet.png
│ │ ├── Variable.png
│ │ ├── audio_preprocessing_tutorial_waveform.png
│ │ ├── autodiff.png
│ │ ├── bert.png
│ │ ├── bert_mrpc.png
│ │ ├── cartpole.gif
│ │ ├── cat.jpg
│ │ ├── cat_224x224.jpg
│ │ ├── cat_superres_with_ort.jpg
│ │ ├── channels_last_memory_format.png
│ │ ├── char_rnn_generation.png
│ │ ├── chat.png
│ │ ├── chatbot
│ │ │ ├── RNN-bidirectional.png
│ │ │ ├── attn1.png
│ │ │ ├── attn2.png
│ │ │ ├── bot.png
│ │ │ ├── diff.png
│ │ │ ├── global_attn.png
│ │ │ ├── grad_clip.png
│ │ │ ├── pytorch_workflow.png
│ │ │ ├── scores.png
│ │ │ ├── seq2seq_batches.png
│ │ │ └── seq2seq_ts.png
│ │ ├── cifar10.png
│ │ ├── classic_memory_format.png
│ │ ├── compare_output.png
│ │ ├── compare_stub.png
│ │ ├── cpp-frontend
│ │ │ └── digits.png
│ │ ├── cpp-pytorch.png
│ │ ├── cpp_logo.png
│ │ ├── data_parallel.png
│ │ ├── dcgan_generator.png
│ │ ├── deeplabv3_android.png
│ │ ├── deeplabv3_android2.png
│ │ ├── deeplabv3_ios.png
│ │ ├── deeplabv3_ios2.png
│ │ ├── distributed
│ │ │ ├── DistPyTorch.jpg
│ │ │ ├── all_gather.pdf
│ │ │ ├── all_gather.png
│ │ │ ├── all_reduce.pdf
│ │ │ ├── all_reduce.png
│ │ │ ├── broadcast.png
│ │ │ ├── gather.png
│ │ │ ├── reduce.png
│ │ │ ├── scatter.png
│ │ │ ├── send_recv.png
│ │ │ └── send_recv_big.png
│ │ ├── dynamic_graph.gif
│ │ ├── fgsm_panda_image.png
│ │ ├── flask.png
│ │ ├── hybrid_frontend
│ │ │ ├── 220px-KnnClassification.png
│ │ │ ├── iris_pic.jpg
│ │ │ └── pytorch_workflow_small.jpg
│ │ ├── landmarked_face2.png
│ │ ├── memory_format_logo.png
│ │ ├── mnist.png
│ │ ├── model-parallel-images
│ │ │ ├── mp_vs_rn.png
│ │ │ ├── mp_vs_rn_vs_pp.png
│ │ │ └── split_size_tradeoff.png
│ │ ├── named_tensor.png
│ │ ├── neural-style
│ │ │ ├── dancing.jpg
│ │ │ ├── neuralstyle.png
│ │ │ ├── picasso.jpg
│ │ │ ├── sphx_glr_neural_style_tutorial_001.png
│ │ │ ├── sphx_glr_neural_style_tutorial_002.png
│ │ │ ├── sphx_glr_neural_style_tutorial_003.png
│ │ │ └── sphx_glr_neural_style_tutorial_004.png
│ │ ├── panda.png
│ │ ├── per_channel_quant.png
│ │ ├── per_tensor_quant.png
│ │ ├── pruning.png
│ │ ├── pytorch-logo-dark.png
│ │ ├── pytorch-logo-dark.svg
│ │ ├── qat.png
│ │ ├── quant_asym.png
│ │ ├── quant_embeddings.png
│ │ ├── quantized_transfer_learning.png
│ │ ├── ray-tune.png
│ │ ├── reinforcement_learning_diagram.jpg
│ │ ├── rnnclass.png
│ │ ├── rpc-images
│ │ │ └── batch.png
│ │ ├── rpc_trace_img.png
│ │ ├── sample_file.jpeg
│ │ ├── scipynumpy.png
│ │ ├── seq-seq-images
│ │ │ ├── attention-decoder-network.dot
│ │ │ ├── attention-decoder-network.png
│ │ │ ├── decoder-network.dot
│ │ │ ├── decoder-network.png
│ │ │ ├── decoder.png
│ │ │ ├── decoder@2x.png
│ │ │ ├── encoder-network.dot
│ │ │ ├── encoder-network.png
│ │ │ ├── seq2seq.png
│ │ │ ├── seq2seq@2x.png
│ │ │ ├── word-encoding.png
│ │ │ └── word-encoding@2x.png
│ │ ├── seq2seq_flat.png
│ │ ├── shadow.png
│ │ ├── steam-train-whistle-daniel_simon-converted-from-mp3.wav
│ │ ├── stn
│ │ │ ├── FSeq.png
│ │ │ ├── Five.gif
│ │ │ ├── stn-arch.png
│ │ │ └── tr.png
│ │ ├── tensor_illustration.png
│ │ ├── tensor_illustration_flat.png
│ │ ├── tensorboard_figure.png
│ │ ├── tensorboard_first_view.png
│ │ ├── tensorboard_images.png
│ │ ├── tensorboard_model_viz.png
│ │ ├── tensorboard_pr_curves.png
│ │ ├── tensorboard_projector.png
│ │ ├── tensorboard_scalar_runs.png
│ │ ├── text_sentiment_ngrams_model.png
│ │ ├── thumbnails
│ │ │ ├── 220px-KnnClassification.png
│ │ │ ├── babel.jpg
│ │ │ ├── captum_teaser.png
│ │ │ ├── cropped
│ │ │ │ ├── 60-min-blitz.png
│ │ │ │ ├── Adversarial-Example-Generation.png
│ │ │ │ ├── Autograd-in-Cpp-Frontend.png
│ │ │ │ ├── Combining-Distributed-DataParallel-with-Distributed-RPC-Framework.png
│ │ │ │ ├── Custom-Cpp-and-CUDA-Extensions.png
│ │ │ │ ├── DCGAN-Tutorial.png
│ │ │ │ ├── Deploying-PyTorch-in-Python-via-a-REST-API-with-Flask.png
│ │ │ │ ├── Distributed-Pipeline-Parallelism-Using-RPC.png
│ │ │ │ ├── Extending-TorchScript-with-Custom-Cpp-Classes.png
│ │ │ │ ├── Extending-TorchScript-with-Custom-Cpp-Operators.png
│ │ │ │ ├── Getting Started with Distributed-RPC-Framework.png
│ │ │ │ ├── Getting-Started-with Distributed RPC Framework.png
│ │ │ │ ├── Getting-Started-with-Distributed-Data-Parallel.png
│ │ │ │ ├── Getting-Started-with-Distributed-RPC-Framework.png
│ │ │ │ ├── Implementing-Batch-RPC-Processing-Using-Asynchronous-Executions.png
│ │ │ │ ├── Implementing-a-Parameter-Server-Using-Distributed-RPC-Framework.png
│ │ │ │ ├── Introduction-to-TorchScript.png
│ │ │ │ ├── Language-Translation-with-TorchText.png
│ │ │ │ ├── Loading-a-TorchScript-Model-in-Cpp.png
│ │ │ │ ├── Model-Parallel-Best-Practices.png
│ │ │ │ ├── NLP-From-Scratch-Classifying-Names-with-a-Character-Level-RNN.png
│ │ │ │ ├── NLP-From-Scratch-Generating-Names-with-a-Character-Level-RNN.png
│ │ │ │ ├── NLP-From-Scratch-Translation-with-a-Sequence-to-Sequence-Network-and-Attention.png
│ │ │ │ ├── Pruning-Tutorial.png
│ │ │ │ ├── PyTorch-Distributed-Overview.png
│ │ │ │ ├── Sequence-to-Sequence-Modeling-with-nnTransformer-andTorchText.png
│ │ │ │ ├── Text-Classification-with-TorchText.png
│ │ │ │ ├── TorchScript-Parallelism.jpg
│ │ │ │ ├── TorchVision-Object-Detection-Finetuning-Tutorial.png
│ │ │ │ ├── Transfer-Learning-for-Computer-Vision-Tutorial.png
│ │ │ │ ├── Tutorials_Card_Template.psd
│ │ │ │ ├── Using-the-PyTorch-Cpp-Frontend.png
│ │ │ │ ├── Writing-Distributed-Applications-with-PyTorch.png
│ │ │ │ ├── advanced-PyTorch-1point0-Distributed-Trainer-with-Amazon-AWS.png
│ │ │ │ ├── amp.png
│ │ │ │ ├── android.png
│ │ │ │ ├── custom-datasets-transforms-and-dataloaders.png
│ │ │ │ ├── defining-a-network.PNG
│ │ │ │ ├── experimental-Channels-Last-Memory-Format-in-PyTorch.png
│ │ │ │ ├── experimental-Dynamic-Quantization-on-BERT.png
│ │ │ │ ├── experimental-Dynamic-Quantization-on-an-LSTM-Word-Language-Model.png
│ │ │ │ ├── experimental-Introduction-to-Named-Tensors-in-PyTorch.png
│ │ │ │ ├── experimental-Quantized-Transfer-Learning-for-Computer-Vision-Tutorial.png
│ │ │ │ ├── experimental-Static-Quantization-with-Eager-Mode-in-PyTorch.png
│ │ │ │ ├── ios.png
│ │ │ │ ├── learning-pytorch-with-examples.png
│ │ │ │ ├── loading-data-in-pytorch.png
│ │ │ │ ├── loading-data.PNG
│ │ │ │ ├── mobile.png
│ │ │ │ ├── model-interpretability-using-captum.png
│ │ │ │ ├── optional-Exporting-a-Model-from-PyTorch-to-ONNX-and-Running-it-using-ONNX-Runtime.png
│ │ │ │ ├── profile.png
│ │ │ │ ├── profiler.png
│ │ │ │ ├── saving-and-loading-general-checkpoint.PNG
│ │ │ │ ├── saving-and-loading-models-across-devices.PNG
│ │ │ │ ├── saving-and-loading-models-for-inference.PNG
│ │ │ │ ├── saving-multiple-models.PNG
│ │ │ │ ├── torch-nn.png
│ │ │ │ ├── torchaudio-Tutorial.png
│ │ │ │ ├── torchaudio-speech.png
│ │ │ │ ├── torchscript_overview.png
│ │ │ │ ├── using-dynamic-post-training-quantization.png
│ │ │ │ ├── using-flask-create-restful-api.png
│ │ │ │ ├── visualizing-with-tensorboard.png
│ │ │ │ ├── warmstarting-models.PNG
│ │ │ │ ├── what-is-a-state-dict.PNG
│ │ │ │ └── zeroing-out-gradients.PNG
│ │ │ ├── custom_dataset.png
│ │ │ ├── default.png
│ │ │ ├── defining_a_network.png
│ │ │ ├── examples.png
│ │ │ ├── eye.png
│ │ │ ├── floppy.png
│ │ │ ├── german_to_english_translation.png
│ │ │ ├── landmarked_face2.png
│ │ │ ├── pixelated-cat.png
│ │ │ ├── pytorch-logo-flat.png
│ │ │ ├── pytorch_tensorboard.png
│ │ │ ├── sphx_glr_transfer_learning_tutorial_001.png
│ │ │ ├── tensorboard_dev.png
│ │ │ ├── tensorboard_scalars.png
│ │ │ ├── torch-logo.png
│ │ │ ├── torchtext.png
│ │ │ └── tv-img.png
│ │ ├── torch-nn-vs-pytorch-nn.png
│ │ ├── torch.nn.png
│ │ ├── torchscript.png
│ │ ├── torchscript_to_cpp.png
│ │ ├── trace_img.png
│ │ ├── transformer_architecture.jpg
│ │ ├── transformer_input_target.png
│ │ └── tv_tutorial
│ │ ├── tv_image01.png
│ │ ├── tv_image02.png
│ │ ├── tv_image03.png
│ │ ├── tv_image04.png
│ │ ├── tv_image05.png
│ │ ├── tv_image06.png
│ │ └── tv_image07.png
│ ├── jquery-3.2.1.js
│ ├── jquery.js
│ ├── js
│ │ └── modernizr.min.js
│ ├── minus.png
│ ├── no_image.png
│ ├── plus.png
│ ├── pygments.css
│ ├── pytorch-logo-dark.svg
│ ├── searchtools.js
│ ├── torchvision_finetuning_instance_segmentation.ipynb
│ ├── tv-training-code.py
│ ├── underscore-1.3.1.js
│ ├── underscore.js
│ ├── up-pressed.png
│ ├── up.png
│ └── websupport.js
├── _templates
│ └── layout.html
├── advanced_source
│ ├── ONNXLive.rst
│ ├── README.txt
│ ├── cpp_autograd.rst
│ ├── cpp_export.rst
│ ├── cpp_extension.rst
│ ├── cpp_frontend.rst
│ ├── dispatcher
│ │ ├── CMakeLists.txt
│ │ ├── op.cpp
│ │ └── test.py
│ ├── dispatcher.rst
│ ├── dynamic_quantization_tutorial.py
│ ├── neural_style_tutorial.py
│ ├── numpy_extensions_tutorial.py
│ ├── rpc_ddp_tutorial
│ │ └── main.py
│ ├── rpc_ddp_tutorial.rst
│ ├── static_quantization_tutorial.py
│ ├── super_resolution_with_onnxruntime.py
│ ├── torch-script-parallelism.rst
│ ├── torch_script_custom_classes
│ │ ├── CMakeLists.txt
│ │ ├── custom_class_project
│ │ │ ├── CMakeLists.txt
│ │ │ ├── class.cpp
│ │ │ ├── custom_test.py
│ │ │ ├── export_attr.py
│ │ │ └── save.py
│ │ ├── infer.cpp
│ │ ├── run.sh
│ │ └── run2.sh
│ ├── torch_script_custom_classes.rst
│ ├── torch_script_custom_ops
│ │ ├── CMakeLists.txt
│ │ ├── op.cpp
│ │ ├── smoke_test.py
│ │ └── test.py
│ ├── torch_script_custom_ops.rst
│ └── transformer__timeseries_cpp_tutorial
│ ├── CMakeLists.txt
│ ├── scheduler.h
│ └── transformer_timeseries.cpp
├── beginner_source
│ ├── Intro_to_TorchScript_tutorial.py
│ ├── PyTorch Cheat.md
│ ├── README.txt
│ ├── audio_preprocessing_tutorial.py
│ ├── blitz
│ │ ├── README.txt
│ │ ├── autograd_tutorial.py
│ │ ├── cifar10_tutorial.py
│ │ ├── data_parallel_tutorial.py
│ │ ├── neural_networks_tutorial.py
│ │ └── tensor_tutorial.py
│ ├── chatbot_tutorial.py
│ ├── colab.rst
│ ├── data_loading_tutorial.py
│ ├── dcgan_faces_tutorial.py
│ ├── deep_learning_60min_blitz.rst
│ ├── deep_learning_nlp_tutorial.rst
│ ├── deeplabv3_on_android.rst
│ ├── deeplabv3_on_ios.rst
│ ├── deploy_seq2seq_hybrid_frontend_tutorial.py
│ ├── dist_overview.rst
│ ├── examples_autograd
│ │ ├── README.txt
│ │ ├── tf_two_layer_net.py
│ │ ├── two_layer_net_autograd.py
│ │ └── two_layer_net_custom_function.py
│ ├── examples_nn
│ │ ├── README.txt
│ │ ├── dynamic_net.py
│ │ ├── two_layer_net_module.py
│ │ ├── two_layer_net_nn.py
│ │ └── two_layer_net_optim.py
│ ├── examples_tensor
│ │ ├── README.txt
│ │ ├── two_layer_net_numpy.py
│ │ └── two_layer_net_tensor.py
│ ├── fgsm_tutorial.py
│ ├── former_torchies
│ │ ├── README.txt
│ │ ├── autograd_tutorial_old.py
│ │ ├── nnft_tutorial.py
│ │ ├── parallelism_tutorial.py
│ │ └── tensor_tutorial_old.py
│ ├── former_torchies_tutorial.rst
│ ├── hybrid_frontend
│ │ ├── README.txt
│ │ └── learning_hybrid_frontend_through_example_tutorial.py
│ ├── hybrid_frontend_tutorial.rst
│ ├── hyperparameter_tuning_tutorial.py
│ ├── nlp
│ │ ├── README.txt
│ │ ├── advanced_tutorial.py
│ │ ├── deep_learning_tutorial.py
│ │ ├── pytorch_tutorial.py
│ │ ├── sequence_models_tutorial.py
│ │ └── word_embeddings_tutorial.py
│ ├── nn_tutorial.py
│ ├── ptcheat.rst
│ ├── pytorch_with_examples.rst
│ ├── saving_loading_models.py
│ ├── text_sentiment_ngrams_tutorial.py
│ ├── torchtext_translation_tutorial.py
│ ├── transfer_learning_tutorial.py
│ └── transformer_tutorial.py
├── build.sh
├── cleanup.sh
├── conf.py
├── custom_directives.py
├── index.rst
├── intermediate_source
│ ├── README.txt
│ ├── char_rnn_classification_tutorial.py
│ ├── char_rnn_generation_tutorial.py
│ ├── ddp_tutorial.rst
│ ├── dist_pipeline_parallel_tutorial.rst
│ ├── dist_tuto.rst
│ ├── dynamic_quantization_bert_tutorial.rst
│ ├── flask_rest_api_tutorial.py
│ ├── memory_format_tutorial.py
│ ├── model_parallel_tutorial.py
│ ├── named_tensor_tutorial.py
│ ├── pruning_tutorial.py
│ ├── quantized_transfer_learning_tutorial.rst
│ ├── reinforcement_q_learning.py
│ ├── rpc_async_execution.rst
│ ├── rpc_param_server_tutorial.rst
│ ├── rpc_tutorial.rst
│ ├── seq2seq_translation_tutorial.py
│ ├── spatial_transformer_tutorial.py
│ ├── speech_command_recognition_with_torchaudio.py
│ ├── tensorboard_tutorial.rst
│ └── torchvision_tutorial.rst
├── prototype_source
│ ├── README.md
│ ├── README.txt
│ ├── distributed_rpc_profiling.rst
│ ├── graph_mode_dynamic_bert_tutorial.rst
│ ├── graph_mode_static_quantization_tutorial.py
│ ├── ios_gpu_workflow.rst
│ ├── nnapi_mobilenetv2.rst
│ ├── numeric_suite_tutorial.py
│ ├── torchscript_freezing.py
│ ├── vmap_recipe.py
│ └── vulkan_workflow.rst
├── recipes_source
│ ├── README.txt
│ ├── android_native_app_with_custom_op.rst
│ ├── deployment_with_flask.rst
│ ├── distributed_rpc_profiling.rst
│ ├── fuse.rst
│ ├── mobile_perf.rst
│ ├── model_preparation_android.rst
│ ├── model_preparation_ios.rst
│ ├── ptmobile_recipes_summary.rst
│ ├── quantization.rst
│ ├── recipes
│ │ ├── Captum_Recipe.py
│ │ ├── README.txt
│ │ ├── amp_recipe.py
│ │ ├── custom_dataset_transforms_loader.py
│ │ ├── defining_a_neural_network.py
│ │ ├── dynamic_quantization.py
│ │ ├── loading_data_recipe.py
│ │ ├── profiler.py
│ │ ├── save_load_across_devices.py
│ │ ├── saving_and_loading_a_general_checkpoint.py
│ │ ├── saving_and_loading_models_for_inference.py
│ │ ├── saving_multiple_models_in_one_file.py
│ │ ├── tensorboard_with_pytorch.py
│ │ ├── tuning_guide.py
│ │ ├── warmstarting_model_using_parameters_from_a_different_model.py
│ │ ├── what_is_state_dict.py
│ │ └── zeroing_out_gradients.py
│ ├── recipes_index.rst
│ ├── script_optimized.rst
│ └── torchscript_inference.rst
├── requirements.txt
└── runtime.txt
41 directories, 439 files
root@7bc3889aa21d:/workspace#Reactions are currently unavailable
Metadata
Metadata
Assignees
Labels
No labels