diff --git a/jean_zay/env_configs/didn.sh b/jean_zay/env_configs/didn.sh new file mode 100644 index 00000000..31716570 --- /dev/null +++ b/jean_zay/env_configs/didn.sh @@ -0,0 +1,9 @@ +#!/bin/bash +module purge +module load pytorch-gpu/py3/1.6.0 + +export BSD500_DATA_DIR=$SCRATCH/ +export BSD68_DATA_DIR=$SCRATCH/ +export DIV2K_DATA_DIR=$SCRATCH/ +export LOGS_DIR=$SCRATCH/ +export CHECKPOINTS_DIR=$SCRATCH/ diff --git a/jean_zay/raw/understanding-unets/didn_train.slurm b/jean_zay/raw/understanding-unets/didn_train.slurm new file mode 100644 index 00000000..71b58e51 --- /dev/null +++ b/jean_zay/raw/understanding-unets/didn_train.slurm @@ -0,0 +1,24 @@ +#!/bin/bash +#SBATCH --job-name=learnlets_didn_exact_recon # nom du job +#SBATCH --ntasks=1 # nombre de tâche MPI +#SBATCH --ntasks-per-node=1 # nombre de tâche MPI par noeud +#SBATCH --gres=gpu:2 # nombre de GPU à réserver par oeud +#SBATCH --cpus-per-task=20 # nombre de coeurs à réserver par tâche +# /!\ Attention, la ligne suivante est trompeuse mais dans le vocabulaire +# de Slurm "multithread" fait bien référence à l'hyperthreading. +#SBATCH --hint=nomultithread # on réserve des coeurs physiques et non logiques +#SBATCH --distribution=block:block # on épingle les tâches sur des coeurs contigus +#SBATCH --time=20:00:00 # temps d'exécution maximum demande (HH:MM:SS) +#SBATCH --output=didn_exact_recon%j.out # nom du fichier de sortie +#SBATCH --error=didn_exact_recon%j.out # nom du fichier d'erreur (ici commun avec la sortie) + +set -x +cd $WORK/submission-scripts/jean_zay/env_configs/ + +. didn.sh + +cd $WORK + +srun --ntasks=1 python ./DIDN-master/gray_train.py --cuda --nEpochs 12 --gpus 0,1 --exact_recon + +wait # wait for all ccc_mprun(s) to complete.