PROJET AUTOBLOG


Links

source: Links

⇐ retour index

GitHub - yahoo/open_nsfw: code for running Model and code for Not Suitable for Work (NSFW) classification using deep neural network Caffe models

dimanche 23 octobre 2016 à 18:21
Petit script, ci-dessous, qui utilise open_nsfw pour trier des images et les ranger dans les dossiers SFW et NSFW.
Ce script doit être placé dans le dossier open_nsfw.
Vous devez aussi créer un dossier imges_to_process dans open_nsfw et y mettre les images à trier.
La reconnaissance d'image NSFW est plutôt efficace.

«
#!/bin/bash
# script : sort_images.sh
# /!\ ce script doit être dans le dossier open_nsfw
folder="imges_to_process" # Dossier contenant les images à trier. Il doit être un sous-dossier de open_nsfw
mkdir -p NSFW
mkdir -p SFW
for i in $(ls $folder)
do
a=$(docker run --volume=$(pwd):/workspace caffe:cpu python ./classify_nsfw.py --model_def nsfw_model/deploy.prototxt --pretrained_model nsfw_model/resnet_50_1by2_nsfw.caffemodel $folder/$i 2> /dev/null)
if [ "${a:16:1}" -gt "8" ]; then
echo "NSFW  $i"
mv $folder/$i NSFW/$i
else
echo "SFW $i"
mv $folder/$i SFW/$i
fi
done
»

À vous de choisir quel dossier vous voulez garder ^_^
(Permalink)