Kaydol

Flood göndermek, insanların floodlarını okumak ve diğer insanlarla bağlantı kurmak için sosyal Floodlar ve Flood Yanıtları Motorumuza kaydolun.

Oturum aç

Flood göndermek, insanların floodlarını okumak ve diğer insanlarla bağlantı kurmak için sosyal Floodlar ve Flood Yanıtları Motorumuza giriş yapın.

Şifremi hatırlamıyorum

Şifreni mi unuttun? Lütfen e-mail adresinizi giriniz. Bir bağlantı alacaksınız ve e-posta yoluyla yeni bir şifre oluşturacaksınız.

3 ve kadim dostu 1 olan sj'yi rakamla giriniz. ( 31 )

Üzgünüz, Flood yazma yetkiniz yok, Flood girmek için giriş yapmalısınız.

Lütfen bu Floodun neden bildirilmesi gerektiğini düşündüğünüzü kısaca açıklayın.

Lütfen bu cevabın neden bildirilmesi gerektiğini kısaca açıklayın.

Please briefly explain why you feel this user should be reported.

Scan local photos / videos to identify potentially inappropriate content

My wife and I have thousands of photos and videos stored locally and they are synched locally and to a few cloud repositories..

I would like a way to scan these photos and videos for anything that may or may not have been taken on mine and my wife’s devices that could be…. inappropriate for future generations to stumble across..

Does anyone know of any software that wills can a directory and identify anything based on skin tones / % of photo that is skin tone or anything similar that i could use?

Edit : A bonus would be if i could scan for any photos or videos that have the damn tiktok logo in them so i can free up some space that’s currently taken up by my daughters inability to go more than 15 seconds without tiktoking..

Benzer Yazılar

Yorum eklemek için giriş yapmalısınız.

4 Yorumları

  1. For automated implementation, you can use something like nudenet and it’s classifier. Setting up a simple python script and looping through the files:

    classifier = NudeClassifier()

    def isUnsafe(file):
    result = classifier.classify(file)
    unsafe = result.get(file).get(‘unsafe’)

    if unsafe > 0.8:
    return True
    return False

  2. Sorry I don’t have a suggestion…maybe Autopsy can be scripted to look for hex codes for skin tone; I’d use a range from a piece of photo editing software such as GIMP or Affinity Photo to find the hex code ranges

  3. Well, not exactly intended for it- but,

    Photoprism has a feature which detects NSFW pictures.

  4. That’s a great question. I’ve had the same question and also have tried different solutions. Synology has a system that automatically classifies your photos. But even in that case it’s hard to find the ones you are looking for. If you find a solution please give me a heads up as well.