Calculateur de distribution normale de pixels

Votre navigateur ne prend pas en charge Canvas. Veuillez mettre à jour votre navigateur.

Paramètres de répartition :
Couvrir les normales
moyenne (μ ou x̄)
Écart type (σ ou s)

probabilité empirique

P( )
Résultat :
Probabilité approximative : P(1,5< X <2) ≈ 0
Probabilité normale : P(1,5< X <2) = 0,0441

Le calculateur de distribution normale de pixels peut être utilisé avec des algorithmes de modélisation statistique d'arrière-plan pour la classification des pixels en temps réel.

La première chose à considérer est que même les mesures continues sont en réalité discrètes. Par exemple, la température est toujours considérée comme continue, mais chaque fois que des données de température sont traitées, ces données sont des données discrètes avec une précision comparable à celle du capteur utilisé pour les mesurer. Il en va de même pour toute quantité physique mesurable (y compris l’intensité). Cela dit, avec nos modèles physiques modernes, cela n'a pas de sens de considérer la température comme suivant des probabilités de masse discrètes avec des milliers de sorties possibles et que chacun les étudie sous l'hypothèse de continuité.

Alors, où fixons-nous les limites ? Quand décidons-nous qu'il y a « trop » de sorties possibles pour traiter une fonction de masse de probabilité et choisissons-nous d'utiliser une distribution continue ? C'est une question ouverte ! :)

Voilà, nous ne perdons pas d'informations lors du traitement continu de données discrètes, il n'y a donc aucune limitation à le faire !

Considérant désormais l'intensité des pixels d'une image, la plupart du temps, nous devons considérer des probabilités de qualité discrètes avec 256 sorties possibles, ce qui signifie que 256 paramètres (ou poids) doivent être estimés ou ajustés. Si l’on modélise l’intensité via une distribution continue, le nombre de paramètres est considérablement réduit ! Prenons par exemple la Gaussienne : 2 paramètres. Même avec des distributions ou des modèles de mélange plus complexes, nous n'avons pas besoin de régler des centaines de paramètres. C'est le principal avantage ! Représentation compacte !

Concernant le choix de la gaussienne, disons qu'il a été prouvé empiriquement son bon fonctionnement. Le théorème central limite soutient également ce choix commun. En fin de compte, de nombreux algorithmes sont facilement disponibles, à condition que les données suivent une distribution gaussienne, ce qui les rend plus couramment utilisés par les personnes travaillant sur le terrain. Cela ne veut pas dire qu’il n’y a pas d’autres choses disponibles, mais c’est la réalité.