Foto Alterstest
Entdecke dein biologisches Alter in 30 Sekunden mit KI-Gesichtsanalyse.
Foto hochladen oder aufnehmen
Die Live-Kamera erkennt visuelle Mikro-Biomarker für ein tieferes biologisches Altersprofil.
Tipp: Vor einem Fenster mit Tageslicht sitzen und still halten.
Haftungsausschluss: Dieses Tool schätzt das wahrgenommene Gesichtsalter und Ruhe-Biomarker via kamerabasiertem rPPG. Es ist kein Medizinprodukt und misst kein klinisches biologisches Alter. Die Ergebnisse dienen ausschließlich zu Informations- und Unterhaltungszwecken und stellen keine medizinische Diagnose, Beratung oder Behandlung dar. Bei gesundheitlichen Fragen wende dich bitte an eine medizinische Fachkraft. Herzfrequenz, HRV, Stress, Atemfrequenz und Gefäßmetriken werden vollständig in deinem Browser gemessen — keine Video- oder biometrischen Daten verlassen dein Gerät. Dein Foto wird sicher an unsere EU-Server zur Altersschätzung gesendet und nicht gespeichert.
Kennen Sie Ihre Lifestyle-Faktoren?
Finden Sie heraus, wie Ihr Lebensstil Ihr Alter beeinflusst.
Architektur
01Das Kernproblem: Kontextabhängigkeit
Standard-Altersschätzungstools basieren auf oberflächlichen CNNs, die auf engen Gesichtsausschnitten trainiert wurden. Diese versagen unter "Real-World"-Bedingungen, weil sie das wichtigste Signal verwerfen: den Kontext.
Die Lösung: Wir nutzen eine Dual-Stream-Transformer-Architektur (MiVOLO). Um das Problem des fehlenden Kontexts zu lösen, modelliert das Modell mathematisch die Abhängigkeit zwischen den biometrischen Merkmalen einer Person und ihrem globalen Kontext (Haltung, Körpertyp, Kleidung).
02Schritt 1: Isolierung des Signals (Lokalisierung)
Die erste Herausforderung: Bevor das Modell den Kontext analysieren kann, muss es deterministisch ein bestimmtes Gesicht mit seinem spezifischen Körper in einem überfüllten Bild paaren.
Wir beginnen mit der Isolierung des Signals mithilfe eines speziell trainierten Objekterkennungsmodells, das Bounding Boxes für zwei Klassen regrediert: Gesicht und Person.
Die Assoziationslogik
Um Identitätsverwechslungen zu vermeiden, lösen wir ein bipartites Matching-Problem, um jedes erkannte Gesicht (Fᵢ) mit dem entsprechenden Körper (Bⱼ) zu paaren. Dies wird über eine Kostenmatrix minimiert, die auf IoU (Intersection over Union) und räumlicher Containment-Logik basiert.
Signalbereinigung (Detach & Trim)
- DetachObject: Wenn sich die Bounding Box eines Zuschauers mit dem Ziel überschneidet, werden die Pixel des Zuschauers mathematisch nullifiziert (ausgeschwärzt).
- Trim: Wir wenden einen Trimming-Vorgang an, um Artefakte und nutzlosen Leerraum zu entfernen und so eine maximale Pixeldichte für das Subjekt zu gewährleisten.
03Schritt 2: Vorbereitung der Tensoren (Normalisierung)
Die zweite Herausforderung: Neuronale Netze benötigen normalisierte, hochfrequente Eingaben, um Mikro-Merkmale wie Falten zu erkennen. Standard-Resizing zerstört diese Daten.
Wir führen eine aspektverhältnis-erhaltende Ausrichtung (Letterbox) durch, um geometrische Verzerrungen von Gesichtsmerkmalen zu verhindern.
Mathematische Normalisierung
Pixelwerte x ∈ [0, 255] werden auf [0, 1] skaliert und auf die ImageNet-Verteilung standardisiert:
Feinkörnige Tokenisierung (8×8)
Standard ViTs verwenden grobe 16×16 Patches. Wir nutzen 8×8 Patch Embeddings. Dies vervierfacht die Token-Dichte und erhält hochfrequente Details.
04Schritt 3: Fusion der Streams (Der Modellkern)
Die dritte Herausforderung: Wir haben nun zwei separate Tensor-Streams (Gesicht und Körper). Um das "Alterssignal" zu rekonstruieren, müssen diese Streams mathematisch Informationen austauschen.
Dies ist der Motor des Systems. Wir verarbeiten die Streams durch ein VOLO-D1 Backbone (27,4M Parameter), das Outlook Attention verwendet, um feine Tokens effizient zu kodieren.
Cross-View Feature Fusion
Der Gesichts-Stream (Z_face) und der Körper-Stream (Z_body) werden über ein Feature Enhancer Module fusioniert. Mathematisch fungieren die Body-Tokens als Kontext, um die Face-Tokens neu zu gewichten.
05Schritt 4: Die finale Ausgabe
Die finale Herausforderung: Das Modell muss ein präzises biologisches Alter ausgeben, nicht einen groben Klassifizierungs-"Bucket", während es gleichzeitig das Geschlecht bestimmt.
Die finalen fusionierten Features werden in einen einheitlichen 3-dimensionalen Ausgabevektor projiziert, der zwei verschiedene mathematische Aufgaben behandelt:
Altersregression (Skalar)
Wir behandeln das Alter als kontinuierlichen Wert, optimiert über Weighted MSE Loss, um Ausreißer zu bestrafen und Klassenungleichgewicht zu handhaben.
Geschlechtsklassifikation (Logits)
Ein binärer Klassifikator, der Konfidenzscores ausgibt, optimiert über Binary Cross-Entropy.