Wenn du ein Foto deines vermissten Hundes bei TierFinder hochlädst, passiert in wenigen Sekunden etwas Faszinierendes: Unsere KI erstellt einen digitalen Fingerabdruck des Bildes und vergleicht ihn mit allen Fundtier-Fotos in der Datenbank. Wie das funktioniert — ohne Fachjargon.
Das Problem mit herkömmlicher Suche
Die traditionelle Suche nach vermissten Tieren basiert auf Text: "Brauner Labrador, mittelgroß, rotes Halsband, zuletzt gesehen in München-Schwabing." Das Problem: Jeder beschreibt ein Tier anders. Was für dich "braun" ist, ist für jemand anderen "beige" oder "goldfarben". Was du als "mittelgroß" einschätzt, hält ein anderer für "groß".
KI-Bilderkennung umgeht dieses Problem komplett. Sie arbeitet nicht mit Worten, sondern mit Pixeln.
Wie CLIP funktioniert
TierFinder nutzt CLIP ViT-L/14, ein Bilderkennungsmodell. Vereinfacht passiert Folgendes:
- Du lädst ein Foto hoch — von deinem vermissten Hund oder einem gefundenen Tier
- Die KI analysiert das Bild und erstellt einen "Embedding" — eine Zahlenreihe mit 768 Werten, die das Bild mathematisch beschreibt
- Dieser Embedding wird verglichen mit allen anderen Embeddings in der Datenbank
- Ähnlichkeits-Score: Je höher die Übereinstimmung, desto wahrscheinlicher ist es dasselbe Tier
Stell dir vor, jedes Tierfoto wird in eine Art einzigartigen Barcode umgewandelt. Dann werden die Barcodes verglichen — und ähnliche Barcodes bedeuten ähnliche Tiere.
Bild-Matching + Geo-Matching = Score
Die Bilderkennung allein reicht nicht. Ein brauner Labrador in Hamburg sieht einem braunen Labrador in München sehr ähnlich — aber sie sind wahrscheinlich nicht dasselbe Tier. Deshalb kombiniert TierFinder zwei Scores:
- Bild-Ähnlichkeit (CLIP Cosine Similarity): Wie ähnlich sehen die Tiere aus?
- Geo-Distanz (Haversine): Wie weit auseinander liegen die Meldungen?
Ein hoher Bild-Score + kurze Distanz = starkes Match. Das System benachrichtigt beide Seiten automatisch.
Was das Foto braucht
- Frontales Foto mit dem ganzen Tier
- Gute Beleuchtung (kein Gegenlicht)
- Besondere Merkmale zeigen (Flecken, Narben, Ohrenform)
- Aktuelles Foto (Fell kann sich saisonal ändern)
Was weniger gut funktioniert: sehr dunkle Fotos, extreme Nahaufnahmen, Fotos von hinten.
Alles auf unseren Servern
Ein wichtiger Punkt: TierFinder nutzt keinen Cloud-KI-Service wie OpenAI oder Google. Unsere KI-Modelle laufen auf unseren eigenen Servern in Deutschland. Deine Fotos werden nicht an Dritte weitergegeben. DSGVO-konform.
Die Zukunft: Noch genauer
Aktuell nutzen wir ein allgemeines Bilderkennungsmodell (CLIP). Für die Zukunft planen wir ein Fine-Tuning speziell auf Tier-Merkmale: Fellmuster, Gesichtsform, Körperbau. Akademische Forschung (z.B. das MegaDescriptor-Projekt) zeigt, dass spezialisierte Modelle die Genauigkeit deutlich erhöhen können.
Warum das wichtig ist
54% aller Haustiere in Deutschland sind nicht bei TASSO registriert. Für diese Tiere gibt es keine Chip-basierte Zuordnung. KI-Bilderkennung ist für sie oft die einzige Chance, mit ihrem Besitzer zusammengeführt zu werden. Genau das ist TierFinders Mission.
