Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Entwicklung

A/B Testing

A/B Testing (auch bekannt als Split Testing oder Bucket Testing) ist eine fundamentale Methode der empirischen Forschung und Produktentwicklung, die auch im Bereich der Künstlichen Intelligenz eine entscheidende Rolle spielt. Im Kern handelt es sich um ein kontrolliertes Experiment, bei dem zwei Varianten eines Systems (Variante A und Variante B) parallel unter identischen Rahmenbedingungen, aber mit unterschiedlichen Parametern oder Algorithmen, getestet werden. Ziel ist es, statistisch signifikante Daten darüber zu gewinnen, welche Variante besser performt.

Im spezifischen Kontext von Machine Learning und KI wird A/B Testing häufig eingesetzt, um die Diskrepanz zwischen Offline-Metriken (wie Accuracy oder F1-Score während des Trainings) und Online-Metriken (wie User Engagement, Click-Through-Rate oder Conversion Rate in der echten Welt) zu überbrücken. Ein Modell mag im Labor zwar präziser sein, aber in der Praxis durch höhere Latenzzeiten oder unvorhergesehene Verhaltensweisen schlechter abschneiden. Durch A/B Testing, bei dem z.B. 5% der Nutzer das neue Modell und 95% das alte Modell bedienen, kann dieses Risiko minimiert werden.

Wichtige Aspekte beim A/B Testing sind die Randomisierung der Nutzerzuweisung, die Vermeidung von 'Sample Pollution' und die korrekte Bestimmung der Stichprobengröße, um statistische Signifikanz zu gewährleisten. In modernen MLOps-Pipelines ist A/B Testing oft automatisiert ('Canary Deployment'), wobei der Traffic-Anteil für das neue Modell automatisch erhöht wird, wenn keine Fehler auftreten.

Testing Optimization
🔗 Link kopiert!