Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Daten

Example

Ein Example (Beispiel) im ML-Kontext ist ein einzelner Datenpunkt in einem Trainings-, Validierungs- oder Testdatensatz — bestehend aus den Eingabemerkmalen (Features) und dem zugehörigen Label oder Zielwert.

Die Terminologie: Ein „labeled example" hat ein Ziel (überwachtes Lernen): Ein Bild eines Hundes mit dem Label „Hund". Ein „unlabeled example" hat kein Ziel (unüberwachtes Lernen): Ein Bild ohne Label, das in Cluster gruppiert werden soll. Ein „negative example" zeigt, was das Modell nicht vorhersagen soll. Ein „hard example" ist ein Beispiel, das das Modell konsistent falsch vorhersagt.

Die Qualität und Quantität der Beispiele bestimmt die Modellqualität. Few-Shot Learning: Wenige Beispiele pro Klasse (5-50). Standard überwachtes Lernen: Tausende bis Millionen Beispiele. LLM-Pretraining: Billionen von Beispielen (Tokens).

Aktives Lernen (Active Learning) optimiert die Auswahl der Beispiele: Statt zufällig zu labeln, fragt das System gezielt nach den Beispielen, bei denen es am unsichersten ist — maximaler Informationsgewinn pro gelabeltem Beispiel.

In-Context Learning bei LLMs: Beispiele im Prompt (Few-Shot Prompting) steuern das Modellverhalten ohne Training. „Übersetze: Hund → dog, Katze → cat, Haus → ?" — das Modell lernt die Aufgabe aus den Beispielen.

Data Augmentation erzeugt künstliche Beispiele: Bilder drehen, spiegeln, verzerren. Texte paraphrasieren. Audio mit Hintergrundgeräuschen überlagern. Dadurch steigt die effektive Datenmenge ohne zusätzliches Labeling.

Instance