Boolean
Boolean — benannt nach George Boole, dem Begründer der formalen Logik — ist der einfachste Datentyp: wahr oder falsch, 1 oder 0, ja oder nein. Im Machine Learning ist Boolean-Logik die Grundlage binärer Entscheidungen und Klassifikationen.
Die Boolesche Algebra (AND, OR, NOT, XOR) ist das mathematische Fundament digitaler Schaltkrene und damit aller Computer. Ein neuronales Netz, das die XOR-Funktion berechnet (Ausgabe 1, wenn genau eine von zwei Eingaben 1 ist), war das berühmte Beispiel, an dem das einfache Perceptron scheiterte — weil XOR nicht linear separabel ist. Dieses Scheitern, demonstriert von Minsky und Papert (1969), trug maßgeblich zum ersten AI Winter bei.
Im ML-Feature-Engineering sind Boolean-Features allgegenwärtig: „Hat der Kunde ein Premium-Abo?" (ja/nein), „Wurde die E-Mail von einer bekannten Domain gesendet?" (ja/nein), „Enthält der Text ein Schlüsselwort?" (ja/nein). Decision Trees sind im Kern Kaskaden binärer (boolescher) Entscheidungen.
In der binären Klassifikation entspricht die Modellausgabe einer Booleanisierung: Die Softmax- oder Sigmoid-Ausgabe wird bei einem Schwellenwert (typisch 0.5, anpassbar) in True/False umgewandelt.
Die Aktivierungsfunktionen neuronaler Netze sind nichtlineare Approximationen Boolescher Funktionen: Die Sigmoid-Funktion erzeugt eine weiche Version von True/False. ReLU approximiert einen Schalter: Aus (0) oder An (Wert) — ein kontinuierliches Boolean mit Unterscheidung der Stärke.