Connectionism
Connectionism — der Konnektionismus — ist die theoretische Strömung, die davon ausgeht, dass Intelligenz aus der Interaktion großer Netzwerke einfacher Einheiten entsteht. Er steht im Gegensatz zum Symbolismus, der Intelligenz durch Regelmanipulation erklärt.
Die Debatte „Symbolismus vs. Konnektionismus" durchzieht die gesamte KI-Geschichte. Die symbolische KI (Marvin Minsky, John McCarthy, Herbert Simon) modellierte Intelligenz als Manipulation von Symbolen nach logischen Regeln — wie ein Computerprogramm. Expertensysteme, Logikprogrammierung und Wissensdatenbanken sind Produkte dieses Ansatzes.
Die Konnektionisten (Frank Rosenblatt, James McClelland, David Rumelhart, Geoffrey Hinton) argumentierten, dass Intelligenz aus der emergenten Interaktion einfacher Verarbeitungseinheiten (Neuronen) entsteht — nicht aus expliziten Regeln. Ihr Werkzeug: neuronale Netze.
McClelland und Rumelharts „Parallel Distributed Processing" (PDP, 1986) war das intellektuelle Manifest des Konnektionismus. Marvin Minsky und Seymour Papert hatten ihn 1969 mit „Perceptrons" beschädigt. Rumelharts Backpropagation-Paper (1986) belebte ihn wieder. Der Deep-Learning-Boom seit 2012 war der endgültige Triumph des Konnektionismus.
Ironischerweise entsteht gerade eine Synthese: Neurosymbolische KI versucht, die Stärken beider Ansätze zu vereinen — die Mustererkennung neuronaler Netze mit dem strukturierten Schlussfolgern symbolischer Systeme. Die Frage, ob echte Intelligenz beides braucht, bleibt offen.