Anthropic
Anthropic ist ein KI-Unternehmen mit Sitz in San Francisco, das 2021 von Dario und Daniela Amodei gemeinsam mit mehreren weiteren ehemaligen OpenAI-Mitarbeitern gegründet wurde. Das Unternehmen positioniert sich bewusst als sicherheitsfokussierte Alternative.
Der Bruch mit OpenAI war inhaltlich begründet: Die Amodeis kritisierten, dass bei OpenAI Kommerzialisierung zunehmend Vorrang vor Sicherheitsforschung erhalte. Anthropic verfolgt den Ansatz, leistungsfähige Modelle zu bauen und gleichzeitig die Sicherheitsforschung am selben Frontiersystem zu betreiben — nach dem Prinzip: Man kann Sicherheit nur verstehen, wenn man die gefährlichsten Systeme selbst baut.
Das Hauptprodukt ist Claude, ein Sprachmodell, das über Constitutional AI trainiert wird — ein Verfahren, bei dem das Modell seine Ausgaben anhand expliziter Prinzipien selbst bewertet und korrigiert, statt sich ausschließlich auf menschliches Feedback (RLHF) zu verlassen. Claude 3 Opus erreichte 2024 in vielen Benchmarks GPT-4-Niveau.
Anthropic hat bis 2024 über 7 Milliarden Dollar eingesammelt, unter anderem von Google (2 Milliarden) und Amazon (bis zu 4 Milliarden). Das Unternehmen ist als Public Benefit Corporation organisiert — eine Rechtsform, die neben Profit auch gesellschaftlichen Nutzen als Unternehmensziel verankert.
Konzeptionell hat Anthropic wichtige Beiträge geleistet: das Responsible Scaling Policy Framework, das Modellveröffentlichungen an Sicherheitsevaluierungen bindet, und die Forschung zu Mechanistic Interpretability — dem Versuch, die inneren Berechnungen neuronaler Netze wirklich zu verstehen.