1996 Ensemble Learning (Claude)

Wenn viele Köpfe besser denken als einer

Einführung

Stellen Sie sich vor, Sie möchten eine wichtige Entscheidung treffen – etwa welches Auto Sie kaufen sollen. Würden Sie lieber nur einen einzigen Experten befragen oder mehrere verschiedene Fachleute, um dann aus deren Meinungen eine Gesamteinschätzung zu bilden? Die meisten Menschen würden instinktiv die zweite Variante wählen. Genau dieses Prinzip – die Weisheit der Vielen – liegt dem Ensemble Learning zugrunde, einem der elegantesten und wirkungsvollsten Konzepte der künstlichen Intelligenz.

Ende der 1990er Jahre erlebte die KI-Forschung eine bemerkenswerte Wende. Während Wissenschaftler jahrzehntelang versucht hatten, immer perfektere Einzelmodelle zu entwickeln, stellte sich heraus, dass die Kombination mehrerer einfacherer Modelle oft zu besseren Ergebnissen führte. Leo Breiman, Yoav Freund, Robert Schapire und Jerome Friedman gehörten zu den Pionieren, die zwischen 1996 und 2001 die theoretischen Grundlagen und praktischen Methoden schufen, die heute in fast jeder modernen KI-Anwendung zum Einsatz kommen. Von der Spam-Erkennung in Ihrem E-Mail-Postfach über Kreditwürdigkeitsprüfungen bis hin zu medizinischen Diagnosen – überall arbeiten im Hintergrund Ensembles von Algorithmen zusammen.


Kernidee

Die zentrale Idee des Ensemble Learning lässt sich wunderbar mit einer Schätzaufgabe illustrieren: Wenn hundert Menschen das Gewicht eines Ochsen schätzen und man den Durchschnitt aller Schätzungen bildet, liegt dieser oft erstaunlich nahe am tatsächlichen Gewicht – näher als die meisten Einzelschätzungen. Dieses Phänomen, das der Statistiker Francis Galton bereits 1907 beschrieb, funktioniert unter einer wichtigen Bedingung: Die Schätzungen müssen voneinander unabhängig sein und verschiedene Perspektiven einbringen.

Genau hier setzt Ensemble Learning an. Anstatt einen einzelnen perfekten Vorhersagealgorithmus zu entwickeln, trainiert man viele verschiedene Algorithmen und kombiniert deren Vorhersagen. Jeder dieser Algorithmen – man nennt sie Basislerner – darf durchaus Fehler machen. Entscheidend ist, dass sie unterschiedliche Fehler machen. Wenn ein Algorithmus bei bestimmten Daten daneben liegt, wo andere richtig liegen, gleichen sich die Fehler in der Gesamtbetrachtung aus.

Die vier grundlegenden Artikel führten unterschiedliche Wege ein, wie man solche Ensembles erschafft. Breimans Bagging erzeugt Vielfalt durch zufällige Stichproben aus den Trainingsdaten. Sein Random Forest erweitert diese Idee durch zusätzliche Zufallselemente bei der Modellkonstruktion. Freund und Schapires Boosting konzentriert sich gezielt auf schwierige Fälle, bei denen vorherige Modelle versagt haben. Friedmans Gradient Boosting schließlich optimiert das Ensemble systematisch in kleinen Schritten, ähnlich wie ein Bildhauer, der mit jedem Meißelschlag seiner Skulptur näher kommt.


Ziele und Forschungsfragen

Die Forscher verfolgten ein gemeinsames übergeordnetes Ziel: Sie wollten die Vorhersagegenauigkeit von maschinellen Lernverfahren drastisch verbessern, ohne dabei auf immer komplexere Einzelmodelle angewiesen zu sein. Doch jeder Ansatz stellte spezifische Forschungsfragen in den Mittelpunkt.

Leo Breiman fragte sich beim Bagging, ob man durch das Training vieler Modelle auf verschiedenen Zufallsstichproben derselben Daten die Instabilität einzelner Vorhersagemodelle reduzieren könnte. Viele Algorithmen reagieren nämlich sehr empfindlich auf kleine Änderungen in den Trainingsdaten – eine Eigenschaft, die Statistiker als hohe Varianz bezeichnen. Ein Entscheidungsbaum beispielsweise kann völlig unterschiedlich aussehen, je nachdem welche Beispiele man zum Training verwendet. Breiman wollte diese Varianz durch Mittelung über viele Bäume verringern.

Bei Random Forests trieb ihn zusätzlich die Frage um, wie man noch mehr Vielfalt in die Einzelmodelle bringen könnte, ohne ihre individuelle Vorhersagekraft zu sehr zu schwächen. Die Balance zwischen Diversität und Genauigkeit der Basislerner war hier der Schlüssel.

Freund und Schapire interessierten sich aus einer anderen Perspektive für das Problem: Kann man aus vielen schwachen Lernern, die kaum besser sind als reines Raten, einen starken Lerner konstruieren? Diese theoretische Frage hatte praktische Brisanz, denn einfache Modelle sind schnell zu trainieren und leicht zu verstehen. Wenn man sie geschickt kombinieren könnte, hätte man das Beste aus beiden Welten: Einfachheit in der Konstruktion und hohe Leistungsfähigkeit im Ergebnis.

Friedman wiederum formulierte die Frage neu: Kann man Boosting als Optimierungsproblem verstehen und dadurch systematischer gestalten? Er wollte den Prozess der Ensemble-Bildung auf ein solides mathematisches Fundament stellen und gleichzeitig flexibler für verschiedene Anwendungen machen.


Konzept

Breimans Bagging – der Name ist eine Kurzform für Bootstrap Aggregating – funktioniert verblüffend einfach. Man nimmt seinen Datensatz und zieht daraus zufällig Stichproben mit Zurücklegen. Das bedeutet: Jedes Datenbeispiel kann mehrfach gezogen werden, während andere vielleicht gar nicht auftauchen. Auf jeder dieser Stichproben trainiert man dann ein eigenes Modell. Am Ende lässt man alle Modelle abstimmen. Bei Klassifikationsaufgaben gewinnt die Klasse, für die sich die Mehrheit entscheidet. Bei Zahlenvorhersagen bildet man den Durchschnitt. Diese demokratische Vorgehensweise reduziert die Fehleranfälligkeit dramatisch.

Random Forests gehen noch einen Schritt weiter. Hier wachsen viele Entscheidungsbäume heran – daher der Name Wald. Aber diese Bäume werden auf besondere Weise gezüchtet. Zum einen erhält jeder Baum eine eigene Zufallsstichprobe der Daten, wie beim Bagging. Zum anderen darf jeder Baum an jedem Verzweigungspunkt nur eine zufällige Auswahl der verfügbaren Merkmale betrachten. Wenn man etwa Menschen anhand von Alter, Einkommen, Bildung und Wohnort klassifizieren möchte, sieht ein Baum vielleicht nur Alter und Bildung, ein anderer nur Einkommen und Wohnort. Diese erzwungene Beschränkung verhindert, dass alle Bäume gleich aussehen, und sorgt für jene Vielfalt, die Ensembles ihre Kraft verleiht.

Boosting verfolgt eine völlig andere Strategie. Hier werden die Modelle nicht parallel und unabhängig voneinander trainiert, sondern sequenziell. Das erste Modell lernt ganz normal aus den Daten. Dann schaut man sich an, bei welchen Beispielen dieses Modell versagt hat. Diese schwierigen Fälle bekommen nun mehr Gewicht, und das zweite Modell konzentriert sich besonders auf sie. Dieser Prozess wiederholt sich: Jedes neue Modell spezialisiert sich darauf, die Fehler seiner Vorgänger zu korrigieren. Es ist wie eine Staffel von Detektiven, bei der jeder nachfolgende Ermittler sich auf die Spuren konzentriert, die seine Kollegen übersehen haben.

Freund und Schapires AdaBoost – kurz für Adaptive Boosting – setzt diese Idee elegant um. Der Algorithmus passt die Gewichte der Trainingsbeispiele nach jeder Runde an: Falsch klassifizierte Beispiele werden wichtiger, richtig klassifizierte unwichtiger. Gleichzeitig erhält jedes Modell im finalen Ensemble ein Stimmgewicht, das von seiner Genauigkeit abhängt. Bessere Modelle haben mehr Einfluss auf die Gesamtentscheidung.

Friedmans Gradient Boosting betrachtet das Problem durch die Linse der mathematischen Optimierung. Er stellte fest, dass man Boosting als schrittweise Minimierung einer Fehlerfunktion verstehen kann. In jeder Runde fügt man ein neues Modell hinzu, das den verbleibenden Fehler am besten verringert. Die Richtung, in die man den Fehler reduzieren will, gibt der Gradient an – daher der Name. Dieser Ansatz ist extrem flexibel, weil man verschiedene Fehlerfunktionen wählen kann, je nachdem was man erreichen möchte. Will man Ausreißer weniger stark gewichten? Kein Problem, man wählt eine robuste Fehlerfunktion. Interessiert man sich mehr für sehr gute Vorhersagen bei bestimmten Werten? Auch das lässt sich über die Fehlerfunktion steuern.


Argumente

Die theoretische Begründung für Ensemble Learning ist sowohl elegant als auch überzeugend. Breiman zeigte mathematisch, dass Bagging besonders gut funktioniert, wenn die Basislerner instabil sind – also stark auf Änderungen in den Trainingsdaten reagieren. Entscheidungsbäume sind ein Paradebeispiel für solche instabilen Lerner. Durch die Mittelung über viele Bäume, die auf verschiedenen Stichproben trainiert wurden, glättet man diese Instabilität. Die Varianz der Vorhersagen sinkt, während die grundsätzliche Vorhersagekraft erhalten bleibt.

Bei Random Forests kommt ein faszinierender Effekt hinzu: Durch die zufällige Merkmalsauswahl werden die einzelnen Bäume gezwungen, verschiedene Aspekte der Daten zu erkunden. Wenn es ein dominantes Merkmal gibt – also eine Variable, die alle anderen an Vorhersagekraft übertrifft – würden ohne diese Zufallsauswahl alle Bäume sehr ähnlich aussehen. Die erzwungene Vielfalt verhindert dies und nutzt die Information aus allen Merkmalen besser aus.

Freund und Schapire lieferten einen bemerkenswerten theoretischen Beweis: Unter bestimmten Bedingungen kann AdaBoost jeden beliebigen Fehler erreichen, wenn man nur genügend Runden durchführt. Selbst wenn jeder einzelne Basislerner nur geringfügig besser ist als Raten, kann man durch Boosting beliebig gute Gesamtleistung erzielen. Dieser Satz war revolutionär, weil er zeigte, dass die Qualität der Basislerner gar nicht so entscheidend ist – es kommt auf ihre geschickte Kombination an.

Friedman argumentierte, dass sein Gradient Boosting Framework alle bisherigen Boosting-Varianten als Spezialfälle enthält. Gleichzeitig eröffnet es neue Möglichkeiten, weil man die Optimierung direkt auf das steuern kann, was einen interessiert. In der Praxis bedeutet das mehr Kontrolle und bessere Anpassung an spezifische Probleme.

Ein weiteres starkes Argument für Ensemble-Methoden ist ihre Robustheit. Ein einzelnes Modell kann durch Rauschen in den Daten, Ausreißer oder unglückliche Zufälle beim Training irregeführt werden. Ein Ensemble mittelt über viele solcher Zufälle und ist daher weniger anfällig für einzelne Störungen.


Bedeutung

Die wissenschaftliche Bedeutung dieser Arbeiten kann kaum überschätzt werden. Sie veränderten das Denken in der maschinellen Lernforschung fundamental. Vor Ensemble Learning konzentrierten sich Forscher darauf, das eine perfekte Modell zu finden – die ideale Netzwerkarchitektur, den optimalen Entscheidungsbaum, das beste Regelwerk. Nach diesen Durchbrüchen wurde klar, dass Kombination oft wirkungsvoller ist als Perfektion.

Breimans Arbeiten zeigten, dass man mit relativ einfachen Methoden – Zufallsstichproben und Mittelung – erstaunliche Verbesserungen erzielen kann. Das Schöne daran: Diese Methoden sind konzeptionell einfach zu verstehen und praktisch leicht umzusetzen. Man braucht keine hochkomplexe Mathematik oder aufwendige Optimierungsverfahren.

Random Forests wurden schnell zu einem der populärsten Algorithmen überhaupt. Ihre Beliebtheit verdanken sie einer seltenen Kombination von Eigenschaften: Sie sind genau, robust, einfach anzuwenden und benötigen kaum Feinabstimmung. Für viele praktische Probleme sind sie oft die erste Wahl.

AdaBoost war der erste praktisch erfolgreiche Boosting-Algorithmus und gewann zahlreiche Preise. Freund und Schapire erhielten für ihre Arbeit den prestigeträchtigen Gödel-Preis, eine der höchsten Auszeichnungen in der theoretischen Informatik. Ihr Algorithmus funktionierte nicht nur in der Theorie, sondern wurde schnell in kommerziellen Anwendungen eingesetzt.

Friedmans Gradient Boosting öffnete die Tür zu einer ganzen Familie moderner Algorithmen. Heutige Systeme wie XGBoost, LightGBM und CatBoost – die in Datenanalyse-Wettbewerben regelmäßig die besten Ergebnisse liefern – basieren direkt auf seinen Ideen. Sie haben das Framework weiter verfeinert und für große Datenmengen optimiert, aber das konzeptionelle Fundament stammt von Friedman.


Wirkung

Die praktische Wirkung von Ensemble Learning durchdringt heute nahezu jeden Bereich, in dem Daten analysiert und Vorhersagen getroffen werden. In der Medizin helfen Ensembles dabei, Krankheiten aus Bilddaten zu diagnostizieren. Mehrere Algorithmen betrachten ein Röntgenbild oder eine MRT-Aufnahme aus verschiedenen Perspektiven, und ihre gemeinsame Einschätzung ist oft zuverlässiger als die eines einzelnen Systems – manchmal sogar zuverlässiger als die eines einzelnen menschlichen Experten.

Im Finanzsektor bewerten Ensemble-Modelle Kreditrisiken, erkennen betrügerische Transaktionen und prognostizieren Marktentwicklungen. Die Tatsache, dass mehrere Modelle übereinstimmen müssen, bevor eine Entscheidung getroffen wird, erhöht die Sicherheit erheblich.

Suchmaschinen und Empfehlungssysteme nutzen Ensembles, um relevante Inhalte zu finden. Wenn Sie online nach etwas suchen oder Netflix Ihnen einen Film vorschlägt, arbeiten im Hintergrund Ensembles von Algorithmen, die verschiedene Aspekte Ihrer Anfrage oder Ihrer Präferenzen bewerten und ihre Einschätzungen kombinieren.

In der Industrie optimieren Ensemble-Methoden Produktionsprozesse, prognostizieren Maschinenwartungsbedarf und steuern Qualitätskontrollen. Ihre Robustheit ist hier besonders wertvoll, weil Fehlentscheidungen teuer sein können.

Die wissenschaftliche Forschung selbst wurde durch Ensemble Learning beschleunigt. In der Bioinformatik helfen diese Methoden, Genfunktionen zu verstehen. In der Klimaforschung kombiniert man verschiedene Klimamodelle zu Ensemble-Vorhersagen. In der Teilchenphysik unterstützen sie die Suche nach neuen Phänomenen in riesigen Datenmengen.

Ein besonders eindrucksvoller Beleg für die Wirksamkeit ist die Dominanz von Ensemble-Methoden in Datenanalyse-Wettbewerben. Auf Plattformen wie Kaggle, wo Tausende von Datenwissenschaftlern um die besten Vorhersagemodelle konkurrieren, nutzen die Gewinner fast immer Ensembles. Oft kombinieren sie sogar verschiedene Ensemble-Methoden zu Meta-Ensembles.


Relevanz

Die Relevanz von Ensemble Learning hat über die Jahre nicht abgenommen, sondern zugenommen. In einer Zeit, in der künstliche Intelligenz zunehmend wichtige Entscheidungen beeinflusst oder sogar trifft, gewinnen Aspekte wie Zuverlässigkeit, Robustheit und Nachvollziehbarkeit an Bedeutung. Ensemble-Methoden bieten hier wichtige Vorteile.

Wenn mehrere Modelle übereinstimmen, können wir der Vorhersage mehr vertrauen. Wenn sie uneinig sind, signalisiert das Unsicherheit – ein wertvolles Signal, das Einzelmodelle oft nicht liefern. Diese eingebaute Unsicherheitsabschätzung ist in kritischen Anwendungen von großem Wert.

Die Demokratisierung der künstlichen Intelligenz wird durch Ensemble-Methoden unterstützt. Random Forests und Gradient Boosting sind in Standardsoftware verfügbar und benötigen weniger Expertenwissen als viele andere Verfahren. Das ermöglicht mehr Menschen und Organisationen, KI-Methoden effektiv einzusetzen.

In der aktuellen Diskussion um erklärbare KI spielen Ensembles eine ambivalente Rolle. Einerseits sind sie komplexer als Einzelmodelle und damit schwerer zu interpretieren. Andererseits haben Forscher Methoden entwickelt, um zu verstehen, welche Merkmale für die Entscheidungen eines Ensembles wichtig sind. Random Forests beispielsweise liefern nützliche Maße für die Bedeutung verschiedener Eingabevariablen.

Die Kombination von Ensemble Learning mit Deep Learning – den tiefen neuronalen Netzen, die spektakuläre Erfolge in Bereichen wie Bildverarbeitung und Sprachverarbeitung feiern – ist ein aktives Forschungsfeld. Ensembles von neuronalen Netzen kombinieren die Stärken beider Ansätze und liefern oft die besten verfügbaren Ergebnisse.


Kritik

Trotz aller Erfolge gibt es auch kritische Aspekte und Einschränkungen. Der offensichtlichste Nachteil ist der erhöhte Rechenaufwand. Wo man früher ein Modell trainieren und anwenden musste, braucht man nun Dutzende oder Hunderte. Das kostet Zeit und Energie – ein nicht zu unterschätzender Faktor in Zeiten wachsenden Umweltbewusstseins.

Die Interpretierbarkeit leidet unter der Komplexität. Ein einzelner Entscheidungsbaum ist leicht zu visualisieren und nachzuvollziehen. Ein Wald aus hundert Bäumen oder ein Boosting-Ensemble ist eine Blackbox. In Bereichen, wo Entscheidungen begründet werden müssen – etwa in der Medizin oder bei Kreditvergaben – kann dies problematisch sein.

Es gibt auch theoretische Grenzen. Boosting-Verfahren können überanpassen, wenn man nicht aufpasst. Das bedeutet: Sie lernen nicht nur die wahren Muster in den Daten, sondern auch das Rauschen. Das Ensemble wird dann bei neuen Daten schlechter abschneiden, als es bei den Trainingsdaten aussah. Gradient Boosting ist hier besonders anfällig und erfordert sorgfältige Kontrolle durch Regularisierung.

Manche Kritiker argumentieren, dass der Fokus auf Ensemble-Methoden die Entwicklung besserer Basisalgorithmen behindert haben könnte. Warum ein wirklich gutes Modell entwickeln, wenn man mit vielen mittelmäßigen Modellen bessere Ergebnisse erzielt? Diese Debatte berührt grundsätzliche Fragen des wissenschaftlichen Fortschritts.

In bestimmten Anwendungen sind Ensembles unpraktisch. Bei Echtzeit-Systemen, die in Millisekunden reagieren müssen, kann die Zeit für hundert Vorhersagen zu lang sein. Bei ressourcenbeschränkten Geräten wie Smartphones oder eingebetteten Systemen kann der Speicherbedarf für viele Modelle problematisch werden.


Fazit

Ensemble Learning repräsentiert einen Paradigmenwechsel in der künstlichen Intelligenz. Die Einsicht, dass Vielfalt und Kombination oft wirkungsvoller sind als individuelle Perfektion, hat sich als außerordentlich fruchtbar erwiesen. Die vier hier betrachteten Arbeiten von Breiman, Freund, Schapire und Friedman legten zwischen 1996 und 2001 das Fundament für diesen Ansatz.

Was diese Methoden besonders wertvoll macht, ist ihre praktische Anwendbarkeit. Sie funktionieren zuverlässig über ein breites Spektrum von Problemen hinweg, benötigen relativ wenig Feinabstimmung und liefern oft state-of-the-art Ergebnisse. Diese Eigenschaften erklären ihre anhaltende Popularität.

Die theoretischen Einsichten – etwa dass schwache Lerner zu starken Lernern kombiniert werden können oder dass Mittelung über instabile Modelle Stabilität schafft – sind elegant und tiefgründig. Sie haben unser Verständnis davon verändert, was maschinelles Lernen leisten kann und wie es funktioniert.

Gleichzeitig mahnen die Limitierungen zur Vorsicht. Ensemble-Methoden sind kein Allheilmittel. Der erhöhte Aufwand, die geringere Interpretierbarkeit und das Risiko des Überanpassens müssen bedacht werden. In jedem konkreten Anwendungsfall muss sorgfältig abgewogen werden, ob die Vorteile die Nachteile überwiegen.


Ausblick

Die Zukunft des Ensemble Learning liegt vermutlich in mehreren Richtungen. Die Integration mit Deep Learning wird weiter vertieft. Forscher entwickeln Methoden, um Ensembles effizienter zu machen – etwa durch geschickte Auswahl von Teilmengen oder durch Destillation, bei der ein einzelnes Modell lernt, ein ganzes Ensemble zu imitieren.

Die automatisierte Ensemble-Konstruktion – oft AutoML genannt – macht Fortschritte. Systeme, die automatisch entscheiden, welche Modelle wie kombiniert werden sollten, könnten Ensemble Learning noch zugänglicher machen.

Ein spannendes Feld ist das Online-Ensemble-Learning, bei dem Modelle kontinuierlich mit neuen Daten aktualisiert werden. In einer Welt mit ständig fließenden Datenströmen ist dies von großer praktischer Bedeutung.

Die Entwicklung erklärbarer Ensemble-Methoden wird intensiv beforscht. Wenn es gelingt, die Stärken von Ensembles mit besserer Interpretierbarkeit zu verbinden, könnte dies ihre Akzeptanz in kritischen Bereichen erhöhen.

Schließlich könnten Ensembles eine Rolle bei der Entwicklung robusterer und fairerer KI-Systeme spielen. Indem man sicherstellt, dass verschiedene Perspektiven und Ansätze in Entscheidungen einfließen, lassen sich möglicherweise Verzerrungen und Fehlanfälligkeit reduzieren.


Literaturquellen

Breiman, L. (1996). Bagging Predictors. Machine Learning, 24(2), 123-140.

Breiman, L. (2001). Random Forests. Machine Learning, 45(1), 5-32.

Freund, Y., & Schapire, R. E. (1997). A Decision-Theoretic Generalization of On-Line Learning and an Application to Boosting. Journal of Computer and System Sciences, 55(1), 119-139.

Friedman, J. H. (2001). Greedy Function Approximation: A Gradient Boosting Machine. Annals of Statistics, 29(5), 1189-1232.


Hintergrundinformationen zu den Autoren

Leo Breiman war Professor für Statistik an der University of California, Berkeley. Er war bekannt für seine Fähigkeit, komplexe statistische Probleme mit eleganten, praktischen Lösungen anzugehen. Neben seinen Arbeiten zu Ensemble-Methoden trug er wesentlich zur Klassifikations- und Regressionsbaumanalyse bei. Breiman war auch für seine kritische Haltung gegenüber rein theoretischen Ansätzen bekannt und betonte stets die Bedeutung empirischer Validierung.

Yoav Freund ist Professor für Informatik an der University of California, San Diego. Seine Forschung konzentriert sich auf maschinelles Lernen und seine theoretischen Grundlagen. Für AdaBoost erhielt er zusammen mit Schapire mehrere bedeutende Auszeichnungen. Freund arbeitet auch an Anwendungen des maschinellen Lernens in der Robotik und anderen Bereichen.

Robert Schapire ist Professor an der Princeton University und forscht zu maschinellem Lernen, Algorithmen und Spieltheorie. Seine Arbeit zeichnet sich durch die Verbindung von theoretischer Tiefe und praktischer Relevanz aus. Neben AdaBoost hat er wichtige Beiträge zur Online-Lerntheorie und zu anderen Bereichen der theoretischen Informatik geleistet.

Jerome Friedman ist emeritierter Professor für Statistik an der Stanford University. Er ist einer der einflussreichsten Statistiker seiner Generation und hat neben Gradient Boosting auch andere wichtige Verfahren wie MARS und CART mitentwickelt. Friedman ist bekannt für seine pragmatische Herangehensweise und seine Fähigkeit, statistische Methoden für große und komplexe Datensätze nutzbar zu machen. Seine Arbeiten haben Statistik und maschinelles Lernen nachhaltig geprägt.


Disclaimer: Dieser Text ist komplett KI-generiert (Claude Sonnet 4.5, 09.01.2026). Die darin enthaltenen Angaben wurden nicht überprüft. Zum Prompt. Zur Übersicht.