Was ist Boosting?

Boosting ist ein Algorithmus, der dabei hilft, Varianz und Verzerrung in einem Ensemble für maschinelles Lernen zu reduzieren. Die Algorithmusalgorithmen (Algos) Algorithmen (Algos) sind eine Reihe von Anweisungen, die zur Ausführung einer Aufgabe eingeführt werden. Algorithmen zur Einführung des Handels, um Gewinne mit einer für einen menschlichen Händler unmöglichen Frequenz zu erzielen, helfen bei der Umwandlung schwacher Lernender in starke Lernende durch Kombinieren von N Anzahl von Lernenden.

ErhöhenQuelle: Sirakorn [CC BY-SA]

Durch Boosting können auch Modellvorhersagen für Lernalgorithmen verbessert werden. Die schwachen Lernenden werden von ihren Vorgängern nacheinander korrigiert und dabei in starke Lernende umgewandelt.

Formen der Auffrischung

Das Boosten kann verschiedene Formen annehmen, einschließlich:

1. Adaptives Boosting (Adaboost)

Adaboost zielt darauf ab, mehrere schwache Lernende zu einem einzigen starken Lernenden zu kombinieren. Adaboost konzentriert sich auf schwache Lernende, bei denen es sich häufig um Entscheidungsbäume mit nur einer Aufteilung handelt, die üblicherweise als Entscheidungsstümpfe bezeichnet werden. Der erste Entscheidungsstumpf in Adaboost enthält Beobachtungen, die gleich gewichtet sind.

Frühere Fehler werden korrigiert, und Beobachtungen, die falsch klassifiziert wurden, werden stärker gewichtet als andere Beobachtungen, bei denen keine Klassifizierung fehlschlug. Algorithmen von Adaboost werden häufig in Regressions- und Klassifizierungsverfahren verwendet. Ein in früheren Modellen festgestellter Fehler wird mit der Gewichtung angepasst, bis ein genauer Prädiktor erstellt wird.

2. Gradientenverstärkung

Gradient Boosting fügt, wie jedes andere Ensemble-Verfahren für maschinelles Lernen, dem Ensemble nacheinander Prädiktoren hinzu und folgt der Reihenfolge bei der Korrektur vorhergehender Prädiktoren, um am Ende des Verfahrens einen genauen Prädiktor zu erhalten. Adaboost korrigiert seine vorherigen Fehler, indem es die Gewichte für jede falsche Beobachtung in jeder Iteration abstimmt. Die Gradientenverstärkung zielt jedoch darauf ab, einen neuen Prädiktor in die vom vorhergehenden Prädiktor begangenen Restfehler einzupassen.

Bei der Gradientenverstärkung wird der Gradientenabstieg verwendet, um die Herausforderungen in den zuvor verwendeten Vorhersagen der Lernenden genau zu bestimmen. Der vorherige Fehler wird hervorgehoben, und durch die Kombination eines schwachen Lernenden mit dem nächsten Lernenden wird der Fehler im Laufe der Zeit erheblich reduziert.

3. XGBoost (Extreme Gradient Boosting)

XGBoostimg implementiert Entscheidungsbäume mit erhöhtem Farbverlauf, verbesserter Leistung und Geschwindigkeit. Die Implementierung von Maschinen mit Gradientenverstärkung ist aufgrund des Modelltrainings, das einer Sequenz folgen muss, relativ langsam. Ihnen fehlt daher die Skalierbarkeit. Skalierbarkeit Die Skalierbarkeit kann sowohl im Kontext der Finanz- als auch der Geschäftsstrategie fallen. In beiden Fällen steht es für die Fähigkeit des Unternehmens, dem Druck aufgrund seiner Langsamkeit standzuhalten.

XGBoost ist auf die Leistung eines Modells und die Rechengeschwindigkeit angewiesen. Es bietet verschiedene Vorteile wie Parallelisierung, verteiltes Computing, Cache-Optimierung und Out-of-Core-Computing.

XGBoost bietet Parallelisierung beim Erstellen von Bäumen durch die Verwendung der CPU-Kerne während des Trainings. Es verteilt auch Computer, wenn große Modelle mithilfe von Maschinenclustern trainiert werden. Out-of-Core-Computing wird für größere Datenmengen verwendet, die nicht in die herkömmliche Speichergröße passen. Die Cache-Optimierung wird auch für Algorithmen und Datenstrukturen verwendet, um die Verwendung verfügbarer Hardware zu optimieren.

Vor- und Nachteile der Steigerung

Als Ensemble-Modell verfügt Boosting über einen einfach zu lesenden und zu interpretierenden Algorithmus, der die Handhabung der Vorhersageinterpretationen vereinfacht. Die Vorhersagefähigkeit ist durch die Verwendung seiner Klonmethoden wie Bagging Bagging (Bootstrap Aggregation) effizient. Das maschinelle Lernen des Ensembles kann hauptsächlich in Bagging und Boosting unterteilt werden. Die Absacktechnik ist sowohl für Regressions- als auch für statistische oder zufällige Wald- und Entscheidungsbäume nützlich. Boosting ist eine belastbare Methode, die Überanpassungen leicht eindämmt.

Ein Nachteil des Boostings besteht darin, dass es empfindlich gegenüber Ausreißern ist, da jeder Klassifizierer verpflichtet ist, die Fehler in den Vorgängern zu beheben. Daher ist die Methode zu abhängig von Ausreißern. Ein weiterer Nachteil ist, dass das Verfahren kaum skalierbar ist. Dies liegt daran, dass jeder Schätzer seine Korrektheit auf die vorherigen Prädiktoren stützt, wodurch es schwierig wird, das Verfahren zu rationalisieren.

Was sind Optionsbäume?

Optionsbäume sind der Ersatz für Entscheidungsbäume. Sie repräsentieren Ensemble-Klassifikatoren, während sie eine einzelne Struktur ableiten. Der Unterschied zwischen Optionsbäumen und Entscheidungsbäumen besteht darin, dass der erstere sowohl Optionsknoten als auch Entscheidungsknoten enthält, während der letztere nur Entscheidungsknoten enthält.

Die Klassifizierung einer Instanz erfordert das Filtern nach dem Baum. Ein Entscheidungsknoten ist erforderlich, um einen der Zweige auszuwählen, während ein Optionsknoten erforderlich ist, um die gesamte Gruppe von Zweigen zu übernehmen. Dies bedeutet, dass bei einem Optionsknoten mehrere Blätter vorhanden sind, die zu einer Klassifizierung zusammengefasst werden müssten, um eine Vorhersage zu erhalten. Daher ist in dem Prozess eine Abstimmung erforderlich, wobei eine Mehrheitsentscheidung bedeutet, dass der Knoten als Vorhersage für diesen Prozess ausgewählt wurde.

Der obige Prozess macht deutlich, dass die Optionsknoten nicht mit zwei Optionen geliefert werden sollten, da sie am Ende die Stimme verlieren, wenn sie keinen bestimmten Gewinner finden können. Die andere Möglichkeit besteht darin, den Durchschnitt der Wahrscheinlichkeitsschätzungen aus verschiedenen Pfaden anhand von Ansätzen wie dem Bayes'schen Ansatz oder der nicht gewichteten Methode der Mittelwerte zu ermitteln.

Optionsbäume können auch entwickelt werden, indem vorhandene Lerner für Entscheidungsbäume geändert oder ein Optionsknoten erstellt wird, in dem mehrere Teilungen korreliert sind. Jeder Entscheidungsbaum innerhalb einer zulässigen Toleranzstufe kann in Optionsbäume umgewandelt werden.

Mehr Ressourcen

Finance ist der offizielle Anbieter der Certified Banking & Credit Analyst (CBCA) ™ CBCA ™ -Zertifizierung. Die Certified Banking & Credit Analyst (CBCA) ™ -Akkreditierung ist ein globaler Standard für Kreditanalysten, der Finanzen, Rechnungswesen, Kreditanalyse, Cashflow-Analyse, Covenant-Modellierung, Kreditrückzahlungen und mehr. Zertifizierungsprogramm, das jeden in einen erstklassigen Finanzanalysten verwandeln soll.

Um Ihr Wissen über Finanzanalysen weiter zu erlernen und weiterzuentwickeln, empfehlen wir die folgenden zusätzlichen Finanzressourcen:

  • Fintech (Finanztechnologie) Fintech (Finanztechnologie) Der Begriff Fintech bezieht sich auf die Synergie zwischen Finanzen und Technologie, die zur Verbesserung des Geschäftsbetriebs und der Bereitstellung von Finanzdienstleistungen verwendet wird
  • Quantitative Finance Quantitative Finance Quantitative Finance ist die Verwendung mathematischer Modelle und extrem großer Datensätze zur Analyse von Finanzmärkten und Wertpapieren. Häufige Beispiele sind (1) die Preisgestaltung von derivativen Wertpapieren wie Optionen und (2) das Risikomanagement, insbesondere in Bezug auf das Portfoliomanagement
  • Spoofing Spoofing Spoofing ist eine disruptive algorithmische Handelspraxis, bei der Gebote zum Kauf oder Angebot zum Verkauf von Terminkontrakten abgegeben und die Gebote oder Angebote vor der Ausführung des Geschäfts storniert werden. Die Praxis beabsichtigt, ein falsches Bild der Nachfrage oder des falschen Pessimismus auf dem Markt zu erzeugen.
  • Gehaltsleitfaden für Softwareingenieure Gehaltsleitfaden für Softwareingenieure In diesem Gehaltsleitfaden für Softwareingenieure werden verschiedene Jobs als Softwareingenieure und ihre entsprechenden Zwischengehälter für 2018 behandelt. Ein Softwareentwickler ist ein Fachmann, der Softwareentwicklungsprinzipien in den Prozessen Design, Entwicklung, Wartung und Testen und Bewerten von im Computer verwendeter Software

Empfohlen

Wurde Crackstreams geschlossen?
2022
Ist die MC-Kommandozentrale sicher?
2022
Verlässt Taliesin die kritische Rolle?
2022