AI :: Entscheidungstree.

lernt automatisch Entscheidungsbäume
Jetzt downloaden

AI :: Entscheidungstree. Ranking & Zusammenfassung

Anzeige

  • Rating:
  • Lizenz:
  • Perl Artistic License
  • Preis:
  • FREE
  • Name des Herausgebers:
  • Ken Williams
  • Website des Verlags:
  • http://search.cpan.org/~kwilliams/Module-Build-0.2808/lib/Module/Build/Compat.pm

AI :: Entscheidungstree. Stichworte


AI :: Entscheidungstree. Beschreibung

Lernt automatisch Entscheidungsbäume AI :: Entscheidungstree ist das Perl-Modul, um automatisch Entscheidung Bäume zu lernen. Synopsis Verwenden Sie AI :: mein $ dtree = neuer AI :: Dezentree; # Ein Satz von Trainingsdaten, um zu entscheiden, ob Tennis $ DTree-> Add_instance (Attribute => {Outlook => 'Sunny', Temperatur => 'heiß', Feuchtigkeit => 'High'}, Ergebnis => 'Nein' ); $ dtree-> add_instance (Attribute => {Outlook => 'overcast', temperatur => 'heiß', Luftfeuchtigkeit => 'Normal'}, Ergebnis => 'Ja'); ... wiederholen Sie mehr als mehrere Instanzen, dann: $ DTree-> Zug; # Suchergebnisse für unseen-Instanzen Mein $ result = $ dtree-> get_result (Attribute => {Outlook => 'sunny', temperatur => 'heiß', Luftfeuchtigkeit => 'Normal'}); das AI :: Dekytree-Modul automatisch Erzeugt sogenannte "Entscheidungsbäume", um einen Satz von Trainingsdaten zu erklären. Ein Entscheidungsbaum ist eine Art Kategorisierung, die einen flussdiagrammähnlichen Prozess zur Kategorisierung neuer Instanzen verwenden. Beispielsweise könnte ein erlernter Entscheidungsbaum wie folgt aussehen, der für das Konzept "Play Tennis" klassifiziert: Outlook / | / | / | Sonnig / bedeckt regnerisch / | Luftfeuchtigkeit | Wind / * nein * / / / high / normal / / strong / schwach * nein * * Ja * / * Nein * * Ja * (dieses Beispiel und die Inspiration für das AI :: Dezentree-Modul, direkt von Tom Mitchells ausgezeichnet Buchen Sie "Machine Learning", erhältlich bei McGraw Hill.) Ein Entscheidungsbaum wie dieses kann aus Trainingsdaten gelernt werden und dann auf bisher unsichtbare Daten angewendet werden, um Ergebnisse zu erhalten, die mit den Trainingsdaten übereinstimmen. Das übliche Ziel eines Entscheidungsbaums ist irgendwie die Trainingsdaten in dem kleinsten möglichen Baum einkapseln. Dies ist motiviert durch eine "Occams Rasierer" -Philosophie, in der die einfachste Erklärung für eine Reihe von Phänomenen über andere Erklärungen bevorzugt werden sollte. Auch kleine Bäume werden Entscheidungen schneller als große Bäume treffen, und sie sind viel einfacher für einen Menschen, der sich ansehen und versteht. Eine der größten Gründe für den Einsatz eines Entscheidungsbaums anstelle von vielen anderen Maschinenlernen, ist, dass ein Entscheidungsbaum ein wesentlich schlenderteres Entscheidungsträger ist als ein neuronales Netzwerk. Die derzeitige Implementierung dieses Moduls verwendet eine äußerst einfache Methode zum Erstellen der Entscheidungsbaum, der auf den Schulungsinstanzen basiert. Es verwendet eine Informationsverstärkungsmetrik (basierend auf der erwarteten Reduktion der Entropie), um das Attribut "Am meisten informativ" an jedem Knoten im Baum auszuwählen. Dies ist im Wesentlichen der von JR Quinlan entwickelte ID3-Algorithmus, der 1986 von Jr Quinlan entwickelt wurde. Die Idee ist, dass das Attribut mit dem höchsten Informationsgewinn (wahrscheinlich) das beste Attribut sein wird, das den Baum an jedem Punkt aufteilen wird, wenn wir daran interessiert sind, kleine Bäume zu machen . Anforderungen: · Perl.


AI :: Entscheidungstree. Zugehörige Software