ART

 

.

Το AdaBoost, συντομογραφία του Adaptive Boosting, είναι μια ταξινόμηση στατιστικού μετα-αλγορίθμου που διατυπώθηκε από τους Yoav Freund και Robert Schapire το 1995, οι οποίοι κέρδισαν το βραβείο Gödel το 2003 για το έργο τους. Μπορεί να χρησιμοποιηθεί σε συνδυασμό με πολλούς άλλους τύπους αλγορίθμων εκμάθησης για τη βελτίωση της απόδοσης. Η έξοδος των άλλων αλγορίθμων μάθησης («αδύναμοι μαθητές») συνδυάζεται σε ένα σταθμισμένο άθροισμα που αντιπροσωπεύει το τελικό αποτέλεσμα του ενισχυμένου ταξινομητή. Συνήθως, το AdaBoost παρουσιάζεται για δυαδική ταξινόμηση, αν και μπορεί να γενικευτεί σε πολλαπλές κλάσεις ή περιορισμένα διαστήματα στην πραγματική ευθεία.[1][2]

Το AdaBoost είναι προσαρμοστικό με την έννοια ότι οι επόμενοι αδύναμοι εκπαιδευόμενοι τροποποιούνται υπέρ εκείνων των περιπτώσεων που έχουν ταξινομηθεί εσφαλμένα από προηγούμενους ταξινομητές. Σε ορισμένα προβλήματα μπορεί να είναι λιγότερο επιρρεπής στο πρόβλημα υπερπροσαρμογής από άλλους αλγόριθμους εκμάθησης. Οι μεμονωμένοι μαθητές μπορεί να είναι αδύναμοι, αλλά εφόσον η απόδοση του καθενός είναι ελαφρώς καλύτερη από την τυχαία εικασία, το τελικό μοντέλο μπορεί να αποδειχθεί ότι συγκλίνει σε έναν ισχυρό μαθητή.

Εγκυκλοπαίδεια Πληροφορικής

Κόσμος

Αλφαβητικός κατάλογος

Hellenica World - Scientific Library

Από τη ελληνική Βικιπαίδεια http://el.wikipedia.org . Όλα τα κείμενα είναι διαθέσιμα υπό την GNU Free Documentation License