Strojno učenje na zelo neuravnoteženih porazdelitvah

author: Jure Leskovec, Computer Science Department, Stanford University
published: Feb. 25, 2007,   recorded: October 2002,   views: 141

Related content

Report a problem or upload files

If you have found a problem with this lecture or would like to send us extra material, articles, exercises, etc., please use our ticket system to describe your request and upload the data.
Enter your e-mail into the 'Cc' field, and we will keep you updated with your request's status.
Lecture popularity: You need to login to cast your vote.
  Bibliography

Description

V strojnem učenju pri problemu klasifikacije v dva razreda pogosto naletimo na problem, ko imamo opravka s podatki, kjer močno prevladuje eden od obeh razredov. Z vidika klasifikacijske točnosti bi bil najboljši tak klasifikator, ki bi vse primerke uvrstil v večinski razred. Tega si običajno ne želimo, saj so za nas se posebej dragoceni pravilno klasificirani primerki manjšinskega razreda. Tako hočemo čim manj napačno klasificiranih primerkov manjšinskega razreda, medtem ko smo do napačno klasificiranih primerkov večinskega razreda bolj strpni.

Problema sem se lotil z uporabo 'boostinga'; to je postopka, ki s kombininacijo šibkih klasifikacijskih pravil sestavi eno učinkovito pravilo. Ogledali si bomo 4 različne metode boostinga: od klasičnegega AdaBoost do bolj naprednih, ki rešujejo problem linearnega programiranja in tako hitreje konvergirajo ter dosegajo boljše rezultate. Z vpeljavo linearnega programiranja pridobimo nekaj lepih lastnosti, ki jih AdaBoost sam po sebi nima. Pokazal bom se nekaj obetavnih rezultatov, ki sem jih dobil pri klasifikaciji besedil z uporabo korpusa časopisnih člankov Reuters-21578, kjer sem se osredotočil na male kategorije.

Link this page

Would you like to put a link to this lecture on your homepage?
Go ahead! Copy the HTML snippet !

Write your own review or comment:

make sure you have javascript enabled or clear this field: