V:
Zakaj je izbira funkcij tako pomembna pri strojnem učenju?
A:Izbira lastnosti je pri strojnem učenju izredno pomembna predvsem zato, ker služi kot osnovna tehnika za usmerjanje uporabe spremenljivk na tisto, kar je najbolj učinkovito in učinkovito v določenem sistemu strojnega učenja.
Strokovnjaki govorijo o tem, kako izbira funkcij in odvzem funkcij delujeta tako, da zmanjšata prekrivanje dimenzij ali pomagata pri pretiranem opremljanju - to so različni načini za reševanje ideje prekomerno zapletenega modeliranja.
Prosti prenos: Strojno učenje in zakaj je pomembno |
Drug način, da to povemo, je, da izbira funkcij pomaga razvijalcem uporabiti orodja za uporabo le najprimernejših in koristnih podatkov v sklopih za strojno učenje, kar drastično zmanjša stroške in obseg podatkov.
En primer je ideja o merjenju zapletene oblike v merilu. Ko program obsega lestvico, prepozna večje število podatkovnih točk in sistem postane veliko bolj zapleten. Toda zapletena oblika ni tipični nabor podatkov, ki ga uporablja sistem strojnega učenja. Ti sistemi lahko uporabljajo nabore podatkov, ki imajo med seboj zelo različne razlike v različnih spremenljivkah. Na primer, pri razvrščanju vrst inženirji lahko z izbiro funkcij preučijo le spremenljivke, ki jim bodo omogočile najbolj ciljne rezultate. Če ima vsaka žival v tabeli enako število oči ali nog, se lahko ti podatki odstranijo ali pa se odvzamejo druge ustreznejše podatkovne točke.
Izbira lastnosti je razlikovalni postopek, s katerim inženirji sisteme strojnega učenja usmerjajo k cilju. Poleg ideje o odstranjevanju zapletenosti sistemov v obsegu je izbira funkcij lahko koristna tudi pri optimizaciji vidikov tega, kar strokovnjaki imenujejo "pristransko odstopanje odstopanja" pri strojnem učenju.
Razlogi, zakaj izbira funkcij pomaga pri pristranskosti in analizi odstopanja, so bolj zapleteni. Študija univerze Cornell o izbiri funkcij, spreminjanju pristranskosti in pakiranju služi za ponazoritev, kako izbira funkcij pomaga pri projektiranju.
Po mnenju avtorjev prispevek "preučuje mehanizem, s katerim izbira lastnosti izboljša natančnost nadzorovanega učenja."
Študija še navaja:
Empirična analiza pristranskosti / odstopanja, ko izbira lastnosti napreduje, kaže, da najnatančnejši nabor lastnosti ustreza najboljšemu odstopanju odstopanja odstopanja za algoritem učenja.
Ko razpravljate o uporabi močne ali šibke ustreznosti, pisci govorijo o izbiri funkcij kot "metodi zmanjševanja odstopanja" - to je smiselno, če menite, da je varianta v bistvu količina variacije v določeni spremenljivki. Če ni odstopanja, je lahko podatkovna točka ali matrika v bistvu neuporabna. Če je zelo veliko odstopanja, se lahko to spremeni v tisto, kar inženirji mislijo kot "hrup" ali nepomembne, samovoljne rezultate, ki jih sistem za strojno učenje težko upravlja.
Glede na to je izbira funkcij temeljni del zasnove pri strojnem učenju.