V:
Kako lahko inženirji uporabljajo gradientno povečanje za izboljšanje sistemov strojnega učenja?
A:Kot druge vrste spodbud, se tudi s pomočjo gradientnega povečevanja več slabih učencev spremeni v enega samega močnega učenca v neke vrste digitalno "množično učenje" učnega potenciala. Drugi način, ki pojasnjuje povečanje gradientov, je, da inženirji dodajo spremenljivke za natančno nastavitev nejasne enačbe, da bi ustvarili bolj natančne rezultate.
Spodbujanje gradientov je opisano tudi kot "iterativni" pristop, pri čemer je mogoče iteracije opisati kot dodatek posameznih šibkih učencev k enemu močnemu modelu učencev.
Prosti prenos: Strojno učenje in zakaj je pomembno |
Tukaj je prepričljiv opis, kako gledati na vrsto povečanja gradientov, ki bo izboljšal rezultate strojnega učenja:
Sistemski skrbniki so najprej postavili niz šibkih učencev. Zamislite si jih, na primer, za niz entitet AF, ki so sedeli okoli navidezne mize in delali na težavi, na primer klasifikaciji binarnih slik.
V zgornjem primeru bodo inženirji vsak šibki učenec najprej pretehtali, po možnosti samovoljno, pripisali stopnjo vpliva A, B, C itd.
Nato bo program izvedel določen nabor vadbenih slik. Potem bo glede na rezultate ponovno obtežila niz šibkih učencev. Če je A uganil veliko bolje kot B in C, se bo vpliv A-ja ustrezno povečal.
V tem poenostavljenem opisu izboljšave spodbujevalnega algoritma je razmeroma enostavno razbrati, kako bo bolj zapleten pristop prinesel boljše rezultate. Šibki učenci "razmišljajo skupaj" in optimizirajo težavo ML.
Kot rezultat tega lahko inženirji uporabijo "ansambelski" pristop k povečanju naklona pri skoraj vseh projektih ML, od prepoznavanja slike do razvrščanja priporočil uporabnikov ali analize naravnega jezika. Gre v bistvu za "timski" pristop do ML in tisti, ki dobi veliko pozornosti nekaterih močnih igralcev.
Zlasti povečanje prelivov pogosto deluje z razlikovalno funkcijo izgube.
V drugem modelu, ki se uporablja za razlago zvišanja gradientov, je še ena funkcija tovrstnega povečevanja ta, da lahko izolira klasifikacije ali spremenljivke, ki so na širši sliki zgolj šum. Z ločitvijo regresijskega drevesa ali podatkovne strukture vsake spremenljivke v domeno enega šibkega učenca lahko inženirji izdelajo modele, ki bodo natančneje "izzveneli" označevalce hrupa. Z drugimi besedami, označevalec, ki ga pokriva nesrečni šibki učenec, bo marginaliziran, saj se šibki učenec ponovno tehta navzdol in bo imel manjši vpliv.