V:
Zakaj izvajati usposabljanje za strojno učenje (ML) na lokalnem stroju in nato izvajati redno izvajanje na strežniku?
A:Vprašanje, kako strukturirati projekt strojnega učenja ter njegove faze usposabljanja in preizkušanja, ima veliko povezave s tem, kako se gibljemo skozi »življenjski cikel ML« in program pripeljemo iz učnega okolja v proizvodno okolje.
Eden najpreprostejših razlogov za uporabo zgornjega modela postavitve usposabljanja ML na lokalni stroj in nato prestavitve izvajanja na sistem, ki temelji na strežniku, je prednost bistvenega ločevanja nalog. Na splošno želite, da je nabor treningov izoliran, tako da imate jasno sliko o tem, kje se začne in ustavi trening in kje se začne testiranje. Ta članek KDNuggets govori o načelu na grobi način, obenem pa tudi skozi nekatere druge razloge za izolacijo setov za vadbo na lokalnem stroju. Naslednja osnovna vrednost tega modela je, da s skupinami za usposabljanje in preizkuse na zelo različnih arhitekturah ne boste nikoli zmedeni glede skupne dodelitve vlakov / preizkusov!
Še ena zanimiva korist je povezana s kibernetsko varnostjo. Strokovnjaki poudarjajo, da če imate začetne procese vlaka na lokalnem stroju, ga ni treba povezati z internetom! To na temeljni način širi varnost in "inkubira" postopek, dokler ne doseže proizvodnega sveta, kjer morate nato v strežniški model vgraditi ustrezno varnost.
Poleg tega lahko nekateri od teh "izoliranih" modelov pomagajo pri težavah, kot so pojem koncepta in skriti konteksti - načelo "nestacionarnosti" razvijalce opozarja, da podatki ne ostanejo enaki sčasoma (odvisno od tega, kaj se meri) in da lahko traja veliko prilagodljivosti, da se testna faza ujema z fazo vlaka. Ali pa se v nekaterih primerih procesi vlakov in preskusov zlivajo, kar ustvarja zmedo.
Prva namestitev testne faze na strežniku lahko olajša različne modele "črne škatle", kjer odpravite težavo s prilagodljivostjo podatkov. V nekaterih primerih odpravi odvečen postopek dajanja naročil za spremembo na več platform.
Nato tudi strežniško okolje očitno služi sprotnim ali dinamičnim procesom, v katerih bodo inženirji želeli dostopati do modelov za prenos podatkov in kod, ki najbolje delujejo za proizvodnjo v ML. Na primer, AWS Lambda je lahko privlačna možnost za upravljanje mikrofunkcij proizvodnje (ali kombinacije shranjevanja predmetov Lambda in S3) in brez povezljivosti (brez strežnika), ki postane nemogoča.
To so nekatera vprašanja, o katerih lahko razvijalci razmišljajo, ko razmislijo, kako razdeliti faze usposabljanja za razdelitev ML iz preizkušanja in proizvodnje.