Domov Zvok Analiza robov: končna ekonomija

Analiza robov: končna ekonomija

Anonim

Avtor osebja Techopedia, 22. septembra 2016

Odvzem: Voditeljica Rebecca Jozwiak se z dr. Robin Bloor, Dez Blanchfield in Shawn Rogers Dell Statistica pogovarja o analitiki na robu.

Trenutno niste prijavljeni. Če si želite ogledati video, se prijavite ali prijavite.

Rebecca Jozwiak: Dame in gospodje, pozdravljeni in dobrodošli v podjetju Hot Technologies 2016. Danes imamo "Edge Analytics: Končno IoT ekonomija." Moje ime je Rebecca Jozwiak. Jaz bom vaš moderator današnje spletne oddaje. Če se želite pridružiti pogovoru na Twitterju, naredimo tvit s hashtagom # HOTTECH16.

Torej IoT, vsekakor vroča tema letos in internet stvari, gre res za podatke o stroju, podatke o senzorjih, dnevnike, podatke o napravah. Nobeden od njih ni nov, take vrste podatkov imamo že od nekdaj, toda to, da jih v resnici nismo mogli uporabljati in zdaj vidimo le na vrsto novih načinov uporabe teh podatkov. Zlasti v medicinski industriji, na finančnih trgih, z nafto in plinom, blago, je le veliko informacij, ki so bile prej neizkoriščene. In še cel kup ljudi res ni dojel, kako to storiti dobro. Govorimo o veliko majhnih podatkov, vendar je veliko podatkov in, veste, povezane so težave z omrežjem, vključena je strojna oprema ali jo je treba obdelati, in kako to storiti, ne da bi zamašili sistem? No, o tem bomo danes izvedeli.

Tukaj je naša vrsta strokovnjakov. Robin Bloor, naš glavni analitik v skupini The Bloor, imamo dr. Imamo tudi Deza Blanchfielda, našega znanstvenika za podatke iz skupine The Bloor. Veseli smo, da imamo Shawn Rogers, direktor globalnega marketinga in kanalov iz Dell Statistice. In s tem bom žogo poslal Robinu.

Dr. Robin Bloor: V redu, hvala za to. Pritisnil bom gumb in vrgel drsnik navzgor. Nimam pojma, zakaj sem ustvaril to apokaliptično sliko za internet stvari. Mogoče zato, ker mislim, da bo na koncu postalo kaotično. Grem naprej. To je del tečaja v kateri koli predstavitvi IoT. Tako ali drugače morate povedati nekaj nezaslišanega o tem, kje vse gre. In pravzaprav je večina tega verjetno resnična. Če dejansko pogledate na način, kako se te krivulje postopoma širijo. Veste, osebni računalniki, pametni telefoni in tablični računalniki bodo verjetno še naprej naraščali. Pametni televizorji se bodo verjetno dvignili. Nosljivi, verjetno zdaj eksplodirajo v primerjavi s tistimi, ki so bili pred nekaj leti. Povezani avtomobili, neizogibno, da bodo skoraj vsi avtomobili ves čas povezani temeljito in temeljito prenašali podatke. In vse ostalo. In ta poseben graf BI Intelligence kaže, da bo vse ostalo odtehtalo očitne stvari zelo, zelo hitro.

Kaj torej reči o IoT? Prva stvar je le arhitekturna točka. Saj veste, ko boste imeli podatke in vas bodo na tak ali drugačen način obdelali, boste morali oba sestaviti. In s podatki o količini, ki je zdaj, in zbiranje na različnih mestih, oba nista več skupaj. Včasih so bili v starih menedžerskih dneh. Torej si lahko omislite, ali obstajajo obdelovalni sloj, transportni sloj in podatkovna plast. Tako ali drugače bo danes prometni sloj obdelavo premikal ali premikal podatke po omrežjih. Torej, tukaj so izbire: podatke lahko premaknete v obdelavo, lahko premaknete obdelavo na podatke, lahko premaknete obdelavo in podatke na priročno izvedbeno točko ali pa lahko delite obdelavo in delite podatke. Kar zadeva internet stvari, so podatki že ob rojstvu že zelo zabrisani, verjetnost pa je, da bo ogromno obdelave izbrisano, da se lahko izvajajo aplikacije, ki jih je treba zagnati.

Torej sem narisal sliko. Zanimivost mene v zvezi z IoT, v tem diagramu govorim o zbirni domeni in poudarjam, da obstajajo poddomene. Torej si lahko predstavljate, da je domena IoT tukaj nekaj avtomobila, domena 2 in domena 3 in domena 4 pa sta avtomobila in zbirate podatke lokalno, na teh podatkih boste zagnali lokalne aplikacije in sprožili boste različne stvari. Da pa boste imeli analitiko o vseh avtomobilih, boste morali prenesti podatke v središče, ne nujno vseh podatkov, vendar boste morali zbirati v središču. In če razmišljate o tem, boste morda želeli imeti veliko, veliko različnih domen združevanja v istem sklopu stvari IoT. In tudi same domene bi se lahko združile. Torej bi lahko imeli to ponavljajočo se hierarhijo. In v bistvu imamo kar neverjetno zapleteno mrežo. Daleč kompleksnejši od vsega, kar smo morali imeti prej.

Spodaj imam opombo. Vsa omrežna vozlišča, vključno z vozliščami listov, so lahko ustvarjalci podatkov, shranjevanje podatkov in predelovalne točke. In to vam daje možnost distribucije, kakršne take še nismo videli. Dez bo o tem spregovoril malo več, zato bom prešel na to točko. Ko smo na spletu stvari in so vsi podatki dejansko postali dogodek, je smisel tega diapozitiva le v tem, da nakazujemo, da bomo morali dogodke standardizirati. Morali bomo vsaj to imeti. Imeli bomo čas dogodka, geografsko lokacijo, do katere je prišlo, navidezno ali logično lokacijo procesa, ki ga je ustvaril, izvorno napravo, ki ga je ustvarila, ID naprave, tako da natančno veste, katera izvorna naprava jo je ustvarila, lastništvo podatkov in akterjev, tistih ljudi, ki imajo pravico na tak ali drugačen način uporabljati podatke, bodo morali imeti dovoljenja s seboj, kar pomeni, res, da bodo morali s seboj nositi varnost, in potem je tu sami podatki. Ko pogledate na to, se zavedate, da tudi če imate senzor, ki nič drugega, kot da vsako sekundo poročate o temperaturi, je dejansko precej podatkov, da natančno ugotovite, kje so podatki nastalo in kaj v resnici je. Mimogrede, to ni izčrpen seznam.

Torej, kar se tiče prihodnje IT okolice, tako vidim, da je to tako: da ne gre samo za internet stvari, ampak tudi dejstvo, da bomo v svetu dejavnosti, ki temelji na dogodkih, in zato morali bodo imeti arhitekture, ki temeljijo na dogodkih, in te arhitekture bodo morale obsegati velika omrežja. Druga stvar je, da je v realnem času vse, ni nujno, da smo v realnem času, vendar je nekaj, kar sem poimenoval kot poslovni čas, to je čas, v katerem je treba podatke dejansko pripraviti in pripraviti predelati. To morda ne bo več milisekund po tem, ko je bila ustvarjena. Ampak vedno obstaja tak čas za vsak podatek in ko imaš arhitekturo, ki temelji na dogodkih, začne čutiti smisel v realnem času pristop k delovanju sveta.

Torej segrevamo, ker o resnici govorimo analitika na IoT. Kljub vsemu je še vedno čas za vpogled in ni samo čas za vpogled, vpogledu je treba slediti z dejanji. Torej, čas za vpogled in čas za ukrepanje je tisto, na kar bi ga spodbudil. Po tem bom dal žogo nazaj Dez.

Dez Blanchfield: Hvala, Robin. Pronicljiv kot vedno. Všeč mi je dejstvo, da je težko slediti vsakemu primeru, vendar bom dala vse od sebe.

Ena od stvari, ki jih vidim in me pogosto zabava, če sem iskren, in ne v neokusni in negativni poševni obliki, toda glede interneta stvari, ki prevzamejo svet, je veliko skrbi in panike. in nas začnete izgubljati, zato bi rad malo pogledal na nekatere stvari, ki smo jih počeli v zadnjih dveh do treh desetletjih, ki so bili faksimil spletu stvari, vendar morda ne povsem v istem merilu. In samo da pokažemo, da smo pravzaprav že bili tu in rešili nekatere težave, ne na tej ravni in ne s to hitrostjo. Ker to pomeni, da lahko težavo dejansko rešimo in da vemo, kakšni so odgovori; pravkar se moramo loviti in ponovno uporabiti nekaj spoznanj, ki smo jih imeli prej. In vem, da je to celoten pogovor, ki ga bomo kmalu vodili, in imam celo vrsto zabavnih stvari, s katerimi lahko samo klepetava v razdelku Q&A.

Ko pa pomislimo na internet stvari v krogu, je trenutno na ravni načrtovanja veliko centralizacije, ki je bila napisana že v prvih dneh. Na primer, naprave Fitbit ponavadi gredo na eno osrednje mesto in verjetno jih nekje gosti v oblačni platformi, vsi podatki iz vseh teh naprav pa dosegajo, recimo, sprednji del svežnja, vključno s spletom in storitve in storitve, ki temeljijo na podatkih. Vendar bo čez čas ta obseg zahteval ponovno inženiring, da se spopade s količino podatkov, ki prihajajo nanje, in bodo znova inženirjili, tako da je na več lokacijah in območjih več sprednjih koncev in več kopij. In to opažamo in naštejem vam številne primere, o katerih bomo lahko razpravljali.

Ključna točka tega je, da čeprav smo videli nekatere od teh rešitev, ki jih bom zajel, obseg in obseg podatkov ter omrežni promet, ki ga bo ustvaril internet stvari, nujno zahtevajo premik od osrednje Po mojem mnenju smo razdelili arhitekture in to vemo, vendar nismo nujno dojeli, kaj je rešitev. Ko razmišljamo o pojmu, kaj je internet stvari, gre za obsežni mrežni model. Zdaj veliko hrupa ustvarja hrup. Stvari, ki do nedavnega niso burile. In pravzaprav mislim, da je bilo včeraj, v šali sem govoril o kupu, a sem šel kupit nov toaster in prišel je z opcijo, ki bi mi lahko povedala različne stvari, tudi takrat, ko je bilo potrebno čiščenje. In nova mikrovalovna pečica z zelo podobno funkcijo in bi lahko celo dejansko poklicala aplikacijo na mojem telefonu, da bi rekla, da je stvar, ki sem jo segreval, zdaj storjena. In zelo sem mnenja, da če je nekaj stvari, o katerih ne želim govoriti, so to moj hladilnik, mikrovalovna pečica in opekači kruha. Precej mi je všeč, če so neumne naprave. Ampak pred kratkim sem dobil nov avto, malo Audija, in se z mano pogovarja in s tem sem precej zadovoljen, saj stvari, o katerih govori, zanimajo stvari. Tako kot posodabljanje zemljevidov v realnem času, da mi poveš, kje je boljša pot od točke A do točke B, ker je zaznan promet z različnimi mehanizmi s podatki, ki jih pošlje.

Imam to diapozitiv. Videli smo že, da modeli z veliko količino omrežja zahtevajo prehod od osrednjega k razdeljenemu zajemu in dostavi modelov za obdelavo podatkov in analitiko. Videli smo, da se stvari premikajo od treh majhnih grafov na desnem robu, kjer imamo, levega od treh, centraliziran model z vsemi malimi napravami na osrednji položaj in zbirajo podatke in obseg ni tako velik, tam se dobro spopadejo. Na sredini smo dobili nekoliko bolj decentraliziran model in vozlišče in govorili, kar mislim, da bomo z internetom stvari v naslednji generaciji potrebovali. In potem na desni strani imamo to popolnoma porazdeljeno in zrežirano omrežje, kjer bo internet stvari in stroja od stroja v kratkem času v prihodnosti, toda nismo dovolj tam zaradi različnih razlogov. In to predvsem zato, ker do zdaj za večino komunikacij uporabljamo internetne platforme in pravzaprav nismo zgradili drugega omrežja, ki bi preneslo veliko teh podatkov.

Obstajajo druga omrežja, ki že obstajajo, kot je mreža Batelco. Veliko ljudi ne razmišlja o tem, da telekomunikacijska omrežja niso internet. Internet je na več načinov zelo ločena stvar. Podatke iz pametnih telefonov usmerjajo po telefonskih omrežjih in nato prek telefonskih omrežij in na splošno na spletu, kjer jih dejansko razporejajo v dveh omrežjih. Toda povsem mogoče in verjetno bo internet stvari potreboval drugo omrežje. O industrijskem internetu govorimo kot o splošni temi, ki je zdaj ne bomo podrobneje obravnavali, v bistvu pa govorimo o drugem omrežju, ki je posebej zasnovano za vrste prevoza podatkov ali interneta stvari in od stroja do stroja. komunikacija.

Toda nekateri primeri, ki sem jih želel deliti, kjer smo videli veliko obsežna omrežja in zelo dobro razporejeni podatki, so stvari, kot je internet. Internet je bil od prvega dne posebej zasnovan in zasnovan tako, da je sposoben preživeti jedrsko vojno. Če se deli ZDA razstrelijo, je bil internet zasnovan tako, da se lahko podatki gibljejo po internetu brez izgube paketov iz razlogov, da smo še vedno povezani. In to še danes obstaja v svetovnem merilu. Internet ima več možnosti glede paketov odvečnosti in usmerjanja. In pravzaprav internet nadzoruje stvar, ki se imenuje BGP, Border Gateway Protocol in Border Gateway Protocol, BGP, posebej zasnovan tako, da se spopada z usmerjevalnikom ali stikalom ali strežnikom. Ko pošljete ali prejmete e-poštno sporočilo, če pošljete tri e-poštna sporočila zapored, ni zagotovila, da bo vsako od teh e-poštnih sporočil sledilo isti poti do istega končnega cilja. Iz različnih razlogov se lahko premikajo po različnih delih interneta. Lahko bi prišlo do izpada, lahko bi obstajala okna za vzdrževanje, kjer bi bilo mogoče nadgraditi stvari brez povezave, v omrežju bi lahko prišlo le do zastojev in to vidimo pri stvareh, kot so prometna omrežja z avtomobili in javnim prevozom ter ladjami in letali. Vsebine do naših naprav, kot so naši prenosniki in tablični računalniki ter računalniki, preko brskalnikov ipd. Vsak dan pošiljamo prek omrežij za pošiljanje vsebine. Omrežja za pošiljanje vsebine pomenijo, da kopijo vsebine z vaše osnovne strežniške platforme, na primer s spletnega strežnika, premikate kopije tega in predpomnilnika majhne količine na rob omrežja in vam ga dostavite le z najbližjega dela roba.

Zaščita pred neželeno pošto in kibernetsko varnostjo - če se kanadski dogodek zgodi v Kanadi in ga Microsoft zazna in ugotovi, da se skupini naključnih ljudi pošlje veliko izvodov istega e-poštnega sporočila, se nanj vzamejo kontrolne vsote, podpis tega sporočila ustvarili in dali v mrežo in takoj razdelili. Tako da elektronska pošta nikoli ne pride v mojo mapo »Prejeto«, če pa je, se takoj označi kot neželena pošta, ker je odkrita nekje drugje na robu omrežja. In tako so drugi deli roba omrežja obveščeni o tem podpisu neželenih sporočil in je vstavljen v indeks baze podatkov, in če se ta sporočila začnejo pojavljati na drugi strani planeta, jih zaznamo in vemo, da so neželena pošta. In enako velja za kibernetsko varnost. Hak, ki se dogaja na eni strani planeta, odkrijemo in registriramo in preslikamo, kar naenkrat na drugem delu omrežja pa se lahko borimo proti njemu, vložimo pravila in pravilnike ter spremenimo, da vidimo, ali ga lahko blokiramo. Zlasti z novim vplivom stvari, kot sta zavrnitev storitve ali porazdeljeno zavrnitev storitve, kjer se na tisoče strojev uporablja za napad na osrednje spletno mesto.

Bitcoin in blockchain sta privzeto po svoji naravi distribuirana knjiga, blockchain in se spopada z izpadi ali okvarami v omrežju. Odkrivanje in preprečevanje goljufij, oskrba z elektriko in vodo - vidimo, poznate električno omrežje, če en del omrežja dobi drevesno zemljišče na njem in vzame drog in žico, moja hiša še vedno dobi elektriko. Tega sploh ne vem, pogosto ga niti ne vidim v novicah. In vsi smo navajeni na prometna omrežja, kjer je prvotno obstajal centraliziran model, "Vse ceste so vodile do Rima", kot pravijo, nato pa smo na koncu morali iti do decentraliziranega modela s vozliščami in špicami, nato pa smo šli v mrežno mrežo, kamor se lahko z različnih mestih poti in različnih križišč pripeljete z ene strani mesta na drugo. In tukaj vidimo, da se bo moral ta centralizirani model tega, kar zdaj počnemo z internetom stvari, potisniti na rob omrežja. In to velja za analitiko bolj kot kdajkoli prej, in to je, da moramo analitiko potisniti v mrežo. Po mojem mnenju je potreben popolnoma nov pristop pri dostopu do teh podatkov in njihovih tokov. Zdaj govorimo o scenariju, pri katerem verjamem, da vidimo, da je na napravah, povezanih z internetom, omejena inteligenca potisnjena na rob omrežja, vendar bomo kmalu videli, da bodo te naprave povečale inteligenco in povečale raven analitike, ki jo želijo narediti. Kot rezultat tega bomo morali pametnike potisniti naprej in naprej po mreži.

Na primer pametne aplikacije in socialni mediji - če pomislimo na socialne medije in nekatere pametne aplikacije, so še vedno zelo osrednje. Veste, obstajata le dva ali tri podatkovna središča za Facebook. Google se je precej bolj decentraliziral, vendar je še vedno omejeno število podatkovnih centrov po vsem svetu. Ko razmišljamo o personalizaciji vsebine, morate razmišljati na zelo lokalni ravni. Veliko tega se naredi v vašem brskalniku ali na ravni omrežja za lokalno dostavo vsebine. In pomislimo na sledilce zdravja in fitnesa - veliko podatkov, ki jih zbiramo od njih, se analizira lokalno, zato nove različice naprav Garmin in Fitbit, ki jih postavite na zapestje, v napravi postajajo pametnejše in pametnejše. . Zdaj ne pošiljajo vseh podatkov o vašem srčnem utripu nazaj v centraliziran strežnik, da bi poskušali opraviti analitiko; gradijo to inteligenco neposredno v napravo. V avtomobilski navigaciji je bilo včasih tako, da bo avtomobil nenehno dobival posodobitve in zemljevide z osrednje lokacije, zdaj so pametna vozila v avtomobilu in avtomobil sprejema odločitve sam, na koncu pa se bodo avtomobili zapletli. Avtomobili se bodo med seboj pogovarjali prek neke vrste brezžičnih omrežij, ki bodo morda nad 3G ali brezžičnim omrežjem 4G v naslednji generaciji, sčasoma pa bo naprava naprava do naprave. In edini način, da se bomo spopadli s količino tega, je, da naredimo naprave pametnejše.

Že imamo sisteme za opozarjanje v sili, ki bodo zbirali informacije lokalno in jih pošiljali centralno ali v mrežno mrežo in sprejemali odločitve o dogajanju lokalno. Na Japonskem, na primer, obstajajo aplikacije, ki jih ljudje na pametnih telefonih poganjajo s merilniki pospeška. Akcelemetri v pametnem telefonu bodo zaznali tresljaje in gibanje ter lahko določili razliko med ravno običajnim vsakodnevnim gibanjem ter tresenjem in sunki potresa. In ta telefon vas bo začel sproti opozarjati lokalno. Dejansko aplikacija ve, da zaznava potrese. Te podatke pa deli tudi prek omrežja v modelu razdeljenega vozlišča in govoril, tako da vas bodo ljudje v bližini takoj ali čim prej opozorili na podatke, ki tečejo po omrežju. In nato na koncu, ko pride do osrednje lokacije ali razpršene kopije osrednje lokacije, potisne nazaj k ljudem, ki niso v neposrednem območju, niso zaznali gibanja planeta, vendar jih je treba na to opozoriti, ker morda prihaja cunami.

In pametna mestna infrastruktura - koncept inteligentne infrastrukture, intelekt že vgrajujemo v pametne zgradbe in pametno infrastrukturo. Pravzaprav sem včeraj parkiral svoj avto v mestu na novem območju, kjer so del mesta prenovili in obnovili. Ponovno so naredili vse ulice, na ulicah so senzorji, dejanski parkirni meter pa ve, da ko se zapeljem z avtom, ve, da ko grem osvežiti za dve uri omejitve, avto se ni premaknil in pravzaprav mi ni dovolil, da bi se lahko vstavil in ostal dve uri. Moral sem priti v avto, se potegniti iz prostora in nato potegniti nazaj, da sem ga prevaral, da sem lahko ostal tam še dve uri. Zanimivo pa je, da bomo sčasoma prišli do točke, ko avtomobil ne zazna le kot lokaliziran senzor, temveč stvari, kot so optične lastnosti, kjer bodo prepoznavanje uporabljene s kamerami, ki gledajo na mojo registrsko tablico. da sem se pravkar izvlekel in potegnil nazaj ter ga prevaril in me preprosto ne bo pustil obnoviti in bom nadaljeval naprej. In potem bo te podatke razdelil in poskrbel, da tega ne bom mogel storiti nikjer drugje in sproti zavajam omrežje. Ker mora biti po naravi pametnejši, sicer bomo vsi to še naprej norčevali.

Primer tega sem, da sem dejansko osebno živel tam, kjer je tehnologija požarnega zidu v poznih 80-ih in zgodnjih 90-ih letih imenovala Check Point FireWall-1. Zelo preprosta tehnologija požarnega zidu, s katero smo ustvarjali pravila in gradili pravilnike in pravila okoli določenih stvari, da bi rekli, da vrste prometa skozi določena pristanišča in IP naslove in omrežja pridejo med seboj in drug od drugega, spletni promet z enega mesta na drugega, prehaja od konca brskalnika in odjemalca do konca našega strežnika. To težavo smo rešili tako, da smo dejansko odstranili logiko iz požarnih zidov in jo dejansko prenesli v ASIC, aplikacijsko specifično integrirano vezje. Nadzoroval je vrata v Ethernet stikalih. Ugotovili smo, da strežniški računalniki, računalniki, ki smo jih dejansko uporabljali kot strežniki za sprejemanje odločitev kot požarni zidovi, niso bili dovolj močni, da bi lahko upravljali s količino prometa, ki poteka skozi njih, za vsako malenkostno pregledovanje paketov. Težavo smo rešili s premikanjem logike, ki je potrebna za pregledovanje paketov in zaznavanje interneta, v omrežna stikala, ki so bila razporejena in sposobna obvladovati količino podatkov, ki potekajo preko omrežne ravni. Ni nas skrbelo na centralizirani ravni s požarnimi zidovi, preselili smo ga v stikala.

In zato smo imeli proizvajalce, ki so nam omogočili, da pot in pravila in politike potisnemo v stikalo Ethernet, tako da na dejanski ravni ethernetnih vrat in morda veliko ljudi v bazenu s tem ni seznanjeno, ker smo zdaj živijo v brezžičnem svetu, nekoč pa se je vse moralo priključiti prek Etherneta. Zdaj smo na nivoju vrat Ethernet opravljali pregled paketov, da bi videli, ali se paketom sploh dovoli prehod v stikalo in v omrežje. Nekaj ​​tega je tisto, kar zdaj rešujemo v zvezi s tem izzivom zajemanja podatkov v omrežju, natančneje z naprav IRT, in vpogleda v njega ter njegove analize in verjetno analize v realnem času za sprejemanje odločitev. In nekaj od tega je pridobiti vpogled v poslovno inteligenco in informacije o tem, kako ljudje sprejemajo boljše odločitve in druge analitike ter zmogljivosti za stvari, ki so na strojni ravni, kjer se naprave pogovarjajo z napravami in sprejemajo odločitve.

In to bo trend, ki ga moramo v bližnji prihodnosti gledati na rešitev, ker če tega ne storimo, bomo s tem potopom hrupa končali. In videli smo v svetu velikih podatkov, videli smo stvari, kot so podatkovna jezera, ki se spreminjajo v močvirje podatkov, ki jih pravkar končamo s hrupom, za katerega nismo ugotovili, kako rešiti analitiko obdelave v centraliziranem moda. Če tega problema ne bomo rešili, po mojem mnenju s IoT takoj in hitro dobimo rešitev platforme, bomo končali na zelo, zelo slabem mestu.

In s tem v mislih se bom zaključil s svojo poanto, ki je, da verjamem, da je ena največjih sprememb, ki se dogaja v velikem prostoru podatkov in analitike, sprožena s takojšnjo potrebo po odzivanju na vpliv interneta stvari na področju obsežne in sprotne analitike, s tem, da moramo analitiko prestaviti v omrežje in nato na koncu omrežja samo zato, da se spopademo s čisto velikostjo le te, da jo obdelamo. In na koncu, upamo, smo podatke postavili v omrežje in na rob omrežja v vozlišče in govorili model, da ga lahko dejansko upravljamo in pridobimo vpogled v realnem času in od tega dobimo vrednost. In s tem grem k svojemu gostu in pogledam, kam nas ta pogovor vodi.

Shawn Rogers: Najlepša hvala. To je Shawn Rogers iz podjetja Dell Statistica in fant, za začetek se popolnoma strinjam z vsemi glavnimi temami, ki so se jih dotaknile tukaj. In Rebecca, začeli ste z eno idejo o tem, saj veste, da ti podatki niso novi, in zame je izjemno, koliko časa in energije porabimo za razpravo o podatkih, podatkih, podatkih IoT. In to je vsekakor pomembno, veste, Robin je dobro pokazal, tudi če počnete nekaj res preprostega in se enkrat v sekundi dotaknete termostata, veste, to počnete 24 ur na dan in dejansko imate, veste, nekaj zanimivih podatkovnih izzivov. Ampak, veste, na koncu - in mislim, da veliko ljudi v industriji na tak način spregovori o podatkih -, da v resnici ni vse tako zanimivo, in po Rebekini povedano, je že veliko, dolgo, toda tega v preteklosti nismo mogli veliko izkoristiti. In mislim, da se napredna analitična industrija in BI industrija na splošno resnično obračata proti IoT. In Dez, na koncu, to je del ali ena od zahtevnih točk velike podatkovne pokrajine, ki se mi zdi zelo resnična. Mislim, da so vsi zelo navdušeni nad tem, kaj lahko storimo s to vrsto podatkov, vendar hkrati, če ne znamo ugotoviti, kako uporabiti vpogled, ukrepati in, veste, poiščite analitiko, kje so podatki, mislim imeli bomo izzive, za katere ljudje ne vidijo, da res pridejo na pot.

Glede na to smo v naprednem prostoru analitike veliki oboževalci tega, kar mislimo, da se lahko zgodi s podatki IoT, še posebej, če za to uporabljamo analitiko. In veliko je informacij na tem diapozitivu, vsem pa bom dovolil le loviti in kljuvati, če pa pogledate različne sektorje, kot je trgovina na drobno, skrajno desno, se vidi njihova priložnost, da bi bili bolj inovativni ali imeli nekaj prihranki stroškov ali optimizacija ali izboljšave procesov so zelo pomembni in za njih je videti veliko primerov uporabe. Če pogledate, veste, levo proti desni čez diapozitiv, boste videli, kako vsaka od teh posameznih panog zahteva nove zmogljivosti in nove možnosti za razlikovanje zase, ko uporabljajo analitiko na IoT. In mislim, da je spodnja točka, če se boste trudili iti po tej poti, ne morate skrbeti samo za podatke, kot smo že razpravljali, in arhitekturo, ampak morate pogledati, kako najbolje uporabite analitiko zanjo in tam, kjer je treba opraviti analitiko.

Mnogi z današnjim klicem, veste, sva se z Robin že dolgo poznala in v preteklosti že nešteto pogovorov o tradicionalnih arhitekturah, tistih okrog centraliziranih baz podatkov ali skladišč podatkov o podjetjih in podobno, smo ugotovili v zadnjem desetletju ali tako, da zelo dobro razrešimo omejitve teh infrastruktur. In niso tako trdovratni ali tako močni, kot bi si želeli, da bi bili danes, da bi podprli vse odlične analitike, ki jih uporabljamo za informacije in seveda tudi informacije zlomijo arhitekturo, veste, hitrost podatkov, količina podatkov in tako naprej vsekakor raztezajo omejitve nekaterih naših bolj tradicionalnih pristopov in strategij do te vrste dela. In zato mislim, da nekako začenja, da bi morala podjetja zavzeti bolj prilagodljivo in morda bolj prilagodljivo stališče do tega in to je del, verjetno mislim, da bi rad malo spregovoril o strani IoT.

Preden si vzamem trenutek, da vse skupaj pokličem in vam predstavim, kaj je Statistica in kaj počnemo. Kot lahko vidite na naslovu tega diapozitiva, je Statistica prediktivna analitika, veliki podatki in vizualizacija za IoT platformo. Sam izdelek je star nekaj več kot 30 let in tekmujemo z drugimi vodilnimi na trgu, ki jih verjetno poznate po tem, da lahko pri uporabi podatkov napovedujemo analitiko, napredno analitiko. Videli smo priložnost, da razširimo domet, kamor smo vložili svojo analitiko in začeli delati na nekaterih tehnologijah nazaj, ki so nas precej pozicionirale, da izkoristimo to, kar sta danes govorila tako Dez kot Robin, to je ta nov pristop in kam boste dali analitiko in kako jo boste združili s podatki. Ob tej strani se pojavljajo tudi druge stvari, s katerimi se morate spoprijeti s platformo, in kot sem že omenil, je Statistica na trgu že dolgo. Zelo smo dobri v stvareh, ki jih povezujemo podatki, in mislim, da veste, da se danes nismo preveč pogovarjali o dostopu do podatkov, ampak o tem, da lahko posežemo po teh različnih omrežjih in si priskrbimo prave podatke na pravi čas postaja vse bolj zanimiv in pomemben za končne uporabnike.

Nazadnje bom tukaj komentiral še en del, saj je Dez dobro poudaril omrežja, saj je imel nekaj ravni nadzora in varnosti nad analitičnimi modeli v vašem okolju in kako se pripisujejo postajanju podatkov zelo pomemben. Ko sem se pred nekaj leti zapletel v to industrijo - mislim, da je bilo skoraj 20, - ko smo govorili o napredni analitiki, je šlo na zelo kustos. Le nekaj ljudi v organizaciji je imelo svoje roke, razporedili so jih in dali ljudem odgovor, kot je bilo potrebno, ali pa so zagotovili vpogled, kot je potrebno. To se res spreminja in opažamo, da je veliko ljudi, ki so delali na en ali več raznolikih in bolj prilagodljivih načinov, kako doseči podatke, uporabiti varnost in upravljanje podatkov ter nato sodelovati pri njih. To je nekaj pomembnih stvari, na katere gleda Dell Statistica.

Toda želim se potopiti v temo, ki je nekoliko bližja današnjem naslovu, in sicer, kako naj obravnavamo podatke, ki prihajajo iz interneta stvari, in kaj bi lahko iskali, ko iščete različne rešitve. Drsnik, ki sem ga vstal pred vami, je nekako tradicionalni pogled in tako Dez kot Robin sta se dotaknila te ideje o pogovoru s senzorjem, pa naj bo to avtomobil ali toaster oz. vetrne turbine ali kaj že imate, nato pa te podatke iz podatkovnega vira preusmerite v vaše omrežje nazaj v centralizirano vrsto konfiguracije, kot je omenil Dez. In zelo dobro se povezuje in veliko podjetij se prvotno znajde v prostoru IoT, ki ga začnejo izvajati s tem modelom.

Druga stvar, ki je prišla, če pogledate proti dnu diapozitiva, je ta ideja, da vzamete druge tradicionalne vire podatkov, povečate svoje podatke IoT in nato v tovrstno jedro, ne glede na to, ali je vaše jedro podatkovni center ali je morda je v oblaku, v resnici ni pomembno, vzemite izdelek, kot je Statistica, in nato na njem uporabite analitiko in nato potrošnikom posredujete ta vpogled. In mislim, da so to točke na mizi. To je nekaj, kar morate imeti, in imeti morate dovolj odprto arhitekturo za napredno analitično platformo in se pogovarjati z vsemi temi, nekakšnimi, različnimi viri podatkov, vsemi temi senzorji in vsemi temi različnimi destinacijami, kjer imate podatke. In mislim, da je to nekaj, kar moraš biti sposoben narediti, in mislim, da boš ugotovil, da je res, da veliko voditeljev na trgu zmore tovrstne stvari. Tu na Statistici nekako govorimo o tem kot o glavni analizi. Pridobite podatke, vrnite jih v jedro, jih obdelajte, po potrebi dodajte več podatkov in po potrebi izvedite analitiko ter jih nato delite v akcijo ali v vpogled.

In zato mislim, da so to zagotovo s funkcijskega stališča, verjetno bi se vsi strinjali, da je to, kar veste, to nujna potreba in vsi morajo to početi. Kjer se začne postajati zanimivo, je to, kje imate ogromno količino podatkov, saj veste, da prihajajo iz različnih virov podatkov, kot so IoT senzorji, kot sem že omenil, pa naj gre za avtomobil ali varnostno kamero ali proizvodni proces, prednost, da lahko naredimo analitiko tam, kjer se podatki dejansko proizvajajo. Prednost večine ljudi pa mislim, da ko začnemo premikati analitik iz jedra navzgor do roba, je ta sposobnost razširjanja nekaterih podatkovnih izzivov, ki se dogajajo, in Dez in Robin bosta to verjetno komentirala na koncu danes, vendar menim, da morate biti sposobni spremljati in ukrepati glede podatkov na robu, tako da ni vedno treba vse te podatke premakniti v svoje omrežje. Robin je o tem spregovoril v svojih, podobno, arhitekturnih slikah, ki jih je sestavil, kjer imate vse te različne vire, toda ponavadi je nekaj skupnega pomena. Točka združevanja, ki jo vidimo precej pogosto, je bodisi na ravni senzorjev, še pogosteje pa na prehodu. In ti prehodi obstajajo kot nekakšen posrednik v toku podatkov iz virov podatkov, preden se vrnete v jedro.

Ena od priložnosti, ki jo je izkoristil Dell Statistica, je ta, da smo sposobni izvoziti model z naše centralizirane napredne analitične platforme, da bomo lahko vzeli model in ga nato izvedli na robu na drugi platformi, kot je prehod ali znotraj baze podatkov ali kaj imate. In mislim, da je fleksibilnost, ki nam jo daje, res zanimiva točka današnjega pogovora, ali to imate danes v svoji infrastrukturi? Ali ste sposobni premakniti analitiko tja, kjer živijo podatki, v primerjavi s tem, da podatke vedno premikate tja, kjer živijo vaši analitiki? In to je tisto, na kar se Statistica osredotoča že kar nekaj časa, in ko pogledate diapozitive, boste videli, da je tam nekaj druge tehnologije našega sestrskega podjetja, Dell Boomi. Dell Boomi je platforma za integracijo podatkov in integracijo aplikacij v oblaku, Dell Boomi pa dejansko uporabljamo kot trgovinsko napravo za premik naših modelov iz Dell Statistica, prek Boomija in izven roba naprav. In menimo, da je to zahteven pristop, ki ga bodo podjetja zahtevala, kolikor jim je všeč različica, ki sem vam jo pokazal pred minuto, kar je nekakšna osnovna ideja premikanja podatkov iz senzorjev vse do vrha Center, hkrati pa bodo podjetja želela, da bi lahko to naredila tako, kot sem tukaj nekako orisala. Prednosti pri tem pa so nekatere točke, ki sta jih zastavila Robin in Dez, to je, ali se lahko odločite in ukrepate s hitrostjo svojega podjetja? Ali lahko premikate analitiko iz enega kraja v drugega in si lahko prihranite čas, denar in energijo ter zapletenost neprestanega premikanja teh robnih podatkov nazaj v jedro.

Zdaj sem prvi, ki je rekel, da bodo nekateri najpomembnejši podatki vedno dovolj visoki, kjer bi bilo smiselno, da te podatke shranite in shranite in prenesete nazaj v svoje omrežje, toda kakšna robna analitika vam bo omogočila, da Ali je zmožnost odločanja s hitrostjo, do katere podatki dejansko prihajajo, kajne? Da lahko vpogled in dejanje uporabite s hitrostjo, kjer je najvišja možna vrednost. In mislim, da je to nekaj, kar bomo iskali pri uporabi napredne analitike in podatkov IoT, to je priložnost za premikanje s hitrostjo podjetja ali s hitrostjo, ki jo zahteva stranka. Mislim, da je naše stališče, da mislim, da morata biti sposobna oba. In mislim, da bodo kmalu in zelo hitro, ko več podjetij gleda na raznovrstne nabore podatkov, zlasti tistih s strani IoT, začeli gledati v prodajni prostor in zahtevati, kaj lahko zmore Statistica. Kar pomeni, da v središču postavimo model, kot to počnemo že vrsto let tradicionalno, ali pa ga namestimo na platformah, ki so morda netradicionalne, kot je prehod IoT, in dejansko lahko podajo rezultate in uporabijo analitične podatke ob robu, ko se podatki pridobivajo. In mislim, da tu prihaja vznemirljivi del tega pogovora. Ker nam omogoča, da uporabimo analitik na robu v času, ko se podatki senzorja spustijo, nam omogoča, da ukrepamo tako hitro, kot moramo, vendar nam tudi omogoča, da se odločimo, ali morajo biti ti podatki takoj nazaj do jedra? Ali ga lahko pošljemo tukaj in ga nato pošljemo nazaj v kosih in delih in kasneje opravimo nadaljnjo analizo? In to je tisto, kar opažamo veliko naših vodilnih strank.

Način, kako to počne Dell Statistica, je to, da lahko uporabimo, zato recimo zgradite nevronsko omrežje znotraj Statistice in ste želeli nevronsko omrežje postaviti nekje drugje v svoji podatkovni pokrajini. Izdelamo lahko tiste modele in vse jezike, ki ste jih opazili v desnem kotu - Java, PPML, C in SQL in tako naprej, vključujemo tudi Python in lahko tudi izvozimo svoje skripte - in ko premaknete to platformo, ki je centralizirana, lahko nato uporabite ta model ali algoritem, kjer ga potrebujete. In kot sem že omenil, ga uporabljamo Dell Boomi in ga parkiramo tam, kjer ga potrebujemo, nato pa lahko rezultate vrnemo nazaj ali pa lahko pomagamo pri vračanju podatkov ali ocenjevanju podatkov in ukrepamo z uporabo naših pravil. . Vse te stvari postanejo nekako pomembne, ko začnemo gledati to vrsto podatkov in znova razmišljamo.

To je nekaj, kar bo večina od vas po telefonu morala storiti, ker bo postalo zelo drago in bo obdavčilo vaše omrežje, kot je omenil Dez, za premikanje podatkov z leve strani teh diagramov desno od teh diagramov čas. Ne sliši se veliko, vendar smo videli tovarniške kupce z deset tisoč senzorji v svojih tovarnah. In če imate v svoji tovarni deset tisoč senzorjev, tudi če le te opravljate drugo vrsto preskusov ali signalov, govorite o osemdeset štiri tisoč vrstic podatkov iz vsakega od teh posameznih senzorjev na dan. In tako se podatki zagotovo nabirajo in Robin je to nekako omenil. Vnaprej sem omenil nekaj panog, kjer ljudje opažamo, da se z našo programsko opremo in podatki IoT lotijo ​​precej zanimivih stvari: avtomatizacija zgradb, energija, komunalne storitve so res pomemben prostor. Opažamo veliko dela na področju optimizacije sistemov, celo storitev za stranke in seveda celotnega delovanja in vzdrževanja, znotraj energetskih objektov in znotraj zgradb za avtomatizacijo. In to je nekaj primerov uporabe, za katere vidimo, da so precej močni.

Prej smo delali analitiko, verjetno je bil izraz skovan. Kot sem že omenil, imamo v Statistici globoke korenine. Podjetje je bilo ustanovljeno pred skoraj 30 leti, zato imamo kupce že nekaj časa nazaj, ki podatke o IoT-ju povezujejo s svojo analitiko in že nekaj časa. In Alliant Energy je eden izmed naših uporabnih primerov ali referenčnih odjemalcev. In predstavljate si lahko težavo, ki jo ima energetsko podjetje s fizično napravo. Raztezanje zunaj opečnih sten fizičnega obrata je težko, zato energetska podjetja, kot je Alliant, iščejo načine za optimizacijo svoje proizvodnje energije, ki v bistvu izboljšajo njihov proizvodni proces in ga optimizirajo na najvišjo raven. In uporabljajo statistico za upravljanje peči v svojih obratih. In za vse nas, ki se vračamo v svoje zgodnje dni v naravoslovni razred, vsi vemo, da peči segrejejo toploto, toplota se pari, turbine vrtijo, dobimo elektriko. Težava podjetij, kot je Alliant, je pravzaprav optimizacija, kako se stvari segrejejo in gorijo v teh velikih ciklonskih pečeh. In optimizacijo proizvodnje, da se izognete dodatnim stroškom onesnaženja, premeščanja ogljika itd. In zato morate biti sposobni spremljati notranjost ene od teh ciklonskih peči z vsemi temi napravami, senzorji in nato vzeti vse te podatke senzorjev in nenehno spreminjati energijski proces. In to je točno tisto, kar Statistica počne za Allianta od približno leta 2007, preden je bil celo izraz IoT nadvse priljubljen.

Če že zgodaj povem Rebeki, podatki zagotovo niso novi. Sposobnost obdelave in pravilne uporabe je resnično tam, kjer se dogajajo vznemirljive stvari. Danes smo se v predporočilu malo pogovarjali o zdravstveni oskrbi in videli smo vse vrste aplikacij, da ljudje počnejo stvari, kot so boljša oskrba pacientov, preventivno vzdrževanje, upravljanje dobavne verige in operativna učinkovitost v zdravstvu. In to že poteka in obstaja veliko različnih primerov uporabe. Eno, na kar smo v Statistici zelo ponosni, je naša stranka Shire Biopharmaceuticals. Shire izdeluje posebna zdravila za resnično težko zdravljive bolezni. In ko ustvarijo serijo zdravil za svoje stranke, je to izjemno drag postopek in tudi za izjemno drag postopek je potreben čas. Ko razmišljate o proizvodnem procesu, ko vidite, so izzivi združevanje podatkov, ki so dovolj prilagodljivi na različne načine, kako podatke vnesti v sistem, preveriti podatke in nato lahko napovedati, kako pomagati tej stranki. In procese, ki so vlekli večino informacij iz naših proizvodnih sistemov in seveda naprav in senzorjev, ki poganjajo te proizvodne sisteme. Odličen je primer za to, kako se podjetja izogibajo izgubam in optimizirajo svoje proizvodne procese s pomočjo kombinacije senzorskih podatkov, IoT podatkov in rednih podatkov iz svojih procesov.

Torej veste, dober primer, kjer proizvodnja, zlasti visokotehnološka proizvodnja, koristi zdravstveni industriji okrog te vrste dela in podatkov. Mislim, da imam samo nekaj drugih točk, ki bi jih rad povedal, preden jih zavijem in vrnem Dezu in Robinu. A veste, mislim, da bo ta ideja, da lahko svojo analitiko potisnete kamor koli v vašem okolju, postala nekaj pomembnega za večino podjetij. Če se priklopite na tradicionalno obliko podatkov ETL-a iz virov nazaj do osrednjih lokacij, bo v vaši strategiji vedno mesto, vendar ne sme biti vaša edina strategija. Danes morate k bistveno bolj prilagodljivemu pristopu. Če želite uporabiti varnost, ki sem jo omenil, se izogibajte obdavčevanju vašega omrežja, da boste lahko upravljali in filtrirali podatke, če prihajajo od roba, in določili, katere podatke je vredno hraniti dolgoročno, katere podatke je vredno premikati v naše omrežje ali katere podatke je treba šele analizirati v času, ko so bili ustvarjeni, da lahko sprejmemo najboljše možne odločitve. Takšen analitični pristop povsod in kjerkoli je pri Statistici zelo na srcu, zato smo zelo izkušeni. In to se vrača na enega od teh diapozitivov, ki sem ga omenil prej, možnost izvažanja svojih modelov v različnih jezikih, da se lahko ujemajo in poravnajo s platformami, na katerih se podatki ustvarjajo. In potem seveda distribucijsko napravo za tiste modele, kar je tudi nekaj, kar prinesemo na mizo in nad katerim smo zelo navdušeni. Mislim, da je danes pogovor, če bomo resnično resni glede teh podatkov, ki so že dolgo v naših sistemih, in bi radi našli konkurenčno prednost in inovativen kotiček za njegovo uporabo, se morate prijaviti nekaj tehnologije, ki vam omogoča, da se umaknete od nekaterih omejujočih modelov, ki smo jih uporabljali v preteklosti.

Še enkrat, moja poanta je, da če boš delal IoT, mislim, da moraš biti sposoben to storiti v središču, podatke pa vnesti in primerjati z drugimi podatki in opraviti svojo analitiko. Prav tako enako pomembna ali morda še pomembnejša mora biti ta prilagodljivost, da analitik spravite s podatki in premaknete analitik iz osrednje strani svoje arhitekture na rob za prednosti, ki sem jih omenil prej. To je malo o tem, kdo smo in kaj počnemo na trgu. In zelo smo navdušeni nad IoT, mislimo, da je vsekakor starost in da imamo tukaj veliko možnosti, da s to vrsto podatkov vplivajo na svojo analitiko in kritične procese.

Rebecca Jozwiak: Shawn, hvala lepa, to je bila res fantastična predstavitev. In vem, da vam bo Dez verjetno umrl, da bi vam zastavil nekaj vprašanj, zato vas bom najprej pustil.

Dez Blanchfield: Imam milijon vprašanj, vendar bom vseboval sebe, ker vem, da ga bo imel tudi Robin. Ena od stvari, ki jo vidim daleč naokoli, je vprašanje, ki se mi poraja, in resnično želim, da dobim kakšen vpogled v vaše izkušnje s tem, glede na to, da ste v srcu stvari. Organizacije se spopadajo z izzivom in poglejte, da so nekatere izmed njih pravkar prebrale všeč Klaus Schwab "Četrta industrijska revolucija" in nato doživele panični napad. In tisti, ki te knjige ne poznajo, je v bistvu vpogled gospoda Klausa Schwaba, za katerega mislim, da je profesor, ki je po spominu ustanovitelj in izvršni predsednik Svetovnega ekonomskega foruma, in knjiga je v bistvu o ves ta vseprisotni internet stvari eksplozije in nekaterih vplivov na svet na splošno. Organizacije, s katerimi govorim, niso prepričane, ali bi morale spremeniti sedanje okolje ali vložiti vse v izgradnjo novega okolja, infrastrukture in platform. Ali tudi v Dell Statistici opažate ljudi, da posodabljajo trenutna okolja in nameščajo vašo platformo v obstoječo infrastrukturo, ali opažate, da svoj fokus preusmerijo na izgradnjo vse nove infrastrukture in se pripravijo na ta potop?

Shawn Rogers: Veste, imeli smo priložnost služiti obema vrstama kupcev in biti na trgu, dokler imamo, te možnosti so nekako širše. Imamo kupce, ki so v zadnjih nekaj letih ustvarili povsem nove tovarne rastlin in jih opremili s senzornimi podatki, IoT, analitiko od roba do konca v tem procesu. Moram pa povedati, da so večino naših kupcev ljudje, ki že nekaj časa opravljajo tovrstno delo, vendar so bili prisiljeni te podatke ignorirati. Veste, Rebecca je točko postavila takoj spredaj - to niso novi podatki, ta vrsta informacij je bila dolgo časa na voljo v različnih oblikah, toda tam, kjer je bila težava povezana z njo, ga premikate in pripeljete nekam, kjer bi lahko nekaj pametnega naredili z njim.

In zato bi rekel, da večina naših kupcev gleda, kaj imajo danes, in Dez, že prej si to poudaril, da je to del velike revolucije podatkov in mislim, da gre v resnici za to, da gre za vse revolucija podatkov, kajne? Nekaterim sistemskim podatkom ali proizvodnim podatkom ali podatkov o avtomatizaciji zgradb ni treba zanemarjati več, zdaj imamo prave igrače in orodja, da jih dobimo in nato z njimi naredimo pametne stvari. In mislim, da je v tem prostoru veliko voznikov, ki se to dogajajo, nekateri pa so tehnološki. Veste, velike rešitve podatkovne infrastrukture, kot so Hadoop in druge, so nekatere od nas nekoliko omilile in nekoliko lažje razmišljale o ustvarjanju podatkovnega jezera te vrste informacij. In zdaj gledamo po podjetju, da gremo: "Hej, imamo analitiko v svojem proizvodnem procesu, a ali bi jih izboljšali, če bi lahko dodali nekaj vpogleda v te procese?" In to je, mislim, kaj večina naše stranke počnejo. Ne gre toliko za ustvarjanje od spodaj navzgor, temveč za povečanje in optimizacijo analitike, ki jo že imajo, z novimi podatki.

Dez Blanchfield: Aha, nekatere največje panoge, ki smo jih videli, in ki ste jih omenili, so moči in komunalne storitve. Letalstvo ravno prehaja ta razcvet, kjer je ena od mojih najljubših naprav, o katerih redno govorim, Boeing 787 Dreamliner in zagotovo enakovreden Airbus, A330 šel po isti poti. V prvi različici 787 je bilo približno šest tisoč senzorjev in mislim, da zdaj govorijo o petnajst tisoč senzorjev v novi različici. Zanimivo pri pogovoru z nekaterimi ljudmi, ki so na tistem svetu, je bila ideja, da bi senzorje dali v krila in tako naprej, in neverjetna stvar 787 v oblikovalski platformi je ta, da veste, da so vse na novo izumili letalo. Tako kot krila, na primer, ko letalo vzleti, se krila upognejo do dvanajst metrov in pol. Toda v skrajnostih se lahko krila upognejo na konici do 25 metrov. Ta stvar je videti kot ptica, ki plapola. Toda tega, kar niso imeli časa, popraviti, je bila analiza analitike vseh teh podatkov, zato imajo senzorje, ki LED-lučke utripajo zeleno in rdeče, če se zgodi kaj slabega, vendar dejansko ne končajo z globokim vpogledom v v realnem času. Prav tako niso rešili težave, kako premikati količino podatkov, saj v domačem zračnem prostoru v ZDA dnevno poteka 87.400 letov. Ko vsako letalo dohiti svoj odkup 787 Dreamlinerja, je to 43 petabajtov na dan, saj ta letala trenutno ustvarijo približno pol terabajta podatkov. Ko pomnožite 87.400 letov na dan v ZDA s točko pet ali pol terabajta, na koncu dobite 43, 5 petabajtov podatkov. Tega fizično ne moremo premakniti. Torej po načrtu moramo analitiko potisniti v napravo.

Toda ena stvar, ki je zanimiva, ko pogledam celotno arhitekturo - in želim videti, kaj si mislite o tem - je to, ali smo se premaknili k glavnemu upravljanju podatkov, nekako k prvim načelom upravljanja podatkov, vlečenju vse na osrednji lokaciji. Imamo podatkovna polja in nato ustvarimo malo podatkovnih baz, če želite, izvlečke tega, na katerem delamo analitiko, vendar z distribucijo do roba, ena od stvari, ki se nenehno pojavljajo, zlasti od oseb podatkovnih baz in upravljavcev podatkov ali ljudje, ki se ukvarjajo z upravljanjem informacij, kaj se zgodi, ko imam veliko majhnih miniaturnih podatkovnih jezer? Kakšne stvari so bile uporabljene za to razmišljanje v zvezi z robno analitiko v vaši rešitvi, ker bi se tradicionalno vse dogajalo centralno s podatkovnim jezerom, zdaj pa povsod na koncu s temi majhnimi lužami podatkov in čeprav lahko na njih izvajajte lokalno analitiko, da boste dobili nekaj vpogleda v lokal, kateri so izzivi, s katerimi ste se spopadli, in kako ste jih rešili z razporejenim naborom podatkov, še posebej, ko dobite mikrokozme podatkovnih jezer in porazdeljenih območij?

Shawn Rogers: Mislim, da je to eden od izzivov, kajne? Ko se oddaljujemo od, veste, prenašanje vseh podatkov nazaj na sredinsko lokacijo ali osnovni analitični primer, ki sem ga dal, nato pa naredimo razdeljeno različico, je, da končate z vsemi temi malimi silosi, kajne? Tako kot ste upodabljali, kajne? Delajo malo, delajo nekatere analitike, ampak kako jih združiti? In mislim, da bo ključno v orkestraciji vsega tega in mislim, da se boste strinjali z mano, vendar sem vesel, če tega ne storite, mislim, da smo ta razvoj spremljali že precej nekaj časa.

Se vračamo na dneve naših prijateljev, gospoda Inmona in gospoda Kimballa, ki sta vsem pomagala pri arhitekturi svojih zgodnjih naložb v skladišče podatkov, pri čemer je treba poudariti, da smo že dolgo odšli od tega centraliziranega modela. Sprejeli smo novo idejo, da omogočimo podatkom, da pokažejo svojo težo tam, kjer je najbolje, da se nahajajo znotraj vašega ekosistema, in poravnavo podatkov z najboljšo možno platformo za najboljši možni rezultat. In začeli smo nekako trošiti, mislim, bolj orkestriran pristop do našega ekosistema kot prevladujoč način ravnanja, saj poskušamo vse te komade poravnati naenkrat. Kakšno vrsto analitike ali dela bom opravil s podatki, kakšen tip podatkov bo pomagal določiti, kje naj živi. Kje se proizvajajo in kakšno težo imajo podatki?

Veste, vidimo veliko teh primerov velikih podatkov, kjer ljudje govorijo o 10- in 15-petabajtnih podatkovnih jezerih. No, če imate podatkovno jezero, ki je tako veliko, je zelo nepraktično, da ga premikate, zato morate imeti možnost, da vanj prinesete analitiko. Ko pa to storite, v bistvo vašega vprašanja, mislim, da vsem ljudem postavlja veliko novih izzivov, da orkestrirajo okolje ter uporabijo upravljanje in varnost, in razumejo, kaj je treba storiti s temi podatki, da jih ozdravijo in dobite iz njega najvišjo vrednost. In če sem iskren z vami - tukaj bi rad slišal vaše mnenje - mislim, da smo tam že zgodnji dnevi in ​​mislim, da je treba še veliko dela. Mislim, da se programi, kot je Statistica, osredotočajo na to, da več ljudem omogoči dostop do podatkov. Vsekakor smo osredotočeni na te nove kadre, kot je znanstvenik za podatke o državljanih, ki želijo napovedati analitiko do krajev v organizaciji, ki jih prej morda ni bilo. In mislim, da je to nekaj zgodnjih dni, toda mislim, da bo zrelostni lok moral pokazati visoko raven ali orkestracijo in uskladitev med temi platformami ter razumevanje, kaj je na njih in zakaj. In to je starostna težava za vse nas podatkovne ljudi.

Dez Blanchfield: V resnici je tako in v celoti se strinjam z vami o tem in mislim, da je odlična stvar, ki jo danes slišimo, vsaj sprednji problem problema zajemanja podatkov na, menda, ravni prehoda na robu omrežja in sposobnost analitike na tem mestu je zdaj v bistvu rešena. In to nas zdaj sprosti, da dejansko začnemo razmišljati o naslednjem izzivu, ki je razdeljen podatkovni jezeri. Najlepša hvala za to, bila je fantastična predstavitev. Resnično cenim priložnost za klepet s tabo o tem.

Zdaj bom šel k Robinu, ker vem, da ga ima, potem pa je Rebeka dobila tudi dolg seznam odličnih vprašanj občinstva po Robinu. Taščica?

Dr. Robin Bloor: V redu. Shawn, rad bi povedal še malo in ne poskušam vam dati priložnosti, da se oglasite, vendar je pravzaprav zelo pomembno. Zanima me, kdaj je Statistica ustvarila zmožnost izvoza modela. Ampak tudi jaz bi rad povedal kaj o Boomi, ker vse, kar ste doslej povedali o Boomi, je, da je to ETL in to v resnici ETL. Toda dejansko je zelo sposoben ETL in za takšne trenutke, o katerih govorimo, in nekatere situacije, o katerih tukaj razpravljamo, so zelo pomembne stvari. Bi lahko spregovorili o teh dveh stvareh zame?

Shawn Rogers: Seveda, ja, vsekakor lahko. Veste, naše gibanje v tej smeri je bilo zagotovo iterativno in je bilo nekakšen korak po korak. Ta teden šele prihajamo na začetek različice 13.2 of Statistica. In ima najnovejše posodobitve vseh zmogljivosti, o katerih govorimo danes. Toda, ko smo se pred letom oktobra vrnili na različico 13, smo napovedali svojo sposobnost izvoza modelov z naše platforme in takrat smo jo poimenovali NDAA. Akronim je pomenil Native Distributed Analytics Architecture. Kar smo storili, smo vložili veliko časa, energije in se osredotočili na odpiranje naše platforme z možnostjo, da jo uporabimo kot osrednji poveljniški center za napredno analitiko, pa tudi, da od tam postavimo. In prva mesta, Robin, ki smo jih napotili, smo naredili resnično zelo dober dodatek k platformi o strojnem učenju. Tako smo imeli možnost uvajanja od Statistice do Microsoftovega oblaka Azure, da bi izkoristili moč Azure za strojno učenje, kot veste, je zelo intenzivno in je odličen način za uporabo oblačnih tehnologij. In tako je bilo to prvi zalogaj.

Zdaj smo naše modele izvažali v Azure in uporabljali Azure, da bi jih zagnali in nato podatke ali rezultate poslali nazaj na platformo Statistica. Nato smo prešli na druge jezike, iz katerih smo želeli izvažati, in seveda eden od njih je Java, ki nam odpira vrata, da začnemo svoje modele izvoziti navzven na druge lokacije, kot je Hadoop, tako da je to dal tudi nam igra tam.

In nazadnje smo se osredotočili na to, da bomo lahko svoje modele s to objavo oddali v baze podatkov. In tako je bila prva ponovitev in če sem iskren z vami, je bila končna igra IoT, vendar z različico 13 oktobra lani še nismo bili čisto tam. Od takrat smo se prišli tja in to je povezano z zmožnostjo izvajanja vseh stvari, ki sem jih pravkar omenil, potem pa tudi z nekakšno prevozno napravo. In ko se vrnemo k Dezovemu vprašanju, kaj veste, kaj je izziv in kako to storimo, ko imamo vse te analitike? No, Boomi uporabljamo kot nekakšno distribucijsko središče in zato, ker je v oblaku in ker je tako močan, kot sem že omenil, platforma za integracijo podatkov, vendar je tudi platforma za integracijo aplikacij in uporablja JVM, da nam omogoči parkirati in delati kjer koli, kjer lahko pristanete navidezni stroj Java. To je tisto, kar so se res odprla vrata za vse te prehode in robne računalniške platforme ter robne strežnike, ker imajo vsi računalnik in platformo, ki je na voljo za zagon JVM. In ker lahko JVM poganjamo kjer koli, se je Boomi obrnil čudovita distribucija in uporaba moje besede iz prej, orkestracijske naprave.

In to je resnično pomembno, ker smo vsi, veste, mislim, da je bil scenarij letala pred minuto odličen, in omenil sem, veste, proizvajalci, kot je Shire, ki imajo deset tisoč senzorjev v eni od svojih tovarn, v nekem trenutku se moramo lotiti neke vrste osrednjega pristopa do napredne analitike. Biti ad hoc glede tega v resnici ne deluje več. Včasih je bila količina modelov in algoritmov, ki smo jih izvajali, minimalna, zdaj pa je največ. V organizaciji jih je na tisoče. Torej, del naše platforme temelji na strežniku in ko imate našo programsko opremo za podjetja, lahko tudi prilagodite in ocenite svoje modele in jih upravljate v okolju. In to je tudi del te orkestracije. Robin, morali smo imeti plast na mestu, ki vam ni le omogočil, da ste dobili model tam, ampak vam je tudi omogočil, da boste modele prepletali in jih nenehno zamenjali, ker je potrebno, ker to ni nekaj, kar lahko storite ročno. Ne morete hoditi po rafineriji s pogonom na palec in poskušate naložiti modele na prehod. Vmes moraš imeti sistem prevoza in upravljanja, zato kombinacija Statistice in Boomi to daje našim strankam.

Dr Robin Bloor: Ja. No, bom zelo kratek, toda, veste, ta izjava, ki je bila podana že prej o podatkovnem jezeru in ideji o kopičenju petabajtov na katerem koli mestu in o dejstvu, da ima težo. Veste, ko ste začeli govoriti o orkestraciji, me je začelo razmišljati o zelo preprostem dejstvu, da, če veste, dajanje podatkovnega jezera, ki je na enem mestu zelo veliko, verjetno pomeni, da ga morate dejansko varnostno kopirati in to verjetno pomeni, da vseeno morate veliko podatkov premakniti. Veste, resnična podatkovna arhitektura je po mojem mnenju vseeno veliko bolj v smeri, o kateri govorite. To, da bi ga razdelili na smiselna mesta, je verjetno stvar, ki bi ji rekel. In videti je, da imaš zelo dobro sposobnost za to. Mislim, dobro sem seznanjen z Boomi, tako da je tako ali drugače skoraj nepošteno, da ga vidim in morda občinstvo ne zmore. Toda Boomi je po mojem mnenju tako zelo pomemben glede na to, kaj počnete, ker ima možnosti uporabe. In tudi zato, ker je resnica v tem, da teh analitičnih izračunov ne izvajate, ne da bi iz nekega ali drugačnega razloga želeli nekaj ukrepati. In Boomi igra vlogo pri tem, kajne?

Shawn Rogers: Ja, absolutno. In tako kot veste iz prejšnjih pogovorov, ima Statistica v sebi celovito gonilo poslovnih pravil. In mislim, da je to res pomembno, ko se spustiva na to, zakaj to počnemo. Veste, spredaj sem se šalil, da v resnici ni razloga, da bi sploh delali IoT, razen če boste analizirali, uporabili podatke za boljše odločitve ali ukrepanje. In zato tisto, na kar smo se osredotočili, ni bilo samo zato, da bi model postavili tja, ampak da bi ga lahko označili skupaj z njim, nabor pravil. In ker je Boomi tako močan, da lahko premika stvari z enega kraja na drugega, lahko v atomu Boomi vgradimo tudi sposobnost za sprožanje, opozarjanje in ukrepanje.

In zato začnemo dobivati ​​takšen prefinjen pogled na podatke IoT, kjer rečemo: "V redu, te podatke je vredno poslušati." Toda res, veste, saj veste, da "lučka sveti, lučka sveti, lučka je prižgana, lučka sveti «ni tako zanimivo, ko se lučka ugasne ali ko detektor dima ugasne ali ko se kaj zgodi z našim proizvodnim postopkom, ostane brez merjenja. Ko se to zgodi, želimo takoj ukrepati. In podatki postanejo na tej točki skorajda drugotnega pomena. Ker ni tako pomembno, da smo vse te prihranili, "v redu je, v redu je, v redu", kar je pomembno, da opazimo "Hej, slabo je" in smo takoj ukrepali. Ne glede na to, ali nekomu pošiljamo e-poštno sporočilo ali bomo lahko vključili strokovno znanje o domeni ali pa bomo sprožili vrsto drugih postopkov za takojšnje ukrepanje, naj bo to korektiv ali kot odgovor na informacije. In mislim, da moraš zato imeti orkestriran pogled na to. Ne morete se osredotočiti samo na to, da bi svoje algoritme obravnavali povsod. Morate jih znati uskladiti in orkestrirati. Videti morate, kako uspešni so. In res, kar je najpomembneje, mislim, zakaj za vraga bi to storili, če ne morete dodati priložnosti za takojšnje ukrepanje proti podatkom?

Dr. Robin Bloor: V redu, Rebecca, verjamem, da imate vprašanja občinstva?

Rebecca Jozwiak: Jaz. Imam tono vprašanj občinstva. Shawn, vem, da se nisi želel dolgo zadržati ob vrhu ure. Kaj misliš?

Shawn Rogers: Vesel sem. Kar daj. Lahko odgovorim na nekaj.

Rebecca Jozwiak: Poglejmo. Vem, da je ena izmed stvari, ki ste jo omenili, ta, da je IoT v zgodnjih dneh in ima zrelost, ki bo potrebna, in to nekako govori o tem vprašanju, ki ga je vprašal en udeleženec. Če bo okvir IPv6 dovolj močan, da bo omogočil rast IoT v naslednjih petih ali desetih letih?

Shawn Rogers: Oh, pustil bom, da Dez odmeva moj odgovor, ker mislim, da je bližje tej vrsti informacij, kot sem. Vedno pa sem mislil, da smo na zelo hitri poti, da se upognemo in prekinimo večino okvirov, ki jih imamo. In čeprav menim, da je dodajanje te nove specifikacije ali smer, da gremo z okviri IPv6, pomemben in nam odpira vrata, da bomo imeli veliko več naprav in da bomo lahko dali vse, kar smo želite dati naslov. Mislim, da bo vse, kar berem in vidim s svojimi strankami, in število potrebnih naslovov, v določenem trenutku povzročilo nov premik v tej pokrajini. Nisem pa res strokovnjak za mrežne povezave, zato ne morem stoodstotno reči, da ga bomo v nekem trenutku zlomili. Toda moja izkušnja mi pravi, da bomo nekoč ta model zmotili.

Rebecca Jozwiak: Ne bi me presenetila. Mislim, da so okviri nekako lomljivi pod težo vseh vrst. In to je čisto logično, kajne? Ne morem poslati e-pošte s pisalnim strojem. Drugi udeleženec se sprašuje: "Lahko uporabite okvir Hadoop?", Toda mislim, da bi to lahko spremenil, da bi rekel, kako bi uporabil Hadoop okvir za porazdeljeno analitiko?

Shawn Rogers: No, Robin mi je naredil uslugo, ker mi je postavil zgodovinsko vprašanje, in tako smo od različice 13 pred letom dni za Statistico imeli možnost, da modele poženemo iz svojega sistema in v Hadoop. In zelo tesno sodelujemo z vsemi velikimi okusi Hadoopa. Imamo res odlične zgodbe o uspehu, okrog možnosti za delo s Cloudero kot eno glavnih distribucij Hadoop, s katerimi sodelujemo. A ker lahko v Javi ustvarjamo, nam to daje možnost, da smo odprti in damo svojo analitiko kamor koli. Umestitev v skupino Hadoop je nekaj, kar počnemo normalno in redno in vsakodnevno za številne naše stranke. Kratek odgovor je, da, absolutno.

Rebecca Jozwiak: Odlično. Pravkar bom vrgel še enega in te pustil nadaljevati s počitnicami. Drugi udeleženec se z IoT analitiko in strojnim učenjem sprašuje, ali menite, da je treba vse podatke shraniti za zgodovinske namene in kako bo to vplivalo na arhitekturo rešitev?

Shawn Rogers: No, mislim, da ni treba hraniti vseh podatkov. Mislim pa, da je zelo zanimivo imeti možnost zabave, poslušanja katerega koli vira podatkov, ki ga želimo v naši organizaciji, od koder koli prihaja. In mislim, da so nam spremembe, ki smo jih videli na trgu v zadnjih nekaj letih, omogočile ta pristop k vsem podatkom in se zdi, da se to resnično izplača. Toda za vsako podjetje in vsak primer uporabe bo to drugače. Veste, ko gledamo zdravstvene podatke, je zdaj veliko regulativnih vprašanj, veliko vprašanj skladnosti, ki nas skrbijo, zaradi česar lahko shranimo podatke, ki jih druga podjetja morda ne razumejo, zakaj jih je treba shraniti, kajne ? V proizvodnih procesih za številne naše proizvodne kupce obstaja resnična težava, da lahko zgodovinsko preučimo vaše procese in si lahko ogledamo velike količine teh podatkov, da se iz njih učimo in iz njih zgradimo boljše modele.

Mislim, da bo treba hraniti veliko podatkov in mislim, da imamo rešitve, ki so danes bolj varčne in razširljive. Hkrati pa mislim, da bo vsako podjetje našlo vrednost v podatkih, ki jim ni treba hraniti na atomski ravni, ampak bodo želeli v realnem času analizirati in sprejemati odločitve o tem, da bodo spodbudili inovacije v njihovo podjetje.

Rebecca Jozwiak: V redu. Ne, občinstvo, danes nisem dobil vsakogar na vprašanja, vendar jih bom posredoval Shawnu, da vas lahko neposredno kontaktira in odgovori na ta vprašanja. Hvala vsem pa, da ste se jih udeležili. Najlepša hvala Shawnu Rogersu iz podjetja Dell Statistica in vsem našim analitikom, Dezu Blanchfieldu in dr. Robinu Bloorju. Arhiv lahko najdete tukaj na insideanalysis.com, SlideShare, naše stvari smo spet začeli spet postavljati tja, mi pa prenavljamo naš YouTube, zato poiščite tudi tam. Hvala veliko ljudi. In s tem se bom poslovil in se vidimo naslednjič.

Analiza robov: končna ekonomija