Miten parhaiten palvella asiakkaita AWS-ratkaisuilla?

Jo AWS-konferenssin kolmantena päivänä esitykset olivat ehtineet herättää monenlaisia ideoita. Hankin luentojen avulla syvällisempää tietoa siitä, miten parhaiten palvella asiakkaita. Nähdäkseni palvelu voi tapahtua joko niin, että tarjoamme uusia tuotteita tai sitten tietopalveluna, jonka avulla saamme asiakkaan arkkitehtuurisuunnitelman heijastamaan ajan henkeä sekä toimimaan uusimpien tuotteiden ja ratkaisujen kanssa.

Sain yhdessä sessiossa hyvän näkemyksen siitä, miten AWS:n Firehosen, S3:n, Lambdan ja Elasticsearchin avulla pystyy toteuttamaan oman tietoturvallisen lokitiedostojen analysointisovelluksen. Tämä on vain yksi esimerkki uusista ideoista, mitä ammensin tapahtuman luennoilta.

Uusilla palveluilla data suoraan satelliiteista käyttöön

Viikko alkoi komeasti AWS-Robomakerin julkaisulla. Kyseinen alustapalvelu on tarkoitettu robottisovelluksien kehittämiseen ja testaamiseen. Siihen kuuluvat myös tarvittavat laajennukset, kuten ROS (Robot OS), joilla laitteet saadaan yhdistettyä AWS-pilveen ja erityisesti Robomaker-alustaan. Muun muassa Jet Propulsion Laboratory (JPL) käyttää tuotetta robottiensa ja mönkijöidensä simulointiin.

Konferenssin aikana saimme myös seurata, kuinka JPL:n mönkijä laskeutui Mars-planeetan pinnalle. Olisi kiinnostavaa tietää, oliko tuota mönkijää testattu Robomakerin avulla.

Toinen esitelty uusi palvelu oli AWS Ground Station. Palvelun avulla voidaan hakea dataa suoraan satelliiteista. Esimerkiksi luonnonkatastrofin sattuessa palvelua hyödyntävä sovellus voisi hakea tapahtumapaikasta reaaliaikaista tietoa satelliittien avulla ja välittää sen ensimmäisenä paikalle ehtiville.

Kiinnostava julkistus oli myös uusi Amazon Time Series -tietokanta (AWS Timestream). Se tarjoaa muun muassa IoT-laitteille tietokannan, jossa todellisella tapahtuman aikaleimalla on tärkeä merkitys. Myös Amazon Quantum Ledger Database oli tärkeä tietokantajulkistus. Se tarjoaa ratkaisun palveluihin, joissa tietojen muuttumisesta pitää löytyä tarkat historiatiedot, eikä vanhaa tietoa saa muuttaa, vaan muutoksista on synnyttävä aina uusi kortti tai tietue.

Koneoppimista 75 % pienemmillä kustannuksilla

Viime vuosien kuuma aihe koneoppiminen (Machine Learning) nousi AWS-konferenssissakin vahvasti esille. Koneoppimiseen tarvitaan palvelimia, joissa on yksi tai mieluummin useampia grafiikkasuorittimia (GPU). Konferenssissa julkistettu Amazon Elastic Inference -palvelu tehostaa grafiikkasuorittimien toimintaa siten, että voidaan valita kevyempiä palvelimia kuin aikaisemmin ja saavuttaa jopa 75 % säästöt aikaisempaan verrattuna.

Lisäksi AWS on luomassa omaa korkean suorituskyvyn inference-piiriään ML-mallinnuksen avuksi. Sen nimi on AWS Inferentia. Piiri tukee TensorFlowin, Apachen, MXNetin ja PyTorchin syväoppimisen kehystä. AWS:n ilmoituksen mukaan 85 % kaikista TensorFlowin kehystä käyttävistä ML-asiakkaista käyttää AWS-alustaa.

Tohtori Werner Vogelsin keynote-puheessa käytiin läpi eri tietokantaratkaisuja sekä selvennettiin, miksi relaatiotietokannat eivät ole pilvioptimoituja tietokantoja. Siitä ja muista julkistuksista kerron lisää blogisarjan viimeisessä osassa.

Lue lisää AWS-konferenssin tunnelmia tästä.

Hannu Kauremaa, konsultti
040 529 2746
hannu.kauremaa@tietokeskus.fi