MCRA päivittyi viimein!

Jei! Nyt se sitten tapahtui! Tarkalleen 24.4.2025.

Microsoftin ylläpitämä kyberturvan referenssiarkkitehtuuri siis päivittyi. Edellinen (versio 3) päivitettiin joulukuussa 2023. Eli onhan tässä jo reilu vuosi ja kohta puolikaskin vierähtänyt edellisestä päivityksestä.

Etenkin siksi, että Microsoft on puskenut uutta ja upeaa tietoturvakilkettä, -suositusta ja -työkalua suorastaan hengästyttävällä tahdilla.

Mikä sitten on muuttunut?

  1. “Pääkyvykkyyksien” kuvaaja on uusiutunut ja sisältää nykyään mm. Microsoft Security Exposure Managementin, Windows LAPSin (lokaali-adminien salasanan hallinnan), passkeyt ja Microsoft Entra Verified ID:n (Suomessa vähemmän käytetty) sekä tietenkin lisäämällä Microsoft Security Copilotin (mainio mutta julman kallis).
  2. Entran Permission Management on poistunut (EoL, kiitos Entran uuden paketoinnin).
  3. Microsoft Entra ID Governance Adaptive Access ilmestynyt mukaan
  4. Painotettu sitä, että tietoturva on osa kaikkea ja kaikessa mukana. Tästä kelmu ““Security must be integrated everywhere”.
  5. Päivitetty AI-osio (tästä kirjoitan pian erillisen blogahduksen, aihe on niin herkullinen)
  6. Uusi “Standardien kartoitus”-osio(“Standards Mapping). Keskittyy Zero Trust -viitekehykseen Open Groupilta (sekä Microsoftin tuotteiden mappaus tätä vasten). Mukana nyt myös roolilistat (Open Groupin määritysten mukaisesti) ihmisidentiteeteille.
  7. Open Groupin tulevan Security Matrixin antia paljonkin, mm. uhkaosion priorisointi.
  8. Secure Score näyttää sukeltavan ja altistumisen hallinta (“Exposure Management”) olevan nousussa.
  9. Uhkatietoon liittyvät faktat näyttävät päivittyneen ja yleisesti Microsoftin panostukset tuodaan esille – varsin vaikuttavin numeroin.
  10. Kiinnostavasti ja selkeästi (osin jopa viihdyttävästi) esitetty tietoturvan modernisointimatka (“security modernization journey”) ja Microsoftin painottamat toimintamallit.

Kevyttä asiaa ja hienot grafiikat. Vaivaiset 115 slideä perussetissä.

Jos et vielä ole koko kelmuzettiä ehtinyt ladata, nappaa se tästä.

Kumpi voittaa, robotti vai ihminen?

Jep, myönnetään. Otsikkoni oli nk. klikkijournalismia parhaimmillaan. En ole suunnitellut kirjailla scifi-tyylistä eeposta lihan ja metallin taistosta katkeraan loppuun.

Tarkoitukseni on tarkastella keinoälyn ja tietokoneaivojen kyvykkyyksiä tietoturvan saralla ja verrata niitä ihmisen tekemiin toimenpiteisiin vastaavissa käyttötapauksissa. Tarkemmin vielä rajaan arvioinnin Microsoft-tietoturvapinoon eli Microsoftin tarjoamaan tietoturvateknologiapakettiin.

Mikä on relevanttia? Mitä kannattaa suojata ja mitä valvoa?

Suuremmassa tietojärjestelmäympäristössä on satoja liikkuvia osia. Turvattavaa riittää. Pelkkä haavoittuvuuksien hallinta kattaa helposti vähintään kolminumeroisen määrän operoitavia kohteita. Ja entäpä sitten tietoturvan klassinen heikoin lenkki? Ei, en nyt kirjoita Active Directorystä, vaikka yksittäisenä teknologisena komponenttina se hyvinkin saattaisi sopia kuvaukseen. Tarkoitin ihmisiä, käyttäjiä. Näitä palkkaa nauttivia, liikkuvia ja touhukkaita, ajattelemattomia pieniä penetraatiotestaajia.

Turvassa olevat tiedot edellyttävät varautumista. Meidän täytyy huolehtia siitä, että järjestelmät ovat enemmän tai vähemmän ajan tasalla ja konfiguraatiot tehty oikein. Tämä on sitä kyberhygieniaa eli ennakoivaa kyberpuolustusta. Toisaalta meidän tulee havainnoida järjestelmiä ja niiden toimintaa. Noteerata oudot toiminnot ja poikkeavuudet. Tämä taasen voidaan lukea reaktiiviseen tietoturvaan.

Perinteisesti valvontapalveluiden myyjät ovat korostaneet reaktiivisen tietoturvan merkitystä. Ja tottahan toki siten, että ympäristöä valvotaan myös aamuyön [kalliina] tunteina. Usein kuulee toisteltavan hokemaa ”kyberrosvot eivät ole sidottuja virka-aikaan” ja tämä toimii perusteluna sille, miksi valvomon pitäisi kytätä myös virka-ajan ulkopuolella. Väite pitää mitä todennäköisimmin paikkansa. Minun on vaikea uskoa pahisten ammattiliiton kovinkaan aktiivisesti ajavan työaikalain suojaa lainsuojattomille. Mutta onko sillä mitään merkitystä? Ja entäpä, onko koko väite relevantti enää vuoden 2025 tietoturva-ajattelussa?

Vastaus on kyllä ja ei. Kyllä siinä mielessä, että esimerkiksi verkkokauppajärjestelmän paha haavoittuvuus saattaa altistaa hyväksikäytölle ja sitä kautta tietomurrolle vaikkapa aamuyön tunteina. Ja vastaus ei on myös perusteltu, sillä tutkimusten mukaan valtaosa uhista (lähteestä ja otoksesta riippuen 2/3:sta jopa 80-90%:n) aktualisoituu sen tietoturvan heikoimman lenkin kautta. Eli käyttäjän siis. Ja harva työntekijä paiskii 24/7 orjasopimuksella. Käsitykseni mukaan moinen taitaa olla sivistysmaissa jopa lailla kielletty.

Näinpä siis valvomon kannattaisi suunnata kyttäysresursseistaan 70-90% nimenomaan siihen aikaan, kun tietoturvan heikoin lenkki (käyttäjä) on aktiivinen ja touhuaa töitään.

Ihminen vs. robotti valvojana?

Kestipä kauan päästä varsinaiseen aiheeseen. Alankohan tulla vanhaksi ja jaarittelijaksi? Noh, ehkäpä taustoituksella oli kuitenkin oma merkityksensä. Etenkin kun tarkastellaan tätä valvonta-aspektia ja asetetaan ihmisaivot keinotekoista älykkyyttä vastaan.

Valvonnassa on kaksi pääaspektia. Reagointinopeus ja huomiointikyvykkyys. Ensimmäinen ilmaisee sen, kuinka hyvin ja nopeasti reagoidaan riskiin tai poikkeamaan. Toinen taas osoittaa sen, miten paljon poikkeamista kyetään tunnistamaan. Kummastakaan yksinään ei ole hyötyä. Jos tunnistamme joka ikisen poikkeaman ja outouden, mutta ehdimme syventyä niihin vasta kuukauden päästä, hyökkäys on todennäköisesti jo saavuttanut tavoitteensa ja reaktio siis myöhässä ja sitä kautta hyödytön. Rosvo tuli, näki ja voitti. Toisaalta, vaikka reagointikykymme olisi sekunnin luokkaa, mutta huomiointikyvykkyytemme kattaa vain puolet järjestelmistä, rosvo on voinut tulla, nähdä ja voittaa ilman että olemme asiasta edes tietoisia.

Lienee kiistaton tosiasia, että mikroprosessorin reagointikyky ärsykkeeseen on merkittävästi ihmistä nopeampi. Tietokone reagoi millisekunneissa käskyyn, ihminen parhaimmillaan sekunneissa – tuhansia kertoja hitaammin. Reagointinopeudessa robotti siis voittaa suvereenisti.

Entäpä sitten huomiointikyvykkyys? Koneaivo lukee tuhat riviä lokitietoa silmänräpäyksessä. Jälleen ihmistä valtavasti, suorastaan käsittämättömästi nopeammin. Keinoälykkyys ei väsy eikä suorita flunssaisena huonommin. Tasalaatuisuus on huomiointikyvykkyyden tärkeimpiä mittareita. Ja jälleen siis robotti vetää pidemmän korren.

Toimittiinpa miten vain, ihminen tarvitsee automaatiota eli koneaivoja tuekseen. Sekä havainnointikyvykkyyteen, kun ihminen on vain liian tehoton ja hidas käymään kaikkea aiheeseen liittyvää dataa läpi, että reagointiin, kun ihmisen prosessointinopeus ei riitä. Kyse ei oikeasti olekaan ihminen vs. robotti -asetelmasta. Todellisuudessa kyse on lopulta siitä, kuinka paljon ihmistä tarvitaan puikkoihin. Ja miksi? Työllistävä vaikutus? Ihmisen eettinen kontribuutio? Syitä voi löytyä toki. Joissain tapauksissa on perusteltua edellyttää ihminen tekemään hyväksynnän tai päätöksen robotin prosessoiman tiedon ja ehdottaman tuloksen pohjalta. Useimmat vasta-argumentit, joihin olen itse törmännyt, pohjaavat kuitenkin tunnepohjaiseen reaktioon. ”Mutku ei niin oo koskaan ollut” ja ”eihän se nyt vain käy”.

Tästähän päästäänkin siihen ihmisen vahvuuteen. Missä itse näen ihmisaivot voitokkaina? Parhaimmillaan terävä ja osaava tietoturvavelho omaa innovatiivisuutta, jota koneäly ei ainakaan toistaiseksi pysty matkimaan. Usein arjessa puhutaan vaistosta tai fiiliksestä, ettei kaikki ole oikein. Todellisuudessahan kyse on intuitiivisesta päättelystä. Edes minun kaltainen teknologiauskovainen nörtti ei kuvittele koneälyn ainakaan lähitulevaisuudessa pääsevän lähellekään ihmistä tällä sektorilla.

Miten se sitten käytännössä näkyisi secu-tekemisessä? Koneäly tekee enemmän nk. false positive -arvioita. Eli päättelee uhaksi sen, kun kirjanpidon särmä Pertti alkaakin perjantai-iltana tehdä yllättäen kirjoitusvirheitä esimerkiksi salasanaa syöttäessä. Ihmisanalyytikko saattaa arvailla väsymyksellä tai nautintoaineilla olevan osansa näppäilyvirheissä.

Toisaalta korkeamman tason tehtävät, kuten vaikkapa arkkitehtuuri ja strateginen arviointi liiketoiminnan vaatimuksia vasten, ovat toistaiseksi vielä tekoälyn ulottumattomissa olevia aspekteja. Keinotekoinen älykkyys toimii mitä parhaimmin silloin, kun käsiteltävät asiat mahtuvat ennalta määriteltyihin malleihin ja toisaalta muuttujien määrä on rajallinen.

Tämähän on todistettu esimerkiksi pelaamalla. Shakissa et voita koneälyä ikinä. Paras ihmispelaaja, joka ei tee yhden yhtään virhettä, voi päästä tasoihin. Kas kun shakin siirtojen määrä tuottama vaihtoehtojen määrä on rajattu. Koneäly laskee joka ikisen siirtovaihtoehdon läpi. Lopputulos on siis ennalta selvä. Mutta kun siirrytään vaikeampaan matemaattiseen peliin, kuten vaikka Go, tilanne muuttuu. Kun muuttujien määrä ei olekaan enää rajallinen, ihmispelaaja pärjääkin jälleen (ainakin rajallista koneälyn laskentakapasiteettia vastaan). Ja kollegani Massimo väittää myös keinoälyn voittavan ihmisen myös No Limit Hold’em pokerissa. Nih.

Lopputulos

Koneäly sopii paremmin nopeaa reagointia vaativiin valvomotehtäviin. Se on väsymätön eikä tee inhimillisiä virheitä. Mitä suuremmaksi kompleksisuus menee tai mikäli tehtävä vaatii ”psykologista tai poliittista silmää”, ihmistoimija on lyömätön.

Ehkäpä perinteiset ensimmäisen linjaston valvontatehtävät voisi sälyttää robottien tehtäväksi ja tärkeimmät päätökset eskaloitaisiin ihmisvalvojalle.

Kokonaisuushan riippuu lopulta toimialasta ja käyttötapauksesta. Joissain toiminnoissa on perusteltua käyttää ihmisiä valvontatehtävissä. Ja toisaalta tiettyjä tehtäviä, joissa vaaditaan jatkuvaa skarppiutta ja täysin tasalaatuista suorittamista, ei taas kannata antaa ihmiselle.

Yhä vähemmän näen kuitenkaan tarvetta toistuvien rutiinien tai perustason valvontatoimien allokointiin ihmisvalvojille. Ainakaan niinä aikoina, kun käyttäjämme eivät aktiivisesti ole luomassa inhimillisillä virheillään näitä uhkavektoreita. Koneäly on aivan hyvä valvoja sille verkkokauppapalvelimelle aamuyön tunteina!

Keskusteluja tietoturvan valvonnasta

Igniten upeiden julkistusten nostattamassa euforiassa äidyin keskustelemaan ystäväni ja ex-pomoni (tai oikeastaan pomoni pomon) Pasi Yliluoman kanssa tietoturvan valvonnasta ja kaikesta sen ympärillä.

Modernisti olimme kumpikin tahollamme. Minä työhuoneeni nojatuolin syöverissä viinilasillinen kädessä ja Pasi jotain lenkkiä tai hyötyliikuntaa vetämässä, urheilullinen nuori mies kun on. Kylläpä reilu vuosikymmen on muuttanut kommunikaatiokulttuuria. Meiltä siis, vanhakantaisemmathan pakkomodernisoituivat vasta covidin takia.

Niin tai näin, juttu lensi. Pyysin copilottia tekemään yhteenvedon, sillä dialogi oli sikäli kiinnostava, että kuvittelen jonkun virtuaalikamunikin mahdollisesti kiinnostuvan aiheesta. Oli pakko siivota ja lyhentää rankasti. Litteroidussa muodossa tajuaa kuinka rönsyilevää vanhojen secupartojen dialogi saattaakaan olla. Odottakaas vain vanhainkotivaihettamme! Tuskin pääsemme päivässä edes aiheeseen. 😉

Ota ja lukaise tiivistelmä väittelystämme. Mieluusti kuulisin palautetta. Oletko samaa mieltä, kiistät tai korjaat? Anna palaa kommentteja. Somessa ei tarvitse olla häveliäs!

Microsoftin sertifiointien uusiminen, hassuuksia ja huomioita

Uusin äskettäin viisi Microsoft-sertifikaattiani enkä voinut olla huomaamatta muutamaa outoutta. Kuitenkin, aivan ensiksi minun on annettava kiitosta Microsoftille. Sertifikaattien uusiminen on erittäin yksinkertainen ja nopea toimenpide. Ei tarvitse tehdä varausta PearsonVuelta. Eikä tulla kytätyksi webbikameran kautta. Ja kysymysten määräkin on rajoitettu (vain 24), joten voit uusia useita serttejä tunnissa. Juuri noin sen pitääkin olla!

Alalla serttien uusimiseen on tarjolla kahdenlaista lähestymistapaa. Ensimmäinen malli sisältää serttien uusinnat verrattain harvoin, kuten vaikkapa kerran kolmessa vuodessa. Esimerkissä ISC2, VMware ja AWS seuraavat tätä polkua. Toinen tapa on tehdä uudelleensertifiointi kerran vuodessa. Näin tiiviissä syklissä uusimisprosessin on oltava suoraviivaisempi, eikä se voi viedä paljon aikaa. Harvemmin uusittavissa toimii myös metodi, jossa uusinta on likimain (tai täysin) yhtä raskas kuin alkuperäinen sertifiointikin.

Henkilökohtaisesti pidän lähestymistavasta, jossa serttejä uusitaan tiheästi. Se pitää sertin relevanttina. Ajattele tästä näkökulmasta: jos et ole koskenut mihinkään serttiäsi koskevaan teknologiaan vaikkapa viimeisten 3 vuoden aikana, voitko todella sanoa rehellisesti, että sertifiointi heijastelee osaamista?

No, mutta, keskitytäänpä nyt Microsoftin valitsemaan tiehen. Sinun on uusittava serttisi vuoden välein. Toki takaa, että osaamisesi on tuoretta, mutta lieneekö kauhean työllistävää.

Kuten alussa kirjoitin, Microsoft on tehnyt uusintaprosessista erittäin yksinkertaisen ja nopean. Ensinnäkään se oli ole nk. ”online proctored” (kun ottaa huomioon PearsonVuen surkean laadun nykyään, tämä on iso helpotus). Voit siis uusia serttejäsi juuri silloin kun sinulla on aikaa, riippumatta paikasta tai fasiliteeteista. Ei tarvitse sulkeutua johonkin rauhalliseen paikkaan proctorin kyylättäväksi. Toiseksi se on paljon yksinkertaisempi ja vähemmän kysymyksiä (vain 24 ja kaikki monivalintakysymyksiä) verrattuna varsinaiseen sertifiointitestiin. Tämä on todella hyvä! Kun plakkarissa on joku 20 sertifikaattia, voit uskoa, että niiden uusimiseen joka vuosi alkaa todella kulua aikaa – ellei se ole suoraviivaista ja nopeaa. Kolmas oleellinen juttu on, että voit käyttää Googlea tai mitä tahansa haluamaasi työkalua kysymyksiin vastatessasi. Houkuttaisi työntää kaikki kyssärit jollekin generatiiviselle tekoälyavustajalle ja pyytää sitä vastaamaan puolestani. 😉 (HUOM! tämä on siis erikseen kielletty serttien uusintasäännöissä, blogauksen lopussa linkki näihin viittaamiini sääntöihin)

Siinä ne hyvät asiat. Mutta nyt muutama sana outouksista, joita olen pähkäillyt serttien uusintoja tehdessäni. Vaikuttaa siltä, että uusintakokeen kyssärit ovat täysin eri poolista kuin alkuperäisten serttitestin. Välillä minulla on ollut jopa vaikeaa ymmärtää, kuinka jotkut kysymykset liittyvät uusittavaan sertifiointialueeseen.

Ehkä otan esimerkin tosielämästä. Uusin tovi sitten Cybersecurity Architect Expert -sertifiointini. Olen tainnut jopa ylistää tuota sertifikaattia, koska se oli minusta Microsoftin ensimmäinen todellakin jonkinlainen arkkitehtitason sertifiointi. Siinä ei kysytä tiettyjä konfigurointimaksimeja tai kuinka käyttää KQL-kyselyä tai kuinka ottaa käyttöön jokin tietoturvaominaisuus tuotteessa X. Cybersecurity Architect Expert keskittyy minusta kiitettävästi mittaamaan yleistä ymmärrystä kyberturvallisuus kentästä ja arkkitehtuuritason kyberturvallisuuskonsepteista.

Oh, mutta nythän minä harhauduin aiheesta. Siis elävän elämän esimerkki:

Eteeni tuli skenaariokuvaus, jossa kysytään, pitäisikö Admin1 luoda Bastion ja Container, vain Bastion, vain kontti vai VM, Bastion ja Container. Mitä ihmettä Microsoft? Onko tämä kysymys kyberturvallisuusarkkitehdin taitojen mittaamiseksi? Minulle se oli helppo kysymys, koska omaan pitkän järjestelmänvalvojataustan ja paljon hands-on Azure-hallintakokemusta. Mutta turvallisuusarkkitehdille, joka ei vietä vapaa-aikaansa Azure-hallinnon parissa? Ok, olen varma, että jokainen fiksu tyyppi ratkaisee kysymykset Googlen ja dokumentaation avulla. Silti en todellakaan näe tuolla kysymyksellä mitään relevanssia arkkitehtitason kyberturva-sertifioinnin uusimiseen. Täysin aihepiirin ulkopuolinen kysymys, vaikka se liittyikin tietoturvakonfiguraatioihin Azuressa.

Kiteytyksenä ehkä sen verran, että varsinaiset sertifiointitestin kysymykset ovat paljon laadukkaampia ja liittyvät enemmän sertifiointikokeen aihealueeseen verrattuna serttien uusimisen yhteydessä naamalle pöllähtäviin kysymyksiin.

Huomiona vielä, että Microsoftin säännöt kieltävät kysymysten jakamisen ja esimerkiksi AI:n käytön vastaamisen apuna. Täältä löytyy tarkempi ohjeistus serttien uusimisesta ja niihin liittyvistä säännöistä: https://learn.microsoft.com/en-us/credentials/certifications/microsoft-certification-renewal-agreement

Turvaposti?

Kylläpä jälleen verenpaine nousi. Törmäsin väitteeseen, ettei tiettyjä luottamuksellisia tietoja saisi lähettää salattuna sähköpostina vaan pitäisi käyttää XXX yrityksen “turvapostia”.

No jopa oli! Tämä otaniemeläinen nyrkkiputka siis aivan pokkana myyntitoiminnassaan väittää tarjoavansa turvallisemman sähköpostiviestien käsittelyn kuin vaikkapa Microsoft tai Google. Ja vielä uskomattomampaa potaskaa tulee: “sähköpostin salaus on kotimaista”. Todistuksena on tälle on muka “Avainlippu-tunnus”. Vanhemmat lukijani muistavat ehkä, kuinka joskus polemiikkia herätti banaaneille myönnetty Avainlippu. Mutta onko SALAUS suomalaista? Pahoin epäilen.

Markkinointi on muutenkin vähintään harhaanjohtavaa ellei jopa valheellista. Toisin kuin nämä “turvapostit” ja “luottopostit” ja sen sellaiset väittävät, itse sähköpostiliikenne ei kulje mitenkään salattuna. SMTP-protokolla on mitä on. Herran vuonna 1980 vaatimukset olivat hieman erilaiset.

Teknisesti kaikki nämä “turvalliset sähköpostit” toimivat samalla tavalla. Itse viestiä ei lähetetä sähköpostin (joka siis kulkee salaamattomana SMTP-liikenteenä palvelimesta toiselle) mukana. Vastaanottaja saa viestissä linkin, joka johtaa sähköpostipalvelun generoimalle webbisivulle (ja TÄSSÄ on käytössä nyt SSL-salaus, eli kyse on https-liikenteestä). Tänne sitten tunnistaudutaan (tässä vaihtoehtoina on tekstiviestitse tai sähköpostitse toimitettu avain – joista kumpikaan siirtotie ei täytä järeitä tietoturvakriteereitä).

Kumman uskot hoitavan verkkopalveluidensa tietoturvan paremmin? Espoolaisen nyrkkikioskin vaiko Microsoftin tai Googlen? Tai sveitsiläisen korkean turvallisuuden sähköpostipalveluiden tarjontaan erikoistuneen ProtonMailin. Microsoft pystyy lisäksi tarjoamaan tunnistautumiseen aidosti luotettavan (Entra ID:n tarjoama MFA) metodin. Lisäksi, mietihän hetki sähköpostiliikennettä. Mikäli suomalainen yritys lähettää sähköpostia toiselle suomalaiselle yritykselle, mistähän kummankin sähköpostit löytyvät? Aivan. Microsoftin M365 -palvelusta. Eli sähköposti ei missään vaiheessa edes lähde hoipertelemaan SMTP-liikenteenä palvelimelta toiselle.

Käärmeöljykauppiaat väittävät sivuillaan myös tietoturvansa hallintajärjestelmästä monta kovaa ja kaunista. Pyydettäessä ISO27001 sertifikaattia ei kuitenkaan kuulu. Niinpä niin.

Huom! Avautumiseni ei koske ent. Deltagon Group Oy:n Sec@GW -tuotetta (nyk. SSH Oyj), jota pidän laadukkaana.

Microsoft Sentinel, säästövinkit

Alunperin julkaistu Not Bad Securityn sivuilla nimellä “Sentinel laihialaisittain”. Uudelleenjulkaisen täällä, jotta kaikki voisivat säästää – ja ymmärtäisivät Sentinel ylittämättömän kustannustehokkuuden (kunhan SINÄ et pilaa sitä!).

Sentinel on erinomainen työkalu. Markkinoille puskiessaan silloin vielä Azure Sentinel nimellä kutsuttu SIEM-SOAR -työkalu oli melkoinen paukku, markkinahäiriö. Pilvestä itse käyttöönotettava tehokas työkalu ilman kiinteitä sopimusaikoja. Ja kuinka helppo ja näppärä käyttöönottaa! Meikäläisen tapaan traditionaalisia SIEM-järjestelmiä asentanut taatusti äimistyi. Päivässä Sentinel kukkui ja pureskeli iloisesti dataa. 

Ei ihme, että Microsoft teki Sentinelillä hattutemput ja kipusi esimerkiksi Gartnerin maagisessa kvadrantissa kahdessa vuodessa mitättömyydestä johtajaksi. Tästä lisää MS:n sivuilta.

Entä kustannukset?

Joka kolikolla on kuitenkin kääntöpuolensa ja pilvellä hopeareunuksensa.

Sentinelin tapauksessa helppoutta ja tehokkuutta seuraa se klassisin pilvikrapulan aiheuttaja. Kustannukset siis. Kun rakentaminen on nopeaa, talo nousee hetkessä. Monesti vain unohtuu, ettei talon rakentaminen ikinä ole ilmaista. Eikä tietenkään hienon ja tehokkaan analyysimoottorin rakentaminen pilveenkään ilmaista ole. Toki huomattavasti kustannustehokkaampaa kuin perinteinen tapa niitä rakennella, mutta kyllä kustannuksia yhtä kaikki saa syntymään. Ja jälleen niin tehokkaasti, ikävä kyllä. 

Tässä kynäelmässä olisi tarkoitus jakaa kokemuksia ja oppeja Sentinelin synnyttämien kustannusten hallintaan ja minimointiin. 

Aloitetaan siitä helpoimmasta ja ilmiselvästä, eli hienosti ilmaistuna ostomallista. Sillä tarkoitetaan siis sitä, että Sentinelin kuten useimpien muidenkin Azure-palveluiden ostaminen voi pohjautua moneen eri tapaan. Sentineliin purevat lähinnä sitoutumistasot. Jos Sentinel on tietoturvanne keskiössä ja tärkeä työkalunne, lienee turvallista olettaa sen säilyvän käytössä tovin, jos toisenkin. Valitsemalla nk. sitoumustason (engl. Commitment Tier) päästään alennuksiin, jotka voivat olla melkein 50% maksimissaan.

Toinen erittäin toimiva tapa on arvioida säilytysajan pituutta kriittisesti. Sentinel tarjoaa 90 päivää tietoturvalokien säilytystä ilmaiseksi. Sen jälkeen Sentinelin pohjana oleva Log Analytics tallennustila alkaa tikittää kustannuksia. Perusteltu kysymys on, tarvitaanko Sentinelissä säilyttää dataa yli tuon kolmen kuukauden.

Kas kun vaihtoehtoja on! Log Analytics ei ole säilytystilana niitä halvimpia. Microsoft itse tarjoaa valmista pelikirjaa lokitiedon siirtämiseen edulliseen Blob storageen. Usea asiakas on myös hyödyntänyt muutakin tärkeää tietoa varten järjestettyä arkistointiratkaisua tietoturvalokeille. Forensiikan mahdolliset tulevat tarpeet huomioiva haluaa toki säilyttää tiedot tallessa. Samoin regulaatiot tai sisäisen auditin vaatimukset saattavat pakottaa tarjoamaan hyvin pitkiäkin säilytysaikoja. Vuosien tietoturvadatan hilloaminen Log Analyticsin puolella ei juuri koskaan ole perusteltua.

Kolmas tärkeä peliliike on datanielun huolellinen suunnittelu. Tavallisesti tämä on käytännössä lokivirran kriittistä arviointia. Antaako se mitään lisäarvoa? Esimerkiksi tarkastelu viimeisen 3-6 kk aikajänteen osalta on usein silmiä avaavaa. Jos et kyseisestä datalähteestä ole saanut yhden yhtään hälytystä, on perusteltua kyseenalaistaa sen tärkeys. Ei silti mitään tarvitse menettää! Helppo ja halpa ratkaisu on siirtää verkkolaitteiden tuottaman lokidatan virtaus Log Analyticsin sijaan vaikkapa Basic Logsin puolelle. Näin saavutetaan aivan järkyttäviä kustannussäästöjä. Tuo Basic Logs kun kustantaa vain 1,5% (kyllä, alle kaksi prosenttia!) Log Analyticsin analyysihinnoista. Toki kyselyt ovat rajatumpia ja hälytystukea ei samassa määrin ole.

Vaativampi toteutus on esiprosessoida dataa ennen Sentineliin vientiä. Etenkin 80- tai 90-luvuilta peräisin olevien tietoturvalokitusmuotojen suhteen olen havainnut, että varsinaisen arvokkaan tietoturvatiedon mukana tulee hurja määrä kaikkea silsaa ja täysin irrelevanttia dataa. Tähän törmätään tyypillisesti verkkolaitteiden CEF- ja Syslog-muotoisten datavirtojen kanssa toimiessa. Vastuullinen SIEM-hallinta valitsee suurivolyymisille datalähteille – jotka pääsääntöisesti ovat vielä tuottamaltaan arvolta niitä vähäisimpiä – kustannustehokkaimman tavan käsitellä ja säilöä niitä. Helppoudesta pitävälle Basic Logs ja datan käpistelyn mestari ehkä valitsee esiprosessoinnin tien. Kaikkein helpoin kustannustarkastus on kuitenkin sen palomuurin tai yhteyslaitteen lokitusasetusten läpikäynti. Haluatko todellakin jokaisen session avaamisen menevän Sentinelin kummasteltavaksi. Mitä edes teoriassa sieltä voisi löytyä?

Neljäs tärkeä muistettava asia on Microsoft-näkyvyyden osalta holistinen kustannusarviointi huomioiden eri lisensoinnit ja palvelukokonaisuudet. Esimerkiksi E5-paketointi sisältää myös ”Sentinel-analytiikkaa” jokaisen käyttäjän osalta. Eli Sentinelin kyvykkyyksiä paljon käyttävän organisaation osalta ei ero E3- ja E5-lisenssien kustannuksissa olekaan niin yksinkertaisesti laskettavissa. Ja mikäli liität vaikkapa 100 palvelinta Sentinel-näkyvyyteen, vaihtoehtoja on monia. Vanhojen SIEM-järjestelmien tyyli, jossa virtautetaan eventtitiedot ja tietoturvalokit joka palvelimelta tulee useita kymmeniä kertoja kalliimmaksi kuin modernimpi lähestyminen, jossa ”hubitetaan” palvelimet esimerkiksi Azure Arcin ja Defenderin kautta.

Ja lopuksi

Raskaan käyttölinjan Sentinel-toteutuksille on sitten omat erikoisuutensa, kuten esimerkiksi dedikoitujen Log Analytics klustereiden käyttö. Samoin suuremman organisaation kannattaa jaotella Sentinelinsä maanosittain ja rakentaa näiden välille näkyvyys. En keskity järeimmän luokan kustannusten optimointiin tässä kirjoituksessa. Mikäli Sentinel-kulusi ylittävät vaikkapa satatuhatta vuodessa, ota ihmeessä yhteyttä. Otetaan erillinen sessio kustannustesi leikkaamisesta. Voimme hoitaa homman vaikka nk. success fee -pohjaisesti!

Lopuksi muistutan vielä ”ilmaisannoksista”. Sentinelin saa käyttöön 31 päivän ajaksi ilmaiseksi. Tuon ajan sisällä on hyvä kytkeä kaikki himoitsemasi näkyvyysalueet eli lokilähteet ja arvioida kustannuksia turvallisesti, euroakaan polttamatta.

 PS. Älä IKINÄ anna ”ysäritietoturvaajan” suunnitella Sentineliäsi. Jos siis secujätkäsi horisee vaikka EPSeistä tai verkon turvallisuudesta, ennuste on TODELLA huono. 😉

Tiedon luokittelun ja vaatimuksenmukaisuuden hallinnan tulevaisuus on täällä

Usein on todettu, että itse datan suojaus ja sen integriteetin valvonta on tietoturvan puuttuva rengas. Organisaatioiden hallitsema tietomassa paisuu kuin pullataikina. Tietokantojen ja tiedostojen luokittelu ja governance, niiden vaatimuksenmukaisuudesta puhumattakaan, on perinteisesti toteutettuna aivan valtava urakka.

Isossa maailmassa datan suojaus on ollut pinnalla jo vuosia, mutta täällä pohjolassa siitä on puhuttu jopa hävyttömän vähän. Ilman AI:n tuomaa automaatiota valtavien datamassojen käsittely hirvittää vahvempaakin tahoa eikä ole ihme, että monet välttelevät toimeen tarttumista. Miten onnistuu kaiken tietomassan luokittelu ja vaikkapa GDPR:n alaisten tiedostojen ja tietueiden luokittelu luottamukselliseksi?

Kattavia työkaluja kehitetään kuorman helpottamiseksi koko ajan, ja vaikka työkalut yksinään eivät pysty haastetta ratkaisemaan, on niistä tekijälle valtaisa apu. Tällä kertaa esittelen yhden työkalun tai oikeastaan kokonaisen työkalupakin Microsoftilta, kun se sattuu juuri nyt olemaan erityisen ajankohtainen. Seuraavalla kerralla kurkataan seuraavaan markkinoilta löytyvään teknologiaan ja puhutaan vähän enemmän myös toimintatavoista ja siitä, miksi jokaisen pitäisi viimeistään nyt tarttua toimeen.

Microsoft Purview

Microsoft Purview julkistettiin 19.4. Kyseessä on pilvipohjainen datanhallintaratkaisu, joka yhdistää aiemman Azure Purviewin ja Microsoft 365 -palvelun tiedon suojaus- ja luokittelutyökalujen kanssa. Lopputulos on ainutlaatuinen kokonaisuus koko organisaation kaiken tietomassan luokitteluun hallintaan, suojaukseen ja vaatimuksenmukaisuuden varmistamiseen.

Viime syyskuussa Microsoft toi virallisesti saataville pitkään esikatselussa olleen datan luokittelun ja vaatimuksenmukaisuuden hallintatyökalun, Azure Purviewin. Tämä oli osittain päällekkäinen M365-palvelun kalleimpaan pakettiin (E5 / A5) tarjotun Compliance-portfolion kanssa, mutta myös täydensi sitä mainiosti tuoden luokittelu- ja hallintatyökalut myös M365-palvelun ulkopuolisiin tietomassoihin. Nyt päällekkäisyydet on poistettu ja lisensointia sekä ostomallia selkiytetty. Samalla M365-palvelusta siirretty Compliance ja entinen Azure Purview on yhdistetty ja brändätty uudelleen Microsoft Purviewiksi.

Mitä ja kenelle?

Kokoelma Microsoftin työkaluja tiedon eli datasisällön hallintaan, luokitteluun, suojaukseen ja vaatimuksenmukaisuuden valvontaan. Purview puree oman konesalin (tai siivouskomeron) palvelimiin, eri pilvipalveluihin sekä tietovarastoihin. Datakuraattorin tai tiedon luokittelusta vastaavan on helppo luoda säätöjä ja toteuttaa isoihinkin datamassoihin automaattisesti jalkautuvia politiikkoja. Purview yhdistää Microsoftin datahallinnan, AI:n sekä Microsoftin tietoturvaratkaisujen riskien- ja vaatimuksenmukaisuuden hallinnan.

Kuva 1. Microsoft Purviewin toiminnallisuuden kaksi ulottuvuutta korkealla tasolla

Microsoftin mukaan Purview auttaa etenkin tiimejä, jotka työskentelevät CDO: (Chief Data Officer), CISO:n (Chief Information and Security Officer), CRO:n (Chief Risk Officer) tai CCO:n (Chief Compliance Officer) alaisuudessa. Arvolupauksessa mainitaan kokonaisvaltainen näkyvyys läpi kaiken organisaation pirstoutuneen ja hajautuneen datamassan. Toki regulaatiot, kuten GDPR, näkyvät isona ajurina argumentaatiossa.

Mitä kaikkea Purview korvaa?

Microsoft Purview -tuoteperheeseen on ympätty M365-palveluiden datan ja tietosisällön suojaus-, hallinta- ja luokittelutyökalut sekä mm. kahden suojausavaimen käyttö (Double Key Encryption), sisäpiiririskityökalut ja datan katoamisen suojaustyökalusto.

Taulukko 1. Jälleen kerran siis tuotepaketointi ja -nimeäminen on Microsoftille tuttuun tapaan räväytetty täysin uusiksi

Microsoft Purview tukee jo nyt varsin runsasta määrää eri tietolähteitä. Mukana ovat niin on-prem-palvelimet (virtuaaliset ja fyysiset) kuin pilvipalvelut ja -tallennustilat. Tietenkin tietokantapalvelimet ja muut strukturoidut datasisällöt ovat nekin sekä omassa konesalissa että eri pilvissä. SaaS-palveluidenkin tuki on jo varsin mittava.

Kuva 2. Tietomassojen hallinnointimahdollisuuksia

Entäpä yhteensopivuus?

Tavallaan Purview yhdistää Microsoftin kaksi tarjoama-aluetta: tietoturvapinon ja dataplatformin. Microsoftin pyrkii integroimaan Purviewin kiinteäksi osaksi sekä M365-palveluiden sisältämän tiedon turvaamista että koko tietoturvapinoaan. Esimerkiksi Defender for Cloud Apps (Microsoftin CASB-työkalu) integroituu jo Purviewin kanssa tarjoten kiehtovia mahdollisuuksia näkyvyyteen siitä, missä organisaatiosta lähtöisin olevaa dataa kaikkialta pilvistä löytyy. Ja toisaalta se rajoittaa datan vientiä muihin kuin organisaation hyväksymiin pilvipalveluihin.

Purview tukee alusta alkaen Windowsin lisäksi myös esimerkiksi Mac-käyttäjiä (macOS) ja mobiilipuolella sekä iOS- että Android-ympäristöjä.

Lähteet:

Purviewin viralliset tuotesivut
Uutinen Microsoft Purviewin julkistuksesta

Tämä on “uudelleenlämmitetty” juttu jälleen. Alkuperäisen kynäilin jo keväällä 2022, Purviewin julkistuksen jälkeen, Loihde Trustille. Löydät originaalin täältä:
https://web.archive.org/web/20220428123309/https://www.loihdetrust.com/blogi/tiedon-luokittelun-ja-vaatimuksenmukaisuuden-hallinnan-tulevaisuus-on-taalla/

Ovatko regulaatiot pilvelle liian raskas taakka?

Pilvipalveluiden käyttö on yleistynyt kiivaassa tahdissa eikä vauhdin hidastumisesta näy merkkejä. Pilveen on nyt menossa myös moni sellainen organisaatio, joka ei aiemmin ole kokenut siirtymää mahdolliseksi. Pilveen ei myöskään tarvitse rynnätä pää edellä isosti ja kerralla, vaan pilvisiirtymän voi toteuttaa vakain ja harkituin siirroin.

Monet organisaatiot ovat hylänneet tai ainakin lykänneet pilvihaaveita joko omista tai viranomaismääräyksistä tai kenties jopa kirjavien ohjeistusten aiheuttamasta hämmennyksestä johtuen. Ennen siirtymää halutaan varmistua siitä, että kaikki tapahtuu määräysten mukaisesti ja parhaita tietoturvakäytäntöjä noudattaen. Yllätyksiin ei ole varaa silloinkaan, kun data sijoitetaan oman konesalin sijasta ulkoistustoimijan ympäristöihin.

Esimerkiksi Microsoftin 365-palvelun käyttö (sähköposti, Teams, SharePoint ja OneDrive) säännellyssä toiminnassa on ollut mahdollista, mutta se on vaatinut paljon aikaa ja asiaan perehtymistä. Omaan toimintaan liittyvät vaatimukset ja määräykset on pitänyt täyttää ja välillä työlään selvitystyön sijasta onkin ollut helpompi tyrmätä käyttäjien haaveet pilvipalvelussa tarjolla olevista työkaluista.

Tässä tekstissä viittaan pilvipalvelut-termillä julkipilviin ja niin sanotun privaattipilven (eli esim. automatisoitu konesalipalvelu) jätän käsittelyn ulkopuolelle. Trenditermi hybridipilvi taasen tarkoittaa sitä, että yhdistetään julkipilven ja oman konesalin palvelutuotantoa.

Liikkeelle ei-sensitiivisellä datalla?

Osa organisaatioista on ratkaissut haasteen niin, että pilvipalveluun viedään data, johon ei kohdistu erityisiä vaatimuksia. Arkaluontoinen tieto on edelleen jätetty omiin paikallisiin ympäristöihin. Näin on saatu käyttöön modernin tuottavuuden työkaluja aiheuttamatta kuitenkaan ongelmia regulaatioiden noudattamiselle. Haasteena tällaisessa mallissa on ollut käyttäjien koulutus, sillä käyttäjille on saatava selväksi, mitä dataa pilveen voi viedä ja mitä ei.

Todellisuudessa käyttäjien ymmärryksen tai muistamisen varaan ei regulaatioiden noudattamista voi uskoa. Ihminen on erehtyväinen, pätevinkin meistä. Mikäli pilvipalveluiden käyttö halutaan oikeuttaa datasegregaation kautta, täytyy asian varmistamiseen käyttää jotain tietojärjestelmää. Kun hyödynnetään vielä AI-teknologiaa, voidaan varsin luotettavasti todentaa, ettei arkaluontoista dataa pääse mitenkään valumaan vähemmän kovennettuihin ympäristöihin.

Luottamuksellisuuden varmistaminen

Tiedon lokaatiolla ei oikeasti ole mitään väliä. Oleellista on luottamuksellisuuden varmistaminen. Esimerkiksi Suomessa sijaitseva korkean tietoturvatason konesali ei sinänsä takaa vielä mitään, mikäli palveluiden tekninen operointi on ulkoistettu taholle, joka käyttää edullisen työvoiman maissa olevia tiimejä palvelutuotannossaan. Vanha viisaus kuuluu, että tietoturva on tasan niin vahva kuin sen heikoin lenkki. Julkipilviä rakennettaessa budjetit ovat olleet satakertaisia suomalaisiin parhaisiinkaan konesaleihin ja niiden operointibudjetteihin verrattuna, joten pilvet ovat onnistuneet vähentämään heikoimpia lenkkejä merkittävästi.

Julkisen hallinnon pilvipalvelulinjaukset (VM julkaisu 35/2018) ohjeistaa fiksusti:

  • Pilvipalveluita tulee käsitellä kuin mitä tahansa muutakin ICT-palvelun hankintaa tai muutosta.
  • Pilvipalveluissa on kiinnitettävä erityistä huomiota sopimuksiin, palvelun jatkuvuuden turvaamiseen ja tiedon saatavuuteen.
  • Pilvipalvelun tulee täyttää hankkivan osapuolen palveluhyöty ja -takuuvaatimukset.
  • Mikäli pilvipalvelu tai pilvipalveluteknologia tarjoavat parhaan palveluhyödyn ja -takuun, eikä muita esteitä ole, tulisi se ensisijaisesti valita.

Ja tiedon käsittelyyn liittyen linjaus ilmaisee selkeästi:

  • Julkisen tiedon käsittelyä ei rajoiteta.
  • Ei-julkista tietoa voi käsitellä julkisessa pilvipalvelussa, kun tietoturva ja -suoja on asianmukaisesti toteutettu ja todennettu.

Regulaatioiden näkökulmasta siis estettä pilvipalveluiden käyttämiseen ei ole, kunhan tietoturvan ja -suojan tasosta on huolehdittu.

Suojaako pilvipalvelun tuottaja?

Kyllä ja ei. Julkipilvistä puhuttaessa törmätään väistämättä käsitteeseen ”jaetun vastuun malli”. Asian voisi selittää siten, että pilvipalvelun tuottaja vastaa tärkeistä perusasioista kuten vaikkapa fyysisestä turvallisuudesta ja verkkojen turvallisuudesta. Ja sen julkipilvet tekevät paremmin kuin yksikään superkorkean tietoturvatason konesali Suomessa, kiitos satakertaisten budjettiensa.

Tämä artikkeli ei käsittele laajemmin jaetun vastuun mallia, mutta mikäli konsepti ei ole sinulle kristallin kirkas suosittelen lukemaan blogikirjoituksemme siitä. Julkipilven tietoturva pohjaa vahvasti siihen, että palveluiden käyttäjä eli ostaja tietää mitä tekee.

Tekninen suojaaminen pilvessä

Lisämausteen soppaan tuo tiedon suojaamisen vaade. Ikävä kyllä siihenkään ei löydy täysin yksiselitteistä patenttivastausta. Valtiovarainministeriö edellyttää linjauksessaan tietoturvan ja -suojan asianmukaista toteutusta ja todennusta. Teknisesti tämä taas riippuu merkittävästi työkuorman tyypistä. Pilvipalveluissa puhutaan tyypillisesti IaaS-, PaaS- ja SaaS-työkuormista. Näissä pilvipalvelun tuottajan vastuualueet eroavat merkittävästi. Karkeasti ottaen IaaS-työkuormissa asiakas joutuu vastuuseen suurimmasta osasta ja SaaS-työkuormissa taas pilvipalvelun tuottaja vastaa enimmästä osasta.

Teknisen suojaamisen kannalta juuri IaaS-työkuormat ovat kovennettavissa ja salattavissa julkipilvessä täysin Suomessa sijaitsevaa konesalia vastaavalle tasolle. PaaS- ja SaaS-työkuormien kovennus ja salausmahdollisuudet, esimerkiksi omilla salausavaimilla, riippuvat paljon palvelusta ja toteutustavasta.

Lähteet

Julkisen hallinnon linjaukset tiedon sijainnista ja hallinnasta
Microsoftin dokumentaatio pilvipalveluiden tiedonsuojasta ja vaatimuksenmukaisuudesta

Tämän blogahduksen kynäilin alunperin Loihde Trustille, alkuperäisen löydät täältä:
https://web.archive.org/web/20240620054533/https://www.loihdetrust.com/blogi/ovatko-regulaatiot-pilvelle-liian-raskas-taakka/

Suomalaista pilveä Microsoftilta

Microsoft julkisti yhdessä Fortumin kanssa suunnitelmansa rakentaa Suomeen kaksi datakeskusta. Kyseessä on nimenomaan Azure-datakeskushanke. Aiemminhan Microsoftilla on Suomessa ollut kiihdytyspisteeksi luonnehdittava pieni konesalipresenssi, joka on palvellut M365-palvelun paikallista nopeuttamista. Uusi investointi tuo myös Azure-pilvipalvelut paikallisesti saataville.

Meille syntyy siis toinen täysimittainen ”suomalainen pilvi”. Googlehan ehti ensimmäisenä Haminan datakeskuksellaan. Viime joulukuussa AWS ennätti kertomaan tuovansa nk. Local Zonen Suomeen. Nämä Local Zonet eivät kuitenkaan ole täysimittaisia AWS:n datakeskuksia vaan nk. pilvenreunaa. Niistä voidaan ajaa rajoitettua määrää nk. IaaS-työkuormia. Olen käsitellyt lähipilvi-ilmiötä aiemmassa blogikirjoituksessani. Niin tai näin, kaikki kolme isoa ovat kiinnostuneet Suomesta. Ja kahdella näistä on kotimainen täysi datakeskuskin!

Suomessa Googlen pilven eli GCP:n markkinaosuus on kuitenkin varsin pieni. Azure on maailmalla ja etenkin Suomessa yritysten valinta, Google taasen on pärjännyt oppilaitoksissa ja harrasteorganisaatioissa. Suomessa Azure on ehdoton markkinajohtaja julkipilvistä. Siksi Azuren saapuminen Suomen kamaralle onkin merkittävä asia. Viimeisetkin vasta-argumentit siitä, että datan tulisi sijaita fyysisesti Suomen rajojen sisäpuolella olevilla palvelimilla ja siksi julkipilvi ei olisi hyväksyttävä, ovat nyt häviämässä.

Ympäristö- ja ilmastoasiat ovat pinnalla tämän uusimman datakeskuslaajennuksen toteutuksessa. Palvelinten jäähdytyksessä syntyvä hukkalämpö kierrätetään kaukolämpöverkkoon ja arvioiden mukaan se tulee kattamaan noin 40 % Espoon, Kauniaisten ja Kirkkonummen alueilla asuvan neljännesmiljoonan käyttäjän lämmöntarpeesta. Kyseessä on maailman suurin datakeskusten hukkalämmön talteenottoprojekti.

Merkittävä investointi Suomen mittakaavassa

Sekä Microsoftin että alaa seuraavien medioiden mukaan puhutaan yhdestä Suomen historian suurimmista yksittäisistä ICT-investoinneista. Microsoftin Suomen maajohtajan Pekka Horon mukaan Microsoft päätyi rakentamaan datakeskuksen Suomeen, koska Suomi on yksi johtavista tietoyhteiskunnista maailmassa.

Datakeskuksen sijainti Suomessa lienee lähinnä valtionhallinnon näkökulmasta tärkeä seikka, joka mahdollistaa aiemmin omissa konesaleissa ajettujen työkuormien siirtämisen Azureen, Suomen datakeskukseen. Valtiovarainministeriön ICT-johtaja Jarkko Levasman totesikin aiheeseen liittyen, että myös julkishallinto voi jatkossakin käyttää Microsoftin pilvipalveluja.

Microsoft nimesi lisäksi tiedotteessaan suuria asiakkaitaan nimeltä listaten Nokian, Elisan, Fortumin, S-Pankin, Tietoevryn, HUSin, Verohallinnon ja Valtorin kiinnostuneina asiakkaina. Suomen datakeskuksessa sijaitsevat työkuormat tarjoavat verkkoviiveen eli lantenssin kannalta parasta palvelua suomalaisille käyttäjille. Etenkin julkisen internet-verkon yli käytettävät Azure-palvelut tai SD-WAN -toteutukset hyötyvät lyhyestä etäisyydestä ja Suomen nopeista ja varmatoimisista internet-yhteyksistä. Microsoft on ollut Ficix-jäsen jo pitkään.

Lisätietoa ja artikkelit mediassa:

Microsoftin tiedote
YLEn uutinen
Tivin uutinen
Aiempi blogini “lähipilvitrendistä”

#Azure #suomalainenpilvi #Finnishcloud #Suomendatakeskus #AzureFinland

Alkuperäinen blogahdukseni kirjoittelin Loihteelle. Wayback Machine sen vielä löytää:
https://web.archive.org/web/20240529033441/https://www.loihdetrust.com/blogi/microsoftin-pilvi-on-nyt-myos-suomalainen-pilvi/

Tietoturvan itsepuolustuskurssi pilveen uskaltautuvalle

Tällä blogitekstillä opastan yli pilven turbulenssien ja karttamaan yleisimmät virheet. Lisäksi kerron huonoista käytännöistä, joita helposti tulee valittua, jos pilven rajoitukset ja mahdollisuudet eivät ole kirkkaina mielessä.

Pilvipalveluiden tietoturvan rakennus eroaa perinteisestä tietoturva-ajattelusta etenkin suhteessa luottamukseen. Omassa hallinnassasi olevan verkkokytkimen voit nollata halutessasi, jolloin edelliset konfiguraatiot lähtevät. Samoin voit vaikka purra jokaisen verkkokaapelin poikki varmistaen näin, ettei siellä bitti viuhu eikä data sihise.

Pilvipalveluissa taas joudut luottamaan pilvipalvelun tuottajan tietoturvaan. Et pääse katsomaan (tai puremaan) verkkokaapelia. Luottamus on sekä pilvipalvelun vahvuus että kompastuskivi. Sinä joko joudut tai saat luottaa siihen, että pilvipalvelun tuottaja on hoitanut asiansa kunnolla. Mahdollisuutta auditointiin ei ole. Oikeiden pilvipalveluiden tuottajat eli Amazon, Microsoft ja Google ovat hoitaneet tietoturvansa paremmin kuin sinä pystyt ikinä edes kuvittelemaan hoitavasi – vaikka datakeskuksesi sijaitsisi Tikkakoskella. Todisteena vaatimuksenmukaisuudesta ja tietoturvan korkeasta tasosta on hurja sertifikaattipino.

Mutta tässäpä piileekin sitten myös se miina:

Pilvipalvelun tuottaja hoitaa kyllä oman osansa hyvin. Oleellista on, että sinä ymmärrät selkeästi sen, mikä on sinun vastuullasi. Juuri tämä aiheuttaa suurimman tietoturvariskin.

Jaetun vastuun mallin tulisi olla tietoturva-ajattelusi ydin.

Kuva: Jaetun vastuun malli Microsoftia mukaillen. 

Huomaatko, että jaettu vastuu on liikkuva käsite? Se riippuu työkuorman tai palvelun tyypistä. On-prem tarkoittaa omaa konesalia – tai siivouskomeroa (itse säilytän omia servereitäni lämminvesivaraajan päällä sekä maantieteellisen hajautuksen vuoksi autotallissani). IaaS taas tarkoittaa virtuaalikoneita ja kontteja, joita voisi ajaa omassa virtuaali-infrassakin. PaaS on pilvipalvelun tuottajan alustapalveluita, joiden varaan voi rakentaa omia kokonaisuuksia (esimerkkinä vaikka hallittu tietokantapalvelu). SaaS on ikään kuin ravintoketjun huipulla, ohjelmisto palveluna (kuten M365-palvelut tai Salesforce).

Riippuen jalostusarvosta pilvipalvelun toimittaja vastaa enemmästä tai vähemmästä määrästä. Silti sinulla on aina vähintään aineiston luokittelun ja pääsynhallinnan vastuu sekä vastuu siitä, millaisilla välineillä käyttäjäsi pilven dataa käpistelevät. Ei paljoa auta, vaikka pilvessä oleva potilastietokantasi olisi sotilastasolla kovennettu ja käyttäisi tuplakryptausta omista salausavaimista puhumattakaan, jos niissä koneissa, joilla käyttäjäsi potilastietoja käsittelevät, riehuvat ikävimmät malwaret ja troijalaiset.

Kolme tärkeää askelta turvalliseen pilveen

Absoluuttisesti suurin tietoturvariski pilvipalveluissa on käyttäjä. Jos voit rakentaa pilvipalvelun, johon yksikään ihminen ei koske tai käytä sitä, saavutat verrattain helposti erittäin korkeankin tietoturvatason.

Lähtökohtaisesti kuitenkin IT-palvelut rakennetaan ulkoisille tai sisäisille käyttäjille. Tämä muodostaa keskeisimmän ongelmamme. Erittäinkin turvallisen palvelun tietoturva voi vaarantua käyttäjän antaessa vaikkapa pääsyoikeutensa jollekin toiselle. Tämä voi tapahtua tahallisesti (sisäpiiriuhka), virheen takia (luulin huijaria yrityksen IT-jantteriksi) tai epähuomiossa (sähköpostitin vahingossa tärkeän raportin toimittajalle).

Teknisesti tämä käyttäjän muodostaman riskin mitigointi osuu luvitusten alueelle, ei laajemmin identiteetin ja pääsynhallintaan. Ensimmäinen ohjeeni onkin:

Varmista identiteetti ja logita käyttäjien toiminta.

Käytännössä tämä tapahtuu parhaiten siten, että käytät kaikessa keskitettyä identiteetinhallintaa (esim. Azure AD). Et ikinä erillisiä käyttäjätunnuksia ja salasanoja. Omat, erilliset käyttäjätunnukset ja sanasanat yhdessäkin palvelussa ovat tietoturvaharakiri.

Toinen askel on pakottaa monivaiheinen tunnistus (Microsoft-termein MFA ) käyttöön. Microsoftin tutkimuksen mukaan se ehkäisee yli 99 % identiteettivarkauksista eli käyttäjätilien korkkauksista.

Kolmas askel on älykäs uhkatorjunta. Identiteetin- ja pääsynhallinnan osalta se on helpoimmin toteutettavissa AI-pohjaisilla työkaluilla. Itse tunnen parhaimmin Microsoftin teknologiat, joten nostan ne esimerkiksi. Käyttämällä Azure AD -identiteetin suojausta Microsoftin algoritmit ja koneäly tarkkailevat pääsynhallintaan liittyviä toimia ja tapahtumia läpi käytettyjen palveluiden. Suojausta vahvistaa UEBA (User Entity Behavior Analytics), joka mallintaa koneoppimisen avulla käyttäjän toimintaa. Poikkeavia toimia verrataan esimerkiksi siihen, mitä kollegat normaalisti tekisivät.

Jos jatkat vielä Zero Trust -mallin jalkautukseen, olet suojannut käyttäjiesi identiteetit jo erinomaisen mallikelpoisesti. Mikä parasta, Zero Trust ei ole kallis ohjelmisto tai uusi hieno laite verkkoosi. Se on tapa toteuttaa tietoturva ja muodostaa kontrollit.

#tietoturva #tietoturvaopas #kyberturva #kyberitsepuolustus #pilviturva

Alkuperäinen blogahdukseni kirjailin Loihteen sivuille Tässä linkki historiaan:
https://web.archive.org/web/20240421081222/https://www.loihdetrust.com/blogi/tietoturvan-itsepuolustuskurssi-pilveen-uskaltautuvalle/