Matkalla tekoälyn huippuorganisaatioksi

Voi kuinka moni kertoo tekevänsä tekoälyä.

Tekoälyä joka ennakoi asiakkaan tarpeita, tekoälyä joka kohdentaa markkinointia, tekoälyä joka naputtelee sähköposteja tai urheilutuloksia. Tekoälystä on tullut se mitä data science oli pari vuotta sitten – valtaisan hypen kohde johon jokainen koskaan asiasta kuullut tarttuu kynsin ja hampain.

Tämä aiheuttaa harmaita hiuksia yritysten johdossa. Toimittajia on pilvin pimein mikä aiheuttaa vaikeuksia aidon kyvykkyyden arvioinnissa. Tässä yhtälössä toimittaja voittaa aina – päästään takaovesta tekemään asioita jotka eivät oikeastaan ole tekoälyä millään tapaa mutta powerpointin promiseware liippasi riittävän läheltä asiaa ympäröivää kirjoittelua. Tilanne pahenee niin kauan kunnes ymmärrys tekoälystä ja sen hyödyntämisen mahdollisuuksista saavuttaa riittävän maturiteetin riittävän ison yleisön keskuudessa. Näinhän kävi bigdatallekin – nyt aivan älyttömimmät myyntipuheet eivät mene enää läpi. Harmillisesti tekoälystä ne vielä menevät – ainakin jonkin aikaa.

Olen aina uskonut siihen että kaikki kilpailuetuun tähtäävä tekeminen pitää osata itse. Ei siksi etteikö toimittajakin pysty hoitamaan samaa asiaa ja jopa nopeammin, vaan siksi että näin rakennetaan kilpailuetu yritykseen sisään. Näin rakennetaan kyvykkyyksiä tulevaisuuteen. Nyt teemme tekoälyä ja uskon, että olemme melko pitkällä. Moni vierailija on ainakin todennut samaa nähtyään millaisten asioiden kanssa painimme päivittäin.

Matka on ollut pitkä. Se on ollut kivinen ja monesti turhauttava. Se on vienyt yöunet kun ei olla saatu toimitettua asioita silloin kun luvattiin. Se on aiheuttanut kaikenlaista stressiä, pari kuukautta tuli käytettyä erilaisia päänsärkylääkkeitä päivittäin erinäköisiin oireisiin. Se on ollut myös palkitseva ja ajoittain aivan uskomattoman hieno kun tuloksia on saatu pöytään toinen toisensa jälkeen.

Se on itseasiassa ollut se matka ja sillä matkalla olleet ihmiset – ei tekoäly tai bigdata itsesään – jolla luotiin perusta tulevaisuuden kilpailuedulle. Meillä on nyt huippuosaajia jotka ovat rakentaneet tyhjästä asioita jotka mahdollisivat esimerkiksi tekoälyn hyödyntämisen ja jatkokehittämisen.

Tuolla matkalla on ollut neljä fokusaluetta. Niistä AI, tekoäly, on viimeinen. Väitän ettet voi oikaista sinne kulkematta ensimmäisen kolmen läpi. Väitän myös, että jos oikaiset, tulet lähinnä auttaneeksi toimittajan tilipussin kasvattamista ja joudut myöhemmin selittelemään projektien jatkuvaa myöhästymistä. Voin olla väärässä ja usein olenkin, mutta meillä se ei ainakaan olisi toiminut.

Käydään pikaisesti läpi mitä meillä vaati kulkea tekoälyn kehitykseen.

Vaihe 1: Data pipelinet. Data-alustat. Platformit. Tietovarastot, tavallaan, mutta sellaiset tietovarastot mihin on ajateltu kytkettävän myös operatiivinen toiminta. Jotta voidaan tehdä mitään älykästä datan päältä, pitäisi ymmärtää mitä dataa on saatavilla. Kuinka se on saatavilla reaaliajassa. Kuinka se on saatavissa niin, että sen ylläpito ei vaadi jatkuvaa manuaalista työtä. Miten kaikki data liittyy asiakkaaseen, koska asiakkaita varten näitä juttuja tehdään? Miten kaikki data on niin ymmärrettävää, että se muistuttaa reaalimaailman asioita?

Todella vaikea vaihe. Vaatii ensiluokkaisia data engineereja jotka loihtivat rajapinnoista, tekstitiedostoista, sosiaalisesta mediasta ja sisäisistä järjestelmistä eheää dataa joka näkyy bisneskäyttäjälle ja data scientistille yhtenä totuutena liiketoiminnan ja asiakkaiden tilanteesta. Vaatii ehkä eniten aikaa mutta sen tekemättä jättäminen vie aikaa ja rahaa vielä moninkertaisesti enemmän. Jos tekoäly olisi kauppaliike niin data pipeline on sen viimeiseen asti viilattu logistiikkakoneisto. Sellainen logistiikka joka osaa sekä dronet että valtamerialukset.

Vaihe 2: Raportointi ja visualisointi. Näkyväksi tekeminen. Visualisointi on se asia joka mahdollistaa isojen datamassojen käsittelyn niin että ihminen saa siitä tolkun. Se auttaa näkemään trendejä ja tekee konkreettiseksi kaiken sen työn mitä vaiheeseen 1 käytettiin. Monesti jo tässä vaiheessa tuotetaan valtavasti arvoa liiketoiminnalle kun aiemmin hämärän peittoon jääneet uskomukset liiketoiminnan tilasta joko osoitetaan vääräksi ja oikeaksi – tuodaan faktoja pölyttyneisiin “musta tuntuu” -ohjausryhmiin.

Vähän mukavampi vaihe, jos ette oikaisseet tänne kulkematta ensin vaihetta 1 loppuun. Jos oikaisitte, niin tuloksena on joka päivä vaihtuvat luvut jotka eivät sitten vaan tahdo mennä millään oikein. Tekoäly-kauppaliikkeessämme visualisointi on poskettoman taitava business analyst joka kertoo mikä toimii ja mikä ei. Jos koulutat tämän vaiheen hyvin avainhenkilöille ja jaksoit panostaa data pipelineen, liiketoiminnan ihmiset tekevät tätä täysin omatoimisesti. Tässä vaiheessa muutosjohtaminen on arvossaan – muista napata innokkaimmat datan hyödyntäjät lähelle jotta saat riittävästi evankelistoja tiimiisi.

Vaihe 3: Koneoppiminen, part I, data science Moni kutsuu tätä jo tekoälyksi, ei se sitä silti ole. Tilastotieteen hyödyntämistä modernin data-alustan päällä. Media on täynnä hyviä esimerkkejä hyödyntämisestä – opetetaan konetta tunnistamaan ristiin- ja ylösmyyntitilanteita, poistumaa, ongelmatilanteita, maksuhäiriöitä. Tuotetaan algoritmeja jotka optimoivat markkinointibudjetin käyttöä. Tehdään ohjelmallista ostamista pikkuisen fiksumman logiikan päältä. Tehdään suosittelukoneita jotka osaavat suositella sisältöä reaaliajassa, luoden parempia asiakaskohtaamisia.

Nyt lähestytään älykkäämpää tiedon jalostamista. Miten valtavista datamassoista, siis niistä joita data pipelinen logistiikalla tuotiin valtamerilaivoittain sisään, saadaan jotain sellaista ulos mikä hyödyttää asiakkaita? Hyvin tehdyn pipelinen päältä on mahdollista tehdä kaikkia edellisessä kappaleessa mainittuja asioita. Ei se helppoa ole, mutta täysin mahdollista. Riittää kun osaa jotain tilastolliseen mallintamiseen tai koneoppimiseen soveltuvaa kieltä (- kyllä, kieltä. Liian pelkistettyjen työkalujen käyttö ei kasvata kyvykkyyksiä jotka luovat kilpailuetua) ja ymmärtää miten hyödyntää kaikkia niitä vapaita kirjastoja ja varantoja joita internet on pullollaan. Meillä lienee käytössä kymmeniä, ellei satoja kirjastoja joiden avulla toteutamme näitä asioita.

Koska kuljimme sen matkan tänne asti, voimme nyt tehdä asioita joita toteuttavista ohjelmista maksetaan edelleen miljoonia (tieto vanhentunut, voi olla enää satoja tuhansia). Ei tarvitse rajoittua yhteen sovellutukseen eikä tarvitse miinoittaa CIOn budjettia jatkuvasti uusilla ohjelmistoilla tai konsulttiarmejoilla – “se fraud detection kun nyt vaan olisi vaatinut softan X kun tähän ristiinmyyntiin käytetään softaa Z ja toimittajaa Q”. Jos opettelee miten koneoppiminen todella toimii, voi soveltaa sitä mihin vaan.

Soveltaa mihin vaan. Vaikkapa tekoälyyn.

Vaihe 4: Koneoppiminen part II, tekoäly. Ihmisen aivoja vielä melko kehnosti imitoiva koneellinen äly. Äly jonka kerrotaan korvaavan melkoisen siivun työpaikoista tulevien vuosien aikana. Ei hätää – tekoäly ei ole vielä niin hyvä että se veisi sinun hommasi viikonlopun aikana. Se tulee auttamaan niissä töissä joita ei kannata tehdä ihmisvoimin tai joihin ihmisen aivot eivät yksinkertaisesti sovellu. Paradoksaalista on se, että vaikka vaiheessa 3 pystyttiin tekemään asioita joihin ihmisaivot eivät pysty (vrt. kuvittele ihminen optimoimassa markkinointikampanjaa reaaliajassa sovitun algoritmin pohjalta joka vielä oppii jokaisesta onnistumisesta) niin tässä vaiheessa yritetään useimmiten saada kone ymmärtämään asioita joihin puolitoistavuotias pystyy leikiten. Tämä erottaa meillä tekoälyn muusta koneoppimisesta. Sen pitää tehdä asioita jotka eivät ole ihmiselle ylitsepääsemättömän vaikeita tai mahdottomia vaan sen pitää tehdä asioita jotka ovat ihmiselle usein helppoja!

Jos annat puolitoistavuotiaalle 10 kuvaa erilaisista kissoista niin hän osannee sanoa että kaikissa on kissa. Kone ei osaa. Ei ilman mittavaa algoritmipankkia, ei ilman neuroverkkoja, konvoluutioita, softmax-funktioita, valtavaa laskentatehoa. Siis mitä! Valtava laskentateho että voidaan tunnistaa kissa vaikka juuri tehtiin reaaliaikaista optimointia itseoppivan algoritmin pohjalta? Näinhän se. Tekoälyn akilleen kantapää on se, että sille ei usein syötetä numeroita vaan kuvia, ääntä ja luonnollista kirjoitettua kieltä. Röntgenkuvia mistä pitäisi tunnistaa syöpä. Pahimmillaan äkäisten teinien somekirjoittelua tai palveluihisi turhautuneen asiakkaan palautetta chatissa. Ja siitä pitäisi tehdä jotain tolkkua, että mistä aiheista siellä keskustellaan ja miten se vaikuttaa meidän liiketoimintaan. Mitä negatiivista meistä puhutaan jotta voimme tehdä asialle jotain. Ja ettei vaan olisi liian helppoa niin todennäköisesti CPU, se laskentaydin joka pörisee jokaisessa koneessa, ei sovellu tähän hommaan. Pitää tehdä näytönohjaimen päältä laskentaa.

Viimeistään nyt tulee mieleen että pilvipalvelut ovat loistava asia kun et sitoutunut johonkin tiettyyn rautaan projektin vasta alkaessa. Pilvipalvelut kun mahdollistavat kasvun ja kehittymisen, ne mahdollistavat sen matkan kulkemisen joka on elintärkeää kilpailukyvyn rakentamiselle. Liiketoiminta on tänä päivänä niin digitaalista ja teknologiapainotteista, että ei todellakaan ole toissijaista mitä teknologiaa salkkuusi valitset. Valitse mielellään sellaista, jonka voi helposti vaihtaa tai jos oikein hyvin käy, jota voi helposti skaalata.

Matka onnistumiseen on oikeastaan aina pitkä ja kivinen. Siksi onnistuminen tuntuu hyvältä. Siksi kilpailuetu rakentuu vaikeasti kopioitaville asioille. Kukaan ei oleta että ostamalla sadantonnin luistimet naapurin Erkistä tulee uusi Selänne. Miksi ihmeessä olettaisit, että voisit oikaista tekoälyn parissa?

Aloita, opi matkalla, rakenna osaamista joka kantaa seuraavaankin päivään. Siitä on hyvä asiat tehty.

Jarno Kartela

Elää tiedosta ja tiedolla johtamisesta. Head of Analytics @DNA_fi. Suorasanaista keskusteluseuraa kaikesta tietoon ja sen hyödyntämiseen liittyvästä. Lähimpänä sydäntä datascience, analytiikka ja bigdata.

Digitalist.tv >