Neljä myyttiä tekoälystä: tutkijat paljastavat, mitä siltä ei kannata odottaa
Tekoälyn kanssa kannattaa olla varovainen, harkitseva ja nokkela, mutta ei kyyninen. Kysyimme tutkijoilta, mitä tekoälyltä kannattaa odottaa ja mitä ei.
Ville Blåfield, 12.01.2026
|
Long form
Tekoäly tuli työpaikoille ennen kuin sen pelisäännöistä ehdittiin sopia. Tutkijoille kyse ei ole kuitenkaan uudesta ilmiöstä, eikä edes tämän vuosikymmenen uutisesta.
Kysyimme neljältä tekoälytutkijalta, mitä tekoälyltä kannattaa ja missä odotukset menevät pieleen.
Tekoälystä ei tavitse tulla ihmisen kaltaista

Ei voi olettaa, että tekoäly oppisi ajattelemaan kuin ihminen, eikä välttämättä ole syytäkään, sanoo professori Antti Oulasvirta.
Antti Oulasvirralla on positiivinen ongelma. Sapattivuosi Kalifornian Berkleyssä avasi ovia Piilaakson jätteihin kuten Metaan ja Googleen. Hän pääsiluomaan arvokkaita uusia verkostoja San Franciscoon ja Los Angelesiin, mutta takaisin Suomeen ja Aalto-yliopistoon palatessa uusien verkostojen ylläpitäminen on vaatinut vuorokauden venyttämistä.
Nyt Oulasvirta istuu aamuvarhain tai yömyöhällä etäpalavereissa USA:n länsirannikolle ja hoitaa siinä välissä päiväsaikaan professorin velvollisuutensa Aalto-yliopiston kampuksella Espoossa.
Sapattivuosi ja uudet kontaktit ovatarvokkaita tekoälytutkijalle.
”On aina hyvä käydä katsomassa, miten huippupaikoissa tehdään asioita”, Oulasvirta sanoo.
Suomessa Oulasvirta johtaa tutkimusta Aalto-yliopiston Computational Behavior Labissa. Hän tutkii ihmisen ja tietokoneen vuorovaikutusta ja kehittää laskennallisia malleja ihmisen käyttäytymisen ymmärtämiseen ja ennustamiseen.
Oulasvirta jakaa tekoälyn kyvykkyydet kolmeen: matkimiseen, tulkintaan ja ennustamiseen.
“Tulkinta on jo vähän eri asia kuin matkiminen: tulkitessa toista ihmistä meidän pitää osata arvioida syitä toiminnan takana. Kolmas, ennustaminen, on kaikkein vaikein, kun puhutaan ihmisen käyttäytymisestä.”
Oulasvirta jakaa tekoälyn kyvykkyydet kolmeen: matkimiseen, tulkintaan ja ennustamiseen.
Oulasvirta arvioi, että matkimisessa tekoäly ”on jo tosi pitkällä”. Hänen mukaansa kielimallit pystyvät jo matkimaan ihmisen kaltaista keskustelua niin, että huomaamme juttelevamme koneen kanssa vasta kymmenen minuutin kuluttua. ”Mutta sitten se alkaa hajota.”
Tulkinta ja ennustaminen ovat tekoälylle vaikeampia, sillä niissä onnistuakseen tarvittaisiin syvällisempää ymmärrystä tulkittavan tai ennustettavan ihmisen motiiveista. Jotta osaisi ennustaa ihmisen käyttäytymistä tulevaisuudessa, pitäisi ymmärtää, mihin hän toiminnallaan pyrkii.
Tutkimus pyrkii kehittämään tekoälyä juuri näillä alueilla, mutta tavoitteena ei ole tehdä tekoälystä ihmisen kaltaista, Oulasvirta sanoo.
”Ei isolla osalla tekoälytutkijoista ole tavoitteena tehdä mitään, mikä olisi lähtökohtaisesti ihmisen kaltaista. Tavoitteena on kehittää tekoäly, joka pystyy suorittamaan entistä vaativimpia tehtäviä. On ihan sama, suorittaako se niitä ihmisen kaltaisesti vai muuten.”
Itse asiassa ihmismielen kopion kehittämisessä hukattaisiin paljon tekoälyn mahdollisuuksista. Olisi harha pitää ihmisen älyn rajoja kaikenlaisen älykkyyden mittarina. Oulasvirta vertaa harhaa siihen, että etsimme avaruudesta oman sivilisaatiomme kaltaista elämää. Vastaan tulevat oman kuvittelumme rajat.
”Jos miettii, mihin tavoitteisiin tekoälyä optimoidaan, ei välttämättä ole lainkaan tavoitteiden mukaista, että se ajattelisi ihmisen kaltaisesti. Jos tekoälylle annetaan jokin suunnittelu- tai vaikka shakkitehtävä, se saattaa päätyä ihmisen kaltaisiin ratkaisuihin, mutta ei lainkaan välttämättä”, Oulasvirta sanoo.
”Ei voi olettaa, että tekoäly oppisi ajattelemaan kuin ihminen, eikä ole syytäkään.”
”Ei voi olettaa, että tekoäly oppisi ajattelemaan kuin ihminen, eikä ole syytäkään.”
Ihmisen motiivien ymmärtäminen olisi kuitenkin tekoälylle hyödyksi. Jos oppisimme opettamaan tekoälyn aavistamaan, mitä kommunikaatiollamme ja käytöksellämme tavoittelemme, tekoäly voisi oppia auttamaan meitä osuvammin.
”Yksi haaste on keksiä, miten tekoälyä voisi ihmisen käyttäytymisen ja tunteiden ymmärtämisessä kouluttaa.”
Tunteista ja syvistä motiiveista ei välttämättä opi internetin dataa jauhamalla. Oulasvirta sanoo, että tutkijoiden pitäisi keksiä uusi tapa kerätä tekoälylle laaja aineisto uusien taitojen oppimateriaaliksi.
Hänen omassa laboratoriossaan yhdistetään koneoppimiseen käyttäytymistieteitä. Vaikka yhdistelmä kuulostaa äkkiseltään yllättävältä, aivan uusista asioista ei ole kyse. Oulasvirta muistuttaa, että toistuvia malleja ihmisen käyttäytymisestä on etsitty jo sata vuotta sitten.
”Siinä on kyse ehdollistumisesta, jo Pavlovin teoriasta lähteneestä asiasta.”
Kuka?
Antti Oulasvirta, 45, on professori Aalto-yliopiston Informaatio- ja tietotekniikan laitoksella. Hän johtaa Aalto-yliopiston Computational Behavior Labia ja User interfaces -tutkimusryhmää, sekä Interactive AI -tutkimushanketta Suomen tekoälykeskuksessa (FCAI, Finnish Center for AI).
Milloin kuulit tekoälystä ensimmäisen kerran?
”Se on ollut vuonna 1999, kun aloitin kognitiotieteen opinnot. Se oli hyvin erilaista aikaa, mutta toki tekoälytutkimusta oli jo.”
Missä tilanteessa tekoäly on auttanut sinua?
”Annan esimerkin väitöskirjatutkimuksestani. Vuonna 2005 tai 2006 teimme silloisen Nokian kanssa ison tutkimuksen, jossa keräsimme aineiston siitä, mihin ihmisten huomio keskittyy heidän käyttäessään älypuhelinta. Kuvasimme ihmisiä puhelimien kanssa ympäri Espoota ja Helsinkiä. Kun aineistoa piti alkaa analysoida, käännyimme koneoppimisen asiantuntijoiden puoleen. Oli silmiä avaavaa nähdä, missä koneoppimismallien kanssa oltiin jo silloin.”
Missä tilanteessa tekoäly on pettänyt sinut?
”Meillä oli tutkimuksessa mukana eräs hyvin lupaava maisteriopiskelija, mutta sitten selvisi, että hän oli käyttänyt koodaamiseen pelkkää GPT:tä, eikä tiennyt itse, miten koodi syntyi. Meidän piti tehdä kaikki uusiksi. Jos et tiedä, mitä tekoälyllä teet, et voi luottaa lopputulokseen. Oman ajattelun ulkoistaminen tekoälylle on tosi vaarallista.”
Tekoälyn kehitystä pitää säädellä

Pohjoismaisten periaatteiden mukaan kehitetty vastuullinen tekoäly voisi olla globaali kilpailuvaltti, uskoo Nitin Sawhney.
Nitin Sawhneytä ei voi pitää tekoälyyn hurahtaneena, päinvastoin. Hän on tekoälytutkija, mutta varovainen, jopa skeptinen.
”Mikä tahansa teknologinen kehitys voi aina olla vastuutonta ja haavoittuvimpia tai heikoimpia ihmisryhmiä ulossulkevaa. Se nopeus, jolla tekoälyä kehitetään, kasvattaa tätä riskiä valtavasti”, Sawhney sanoo.
Hänen mielestään tekoälyhype tuottaa varomatonta, laiskaa puhetta. ”Meidän on päästävä hypen läpi, saatava tekoälykeskusteluun enemmän nyansseja.”
Sillä tietenkin Taideyliopiston tutkimusinstituuttiin vierailevaksi tutkijaksi päätynyt Sawhneykin näkee tekoälyssä valtavasti potentiaalia, yrityskentän lisäksi julkisella sektorilla. Omassa tutkimuksessaan hän on kehittänyt tekoälytutkimusprojekteja esimerkiksi THL:n, Kelan ja Espoon ja Helsingin kaupunkien kanssa.
”Julkisen sektorin mandaatti tulee siitä, että ne tuottavat yhteistä hyvää”, Sawhney muistuttaa.
Mandaatin mukana tulee vastuu. Kelan tai vaikkapa maahanmuuttoviraston palveluita ei saa alistaa tekoälylle, jos ei voi olla varma, että teknologia pystyy oikeudenmukaiseen, läpinäkyvään, tietoturvalliseen ja tasa-arvoiseen palveluun - ja silloinkin prosessissa tulisi säilyä vahva ihmisen valvonta ja lopullinen päätösvalta.
"Jos olisin pohjoismaisen yrityksen toimitusjohtaja, näkisin tämän suurena mahdollisuutena. Pohjoismaisten periaatteiden mukaan kehitetty vastuullinen tekoäly voisi olla globaali kilpailuvaltti."
Juuri läpinäkymättömyys ja katoava tilivelvollisuus ovat Sawhneyn mukaan tekoälyn mukana tulevia ongelmia.
”Meidän tulisi olla todella tarkkoina tuodessamme näitä järjestelmiä julkisiin palveluihin. On ihan okei käyttää tekoälysysteemejä vaikkapa taiteessa tai pelisuunnittelussa, mutta kun niillä aletaan vaikuttaa ihmisten elämiin, meidän tulisi olla paljon vaativampia järjestelmien auditoinnin, seurannan ja läpinäkyvyyden suhteen”, Sawhney sanoo.
Hänen mukaansa liike-elämässä ajatellaan helposti, että on olemassa jako eettisen ja innovatiivisen tekoälyn välillä. Ainakaan julkisen sektorin järjestelmissä ei pitäisi hyväksyä tällaista ajattelua.
Ennen tutkijauraansa Sawhney työskenteli tekoälystartupissa New Yorkissa. Vaikka Sawhneyn oma työ keskittyi silloinkin ihmiskeskeisten tekoälyjärjestelmien suunnitteluun, startup-maailmassa hän näki, miten eettisiä kysymyksiä ei useinkaan priorisoitu yhdysvaltalaisessa teknologisessa kilpajuoksussa. Sawhneyn mielestä Pohjoismaiden ja Euroopan unionin pitäisi nähdä tässä kilpailuetu.
”Pohjoismaat ovat perinteisesti olleet korkean luottamuksen yhteiskuntia. Myös EU:ssa on kehitetty hyvää regulaatiota tekoälylle. EU:n AI Actia kritisoidaan paljon, mutta minusta se on hyvä alku. Jos olisin pohjoismaisen yrityksen toimitusjohtaja, näkisin tämän suurena mahdollisuutena. Pohjoismaisten periaatteiden mukaan kehitetty vastuullinen tekoäly voisi olla globaali kilpailuvaltti”, Sawhney uskoo.
"Käyttäkää tekoälyä vain tukemaan omaa uniikkia ajatteluanne."
Tilaa markkinoilla olisi, varsinkin, kun eri teollisuudenalojen ohella myös julkisen sektorin toimijat ympäri maailman tulevat lähivuosina tarvitsemaan ja kehittämään tekoälyratkaisuja. Järjestelmiä, joihin kansalaiset voivat luottaa.
Siinäkin Sawhney eroaa monista tekoälytutkijoista, että hän sanoo itse käyttävänsä generatiivisia tekoälysovelluksia hyvin vähän. Syyt ovat eettiset.
”Minulla on tähän myös energiankulutukseen liittyvä näkökulma: jos alamme kaikki käyttää tekoälyäsovelluksia kaikenlaiseen triviaaliin, energiankulutuksemme kasvaa eksponentiaalisesti. Mutta ylipäätään en luota tekoälyn analyysiin tärkeissä päätöksissä”, hän sanoo.
”Meidän tulisi yliopistolla vaalia kirjoitus- ja ajattelutaitojamme. Sanon tätä opiskelijoillekin: käyttäkää tekoälyä vain tukemaan omaa uniikkia ajatteluanne.”
Kuka?
Nitin Sawhney on vieraileva tutkija Taideyliopiston tutkimusinstituutissa Helsingissä.
Tutkimuksessaan hän kehittää inklusiivista, vastuullista ja ihmiskeskeistä tekoälyä, ja on tutkimusprojekteissaan tehnyt yhteistyötä useiden yhteiskunnallisten toimijoiden kanssa.
Milloin kuulit tekoälystä ensimmäisen kerran?
”Opiskellessani 1990-luvun lopulla MIT:n Media Labissa opin ensi kertaa tekoälystä opettajiltani Marvin Minskyltä, Patties Maesilta ja Sandy Pentlandilta. Muistan jo silloin ajatelleeni, että tekoäly liittyy kognitiivisiin toimintoihin, mutta voisi toimia myös pohjana ihmisen ja tietokoneen välisen kommunikaation luoville ratkaisuille.”
Missä tilanteessa tekoäly on auttanut sinua?
”Tekoäly auttoi minua tutkimuksessa, jossa piti yhdistää YK:n talousindikaattoreita malleihin naisten matkapuhelinten käytöstä Intian maaseudulla. Jo MIT:ssa käytin menestyksellä tilastollisia koneoppimismenetelmiä.”
Missä tilanteessa tekoäly on pettänyt sinut?
”Tekoäly pettää päivittäin puolueellisten ja virheellisten tulostensa kanssa. Tätä tapahtuu niin chatbottien kuin tekoälyapplikaatioiden kanssa. Ne tekevät vääriä oletuksia, koska niillä ei ole kehollista tai sosiaalista kokemusta maailmasta, kuten ihmisillä. Onneksi en odotakaan sitä. Haluan elää planeetalla, jolla on ihmisten ja eläinten välistä empatiaa, uteliaisuutta ja mielikuvitusta.”
Tekoäly ei ajattele puolestasi

Kun johtajat oppivat käyttämään tekoälyä entistä enemmän, heidän oma ajattelunsa voi laiskistua, sanoo Eeva Vilkkumaa.
”Kielimallit eivät ole kiinnostuneet totuudesta.”
Eeva Vilkkumaa sanoo tämän lempeästi hymyillen, muistutuksena. ”Tekoäly ei itsessään ’ymmärrä’ mitään.”
Siksi omaa ajattelua ei pidä ulkoistaa koneelle. Aalto-yliopiston kauppakorkeakoulun apulaisprofessori kehittää matemaattisia malleja avuksi esimerkiksi strategiaprosesseihin. Hän näkee, miten yritysjohdossa on innostuttu tekoälystä, johtajan arkisen työn apuna.
”Pelkään, että kun tekoälyn kielimallien myötä kirjoittamisesta on tullut niin helppoa, tämä kirjoittamisen ulkoistaminen tekoälylle vaikuttaa lopulta johtajien ajatteluun. Hyvä kirjoittaminen vaatii hyvää ajattelua, ja jos ihminen ei itse tee ajatustyötä tekstiään varten, myöskään hänen ajattelunsa ei kehity”, Vilkkumaa sanoo.
Paitsi ajattelun kehittyminen, pesuveden mukana menee myös ajatuksiin sitoutuminen.
Jos johtaja ei ole nähnyt itse sitä vaivaa, että on pohtinut eri vaihtoehdot läpi, hänen on vaikea sitoutua tehtyyn valintaan ja johtaa sen jalkauttamista. Jos ei ole itse pohtinut tehtyyn päätökseen liittyviä riskejä tai arvoja, on vaikea uskottavasti viestiä päätöksestä muille.
"Hyvä kirjoittaminen vaatii hyvää ajattelua, ja jos ihminen ei itse tee ajatustyötä tekstiään varten, myöskään hänen ajattelunsa ei kehity."
Pitäisi siis osata erottaa, minkälaisessa ajattelussa tai päätöksenteossa tekoäly on hyvä apu, minkälaiseen siitä ei vielä ole.
”Jos haluat automatisoida jonkun tuotantoprosessin, silloin tekoälystä on varmasti apua. Mutta jos pitää tehdä pidemmän tähtäimen strategisia valintoja, ja pitää syvällisesti hahmottaa eri vaihtoehtoja, siihen tarvitaan inhimillistä ajattelua”, Vilkkumaa uskoo.
Tämä ei tarkoita, etteikö strategiaprosesseissakin voitaisi hyödyntää matemaattisia malleja tai tekoälyä. Vilkkumaa perää johtajilta vain tarkkuutta siinä, missä vaiheessa prosessia tekoälyä hyödynnetään.
”Strategisen johtamisen ihmisethän ovat aina olleet hirveän skeptisiä tällaisia työkaluja kohtaan. On ajateltu, että malleilla ei voida riittävästi huomioida erilaisia epävarmuuksia. Ymmärrän hyvin huolen, että ei haluta ulkoistaa matemaattisille malleille monimutkaista päätöksentekoa”, Vilkkumaa toteaa.
Hyvä lähtökohta voisi olla, että pitää huolen, ettei tekoälyn anneta määritellä strategisia tavoitteita. Niistä tulisi edelleen kantaa vastuu ihmisten kesken.
”Päätöksenteko vaatii aina tavoitteet, ja ne ovat arvovalintoja”, Vilkkumaa muistuttaa. Arvot taas ovat subjektiivisia. ”Niitä ei voi ulkoistaa tekoälylle.”
Kun tavoitteet on itse pohdittu ja niihin sitouduttu, on valittu linja myös helpompi myydä muille, esimerkiksi alaisille.
”Aina kun johtaja tekee päätöksiä, hänen pitää pystyä myös motivoimaan päätösten toimeenpano. Toisten ihmisten motivointi on paljon helpompaa, jos on itse sisäitänyt valitut tavoitteet. Toimenpiteistä, joilla tavoitteeseen päästään, voi sitten keskustella erilaisten mallien tai tekoälyn avulla.”
”Miksi kukaan vaivautuisi lukemaan jotain, mitä kukaan ei ole vaivautunut kirjoittamaan?”
Vilkkumaa sanoo, että tässä tekoäly on ihmistä parempi esimerkiksi vaihtoehtoisten strategisten polkujen rinnakkaisessa analysoinnissa. Ihmiset tuppaavat kiirehtimään valinnoissa, sillä ihmismieli osaa kuvitella vain harvoja vaihtoehtoisia tulevaisuuksia yhtä aikaa.
”On kehitetty malleja, joiden avulla päätösprosessin loppuun asti pystyttäisiin pitämään useita polkuja rinnakkain mukana”, Vilkkumaa kuvaa.
Siis tekoäly pohdinnan tukena, ei lopullisen version kirjoittajana. Johtajan oman ajattelun laiskistumisen lisäksi tekoälyllä tuotetuissa teksteissä on nimittäin vielä yksi kiistattoman surkea puoli. Ne ovat tylsiä lukea.
”Miksi kukaan vaivautuisi lukemaan jotain, mitä kukaan ei ole vaivautunut kirjoittamaan?”
Kuka?
Eeva Vilkkumaa, 44, on apulaisprofessori Aalto-yliopiston kauppakorkeakoulussa. Hän opettaa liiketoiminnan analytiikkaan ja behavioristiseen päätösteoriaan liittyviä kursseja.
Tutkimuksessaan Vilkkumaa kehittää matemaattisia malleja yritysten ja julkisen sektorin organisaatioiden päätöksenteon ja strategiaprosessien tueksi.
Milloin kuulit tekoälystä ensimmäisen kerran?
”Olin fuksivuonna 1999 käymässä Otaniemessä puheentunnistuslaboratoriossa. Apua, siitä on jo neljännesvuosisata!”
Missä tilanteessa tekoäly on auttanut sinua?
”Kurssien arviointirubriikkien eli kriteeristön luomisessa. Saatan pyytää tekoälyltä, että tekisitkö minulle arviointirubriikin.”
Missä tilanteessa tekoäly on pettänyt sinut?
”Pyysin juuri tekoälyä etsimään minulle kirjallisuusviitteen yhdestä tietystä termistä. Kun sain vastauksen, ajattelin, että nyt kuulostaa vähän epäilyttävältä. Tekoäly vain vakuutteli minulle, että viite oli oikea, vaikka se ei ollenkaan pitänyt paikkaansa. Onneksi tunsin kirjallisuuden itse aika hyvin.”
Tekoäly onnistuu vain, jos siitä ollaan innostuneita

Yritykset, joiden johto suhtautuu tekoälyyn skeptisesti, usein myös epäonnistuvat sen hyödyntämisessä, sanoo Natalia Vuori.
Tuoreen tutkimuksen mukaan 74 prosenttia yrityksistä, jotka ottavat käyttöön tekoälyjärjestelmiä, joko kokevat vaikeuksia tai suorastaan epäonnistuvat uuden teknologian hyödyntämisessä. Aalto-yliopiston apulaisprofessori Natalia Vuori tutkimusryhmineen halusi ymmärtää, miksi.
Yksi mahdollinen syy on, että johtajat pelkäävät menettävänsä kontrollin strategisessa päätöksenteossa ja kokevat, että tekoälyyn luottaminen voisi heikentää heidän omaa rooliaan strategina.
Yhdessä tutkimuksistaan Vuori osallistui seitsemän johtoryhmän työskentelyyn kolmessa eri yrityksessä. Kärpäsenä katossa hän tarkkaili, miten johtoryhmät hyödynsivät tekoälyä strategisessa päätöksenteossa.
”Matkustin eri maihin ja kaupunkeihin seuratakseni johtoryhmien kokouksia ja työpajoja. Haastattelin myös johtajia ennen ja jälkeen työpajojen sekä kävin monia epämuodollisia keskusteluja kahvitauoilla ja lentokentillä.”
Jotkut johtoryhmät käyttivät jo generatiivista tekoälyä strategiatyön tukena. Vuori havaitsi, että tekoäly voi nopeuttaa päätöksentekoa ja parantaa strategiatyön laatua.
Toiset tiimit pysyttelivät perinteisissä työkaluissa, kuten SWOT-analyysissä.
”Näissä tiimeissä vallitsi edelleen vahva usko siihen, että strateginen työ on ihmisten tehtävä. Johtajat olivat ylpeitä roolistaan strategina. Ajatus siitä, että osa tästä prosessista annettaisiin tekoälyn hoidettavaksi, haastoi pitkään muodostuneita ammatillisia identiteettejä. Tämän vuoksi he eivät vain vältelleet tekoälyn käyttöä itse, vaan myös loivat epäluulon ja stigman ilmapiiriä sen käyttöönoton ympärille.”
"Johtajille, jotka lähestyivät tekoälyä uteliaisuudella, kyseessä ei ollut vain muotisana, vaan he onnistuivat tekemään tekoälystä johtamisen työkalun."
Vuoren tärkein havainto nosi kuitenkin johtoryhmistä, jotka suhtautuivat tekoälyyn toisin.
”Johtajille, jotka lähestyivät tekoälyä uteliaisuudella, kyseessä ei ollut vain muotisana, vaan he onnistuivat tekemään tekoälystä johtamisen työkalun. Heidän innostuksensa loi koko tiimiin – ja koko yritykseen – tekoälymyönteisen kulttuurin.”
”Yrityksissä, jotka onnistuvat tekoälyn kanssa, tekoäly- ja IT-asiantuntijat kutsutaan mukaan strategian muotoiluun. Sen sijaan epäonnistuvissa yrityksissä negatiivinen asenne uutta teknologiaa kohtaan näkyy jo arjen toiminnassa”, Vuori sanoo. ”Teknologiaskeptiset johtajat näkevät tekoälyn ja IT:n vain tukitoimintona.”
Vuoren toinen tutkimus paljasti, että yritykset saattavat kamppailla tekoälyn käyttöönoton kanssa myös, koska niiltä puuttuu “tekoälyjohtajuus”. Johtajien on paitsi ymmärrettävä tekoälyn mahdollisuudet, myös rakennettava psykologisesti turvallinen tila sen käyttöönotolle koko organisaatiossa, Vuori toteaa.
”Haaste on, että kaikki työntekijät eivät näe tekoälyä samalla tavalla”, Vuori sanoo. ”Kaikkia ei voi johtaa samalla tavalla. Osa tarvitsee tukea epäluulojen voittamiseksi liittyen tekoälyn luotettavuuteen ja suorituskykyyn, toiset taas pelon ja ahdistuksen kanssa.”
Osin kyse on puhtaasti osaamisvajeesta.
”Vaikka 75 prosenttia yritysjohtajista nimeää tekoälyn yhdeksi kolmesta tärkeimmästä strategisesta painopisteestään, vain keskimäärin 25 prosenttia henkilöstöstä on saanut koulutusta sen hyödyntämiseen. Se yksinään on keskeinen selitys suuren epäonnistumisprosentin.”
Kuka?
Natalia Vuori, 44, on Aalto-yliopistossa tuotantotalouden apulaisprofessori. Tutkimusryhmänsä kanssa hän on selvittänyt, mikä johtaa yrityksissä onnistuneeseen tai epäonnistuneeseen tekoälyn käyttöönottoon.
Tutkimusten tuloksena syntyivät tieteelliset artikkelit Why some companies use generative AI to foster their strategic practices and performance, while others never do ja It’s amazing – but terrifying! Unveiling the combined effect of emotional and cognitive trust on organizational members’ behaviours, AI performance, and adoption.
Milloin kuulit tekoälystä ensimmäisen kerran?
”Kuulin tekoälystä ensimmäisen kerran vuonna 1992 elokuvista The Lawnmower Man ja Terminator. Mutta tavallaan olen aina seurannut tekoälyn kehitystä. Alusta asti tietokoneiden kehittämiseen on liittynyt matemaattisia malleja. Jo vuonna 1950 Alan Turing esitti artikkelissaan Computing Machinery and Intelligence kuuluisan kysymyksen: Voivatko koneet ajatella? Siksi tekoälyhypen alkaessa yllätyin, että sitä pidettiin uutena asiana. Ehkä teknologia- ja insinööritaustani vuoksi tekoäly ei koskaan tuntunut minusta uudelta ilmiöltä. Mutta sitten tuli generatiivinen tekoäly. Se oli jotain mullistavaa.”
Missä tilanteessa tekoäly on auttanut sinua?
”Se auttaa minua jatkuvasti, esimerkiksi opetuksessani. Tekoälyn avulla voin helposti luoda todella cooleja simulaatioharjoituksia opiskelijoille. Se rikastuttaa opetustani. Se on myös valtavan hyödyllinen, kun työskentelen yritysten kanssa.”
Missä tilanteessa tekoäly on pettänyt sinut?
”Se ei ole oikeastaan koskaan epäonnistunut, koska ymmärrän, ettei se voi tehdä työtä puolestani. Tulokset on aina tarkistettava, eikä tekoälyyn voi koskaan luottaa täysin. Se on vain apuri.”