Karhulla on asiaa

AI-FOMO

Kimmo Tapala 10

Tekoäly on niin kuuma aihe, että sen käsittely blogissa tuntuu jopa hieman epämiellyttävältä. Tekoälyssä nähdään sekä lupaus uskomattomasta potentiaalista, joka nostaa ihmiskunnan seuraavalle evoluution tasolle, että uhka sivilisaation ja jopa koko ihmislajin tuhosta. Oma ajatukseni on, että tekoäly ei ole kumpaakaan, mutta näen siinä juuri tällä hetkellä suuren potentiaalin lisäksi paljon pieniä, arkipäiväisiä uhkia.

Iso tämänhetkinen uhka mielestäni on AI:n aiheuttama FOMO, eli pelko siitä, että jos ei nyt panosteta isosti tekoälyyn, jäädään lopullisesti kelkasta. Tämä johtaa siihen, että tekoälyä halutaan hyödyntää paikoissa, joihin se ei sovi tai joissa sillä periaatteessa saadaan ratkaistua jokin yksittäinen ongelma, mutta samalla luotua kourallinen aivan uudenlaisia, vaikeasti korjattavia ongelmia. Laajoihin kielimalleihin perustuvat generatiiviset tekoälysovellukset ovat erinomaisia esim. yhteenvetojen luomisessa isosta tekstimassasta tai suosittelumoottoreiden sydämenä, mutta niitä ei oikeasti pitäisi käyttää tuottamaan eksaktia tietoa tai suunnittelemaan mitään. Tästä hyvä esimerkki on taannoin julkaistu tekoälyn avulla suunniteltu Coca-Cola-maku, joka oli kummallisen makuista nestettä One Dark -teemalla väritetyssä tölkissä. Maku todennäköisesti oli oikeasti aika pitkälti ihmisten tuotos, sillä tekoälyn ”suunnittelemana” tuloksena olisi ollut todennäköisesti tavallista Coca-Colaa. Minusta tämä on FOMOa pahimmillaan.

Tekoäly korvaa asiantuntijan, eikö niin?

Meidän alallamme tekoäly nähdään usein teknologiana, joka tekee koodareista ja isosta osasta muita teknisiä asiantuntijoita työttömiä. Tämä on järkyttävää asiantuntijatyön aliarviointia, mutta tavallaan myös helppo ymmärtää. Kun ChatGPT:tä pyytää tekemään raymarching-tekniikkaan perustuvan mandelbulb-rutiinin toteutettuna WebGL:llä, se pullauttaa melko järkevän näköistä koodia ulos hämmästyttävän nopeasti. Tämä on niin vaikuttavaa, että on aika helppoa ajatella tekoälyn pystyvän korvaamaan kokonaisia kehittäjätiimejä. Tosin… Onkohan se koodi ihan oikein sittenkään? Ja miten se yhdistetään osaksi muuta verkkosovellusta? Ja mitenkäs käy, kun onkin tarve tehdä verkkokauppa, jonka taustalla on ERP-integraatio? Millaisella promptilla lähdetään liikenteeseen, jotta päästään edes jostain päin alkuun? Väittäisin, että tässä aletaan lähestyä niin laajaa ongelmakenttää, että sen kuvaaminen kokonaisuudessaan vaatii aika julmetun suuren konteksti-ikkunan.

Valtavalla konteksti-ikkunallakaan ei silti päästä eroon siitä perustavanlaatuisesta ongelmasta, että kyse on pohjimmiltaan kuitenkin koneoppimisesta. Konetta koulutetaan valtavalla läjällä dataa, jonka pohjalta se osaa generoida uutta hiukan samankaltaista mössöä, joka voisi isohkolla todennäköisyydellä sopia tilanteeseen. Kun puhutaan ohjelmoinnista, tällainen tekoäly osaa tuottaa suhteellisen yksinkertaisissa tapauksissa juuri oikeita tuloksia, mutta kun ratkaisuvaatimukset muuttuvat monitahoisemmiksi, törmätään kahteen ongelmaan:

  1. Tulokset eivät ole eksaktisti oikein
  2. Tulosten oikeellisuutta on vaikea todentaa

Tästä syystä ohjelmoinnin on oltava koneoppimisavusteista, ei koneoppimislähtöistä. Koska apupyörät eivät tee polkupyörän kuljettajaa tarpeettomaksi, ei asiantuntijoidenkaan pitäisi nähdäkseni pelätä työpaikkojensa puolesta.

Tekoälyn pitkä häntä

Tekoälyn kanssa on tuotettu koodia nyt muutama vuosi. GitClearin tekemän analyysin mukaan tekoälyn vaikutus näkyy heikentyneenä koodin laatuna ja kasvaneena koodin vaihtuvuutena (eng. churn). Etenkin koodin vaihtuvuus kertoo tekoälyllä generoidun koodin ongelmista: joko generoitua koodia ei ole alunperin käyty läpi riittävän tarkasti tai tekoälyä on käytetty generoimaan koodia, jota ei ymmärretä. Nämä ongelmat ovat pelottavia varsinkin pitemmällä aikavälillä.

Aikaisemmin rakennettavien järjestelmien koodi on voitu helposti jakaa kahteen joukkoon: omiin toteutuksiin ja kolmannen osapuolen koodiin. Kolmannen osapuolen koodi kattaa erilaiset sovelluskehykset, kirjastot ja verkosta ladattavat laajennukset, jotka yleensä tuodaan osaksi järjestelmää jonkinlaisen riippuvuuksienhallintajärjestelmän kautta. Omat toteutukset sitten ovat juuri ko. järjestelmää varten tuotettua räätälöityä koodia. Nyt osa räätälöidystä koodista ei välttämättä enää olekaan kokonaan itse tuotettua, vaan tekoälyllä generoituna se on kolmannen osapuolen tuottamaa koodia, joka on osa räätälöityä toteutusta. Onko varmaa, että koodi tekee oikeat asiat ja oikein? Ymmärtääkö järjestelmän toimittaja tekoälyllä tuotetun räätälöidyn koodin toiminnan ja onko toimittajalla mahdollisuus ylläpitää koodia? Koodin vaihtuvuuden radikaali kasvu osoittaa, että useissa tapauksissa näistä jompaankumpaan kysymykseen vastaus on ”ei”.

Generatiivisen tekoälyn huima kehitys mahdollistaa entistä laajempien kokonaisuuksien ”koodaamisen”, mutta samalla se sumentaa entisestään organisaatioiden kykyä ymmärtää tuottamaansa koodia. Koska kielimallien ruokana käytetään yhä enenevissä määrin tekoälyn tuottamaa koodia, on uhkana kaikukammioefekti, joka näkyy globaalisti heikentyneenä koodin keskimääräisenä laatuna. Voiko siis tulevaisuudessa olla arkipäivää, että ohjelmistotoimittajat tuottavat aina vain heikkolaatuisempaa koodia, jonka ylläpitoon ja jatkokehittämiseen toimittajilla ei ole tarvittavaa ymmärrystä? Monien mielestä tämä uhkakuva ei eroa nykytilanteesta mitenkään, mutta koskaan tilanne ei ole niin huono, etteikö se voisi mennä pahemmaksi.

Ympäristövaikutuksia mahdotonta arvioida

Kun siirtää katsetta hieman kauemmas omasta navasta, on tekoälyllä helppo nähdä myös muita pitkän aikavälin haittavaikutuksia. Yksi suurimmista näistä on epäilemättä tekoälyn vaikutus ympäristöön. Tekoälyn ympäristövaikutuksia on vaikea arvioida, koska mitään luotettavia lukuja ei ole saatavilla. Tekoälyä käytetään paljon mm. optimoimaan energiankulutusta erilaisissa teollisissa prosesseissa, mutta koska kyse on valtavan laskentaintensiivisestä teknologiasta, on todennäköistä, että tekoälyn ympäristövaikutukset ovat tällä hetkellä nettonegatiivisia. Näenkin ensiarvoisen tärkeäksi, että tekoälyteknologian ympäristövaikutuksista saadaan mahdollisimman pian luotettavaa dataa ja vaikutuksia lähdetään aktiivisesti pienentämään. Tästä päästäänkin sujuvasti toiseen suureen tekoälyn ympärillä olevista ongelmista: toiminnan läpinäkymättömyyteen.

Mystiikka kiehtoo ja pelottaa

Tekoälyn ympärillä on paljon mystiikkaa. Tämä johtuu varmasti osin siitä, että koneoppimiseen pohjautuvien tekoälytoteutusten tuottamia tuloksia on usein erittäin hankala ennakoida, mutta suuri osa mystiikasta on epäilemättä myös markkinointia. Jos jokin teknologia tuntuu toiminnaltaan käsittämättömältä, se herättää uteliaisuuden ja tuntuu kiehtovalta. Vielä kun samaan pakettiin lisätään lupauksia uskomattomista kyvykkyyksistä sekä pelottelua ihmiskunnan tuhosta, on teknologia niin hedelmällistä maaperää FOMOlle, että se muuttuu suorastaan vastustamattomaksi.

Kun jokin teknologian osa-alue hyväksytään yleisesti lähestulkoon magiaksi, ei alalla toimivien yritysten toiminnankaan oleteta tapahtuvan perinteisten lainalaisuuksien mukaan. On ilmeisesti ihan OK, että esim. OpenAI-niminen yritys on toimintansa ja teknologiansa suhteen kaikkea muuta kuin avoin. Mystisyyden suojassa tapahtuvaa touhua tehdään valtavasti: harvassa ovat esimerkiksi ne palvelut, jotka eivät ole salaa ujuttaneet yleisten käyttöehtojen päivitysten mukaan pätkää siitä, että palvelussa olevaa dataa käytetään tekoälyn koulutusmateriaalina. Monelle tämä on OK, koska: ”Mieti niitä mahdollisuuksia!”

Ei meitä niin vain alisteta

Joskus onneksi tulee muistutuksia siitä, että ihan kaikkea ei voi tekoälyn nimissäkään tehdä. Microsoftin yrityskäyttöön tarkoitettuihin Copilot+-järjestelmiin ympätty Recall-tekoälytoiminnallisuus aiheutti niin suuren haloon, että Microsoftin oli pakko muuttaa linjaansa. Silti tulee väkisinkin mieleen, että Recall oli Microsoftin yritys katsoa, missä menee yleisön raja, ottaa siitä askel taaksepäin ja sitten myöhemmin lähteä jälleen hiljalleen hivuttautumaan alkuperäiseen suuntaan.

Laajoihin kielimalleihin perustuva tekoäly on aina jonkinlainen musta laatikko. Kielimallien koulutusdata on usein salaista, eikä koulutettua kielimalliakaan ole läheskään aina saatavilla – ja vaikka olisikin, ei kielimallin tuottamista tuloksista voisi silti saada varmuutta muuten kuin kokeilemalla. Toisaalta kielimallia käyttämällä sen toimintaa tai koulutusdataa ei pysty kovinkaan kattavasti päättelemään. Nämä ominaisuudet luovat kielimalleille valtavan kaupallisen potentiaalin: ne ovat uniikkia aineetonta omaisuutta, jota ulkopuoliset eivät voi kopioida. Ja FOMO sen kuin kasvaa.

Tekoälyn lupaukset

Vaikka koneoppimiseen perustuviin laajoihin kielimalleihin ja niiden päälle rakennettuihin generatiivisiin tekoälysovelluksiin liittyy ongelmia, ne eivät lähtökohtaisesti ole mitenkään huonoa teknologiaa. Ongelmat keskittyvät kentällä toimivien yritysten markkinointilööperiin, ahneuteen sekä piittaamattomuuteen ja alan hirvittävään ylikuumenemiseen. Tekoäly ei ole hopealuoti, joka korjaa kaikki ongelmat, eikä se ole demoni, joka syöksee maailman kadotukseen. Se on teknologiaa, joka voi oikein käytettynä auttaa ratkaisemaan suuren joukon ongelmia ja väärin käytettynä aiheuttaa vähintään yhtä suuren joukon uusia ongelmia.

Generatiiviselle tekoälylle sopivissa käyttökohteissa siitä on oikeasti valtavasti hyötyä. GitHub Copilot on kätevä apu koodarille, ChatGPT:llä saa erittäin hyvin tiivistettyä tietoa isoista tekstimassoista ja Midjourneyllä saa vaivattomasti pullautettua sellaisia tekoälyllä generoidun näköisiä kuvituskuvia. Laajat kielimallit ja niiden päälle rakennettavat sovellukset kehittyvät koko ajan, joten tulevaisuudessa sopivien käyttökohteiden määrän on syytä odottaa kasvavan. Geneerisen tekoälyn (AGI) on sanottu olevan kulman takana, mutta en itse usko, että siihen päästään nykyistä vastaavalla koneoppimisella. Jos geneerinen tekoäly koskaan saadaan aikaiseksi, se voi oikeasti mullistaa maailmaa. Nykyisiä tekoälysovelluksia ei kuitenkaan voi tähän edes verrata.

F niin kuin pelko

Jos tuntuu siltä, että organisaatiosi on tällä hetkellä perässähiihtäjänä tekoälyn suhteen, älä stressaa. Tekoälyä voi hyödyntää monella tavalla ja on todennäköistä, että iso osa organisaatioista käyttää tekoälyä, jotta voi sanoa käyttävänsä tekoälyä. En kiistä, etteikö siitä tulisi ihan oikeaa hyötyä varsin pienelläkin panostuksella, mutta niin tulee ihan perinteisestä prosessikehityksestäkin. On hyvä ajatus miettiä, missä prosesseissa oikeasti tekoälyä on järkevää hyödyntää ja vasta sitten laittaa tekoäly kokeiluun. Jäitä hattuun ja älä anna FOMOn viedä pomoa.

Tykkäsitkö tästä jutusta?

3
6
1
0
Kenttä on validointitarkoituksiin ja tulee jättää koskemattomaksi.
Jaa juttu somessa
Tällä viikolla näitä luettiin eniten
  1. Matomo-analytiikka – eniten käytetyt raportit
  2. Karhu Helsingin hallitus ja strategia uudistuvat – kiihtyvä kasvu ja reilu tulosparannus erottuvat kriisissä kärvistelevällä toimialalla
  3. Miksi sähköposti menee roskapostiin?
Viime aikoina eniten reaktioita herättivät
Ota yhteyttä
Tilaa uutiskirje