Tekoäly terapeuttina: suo siellä, vetelä täällä?

Teksti | Teemu Ylikoski

Tekoälyn käyttö laajenee jatkuvasti, ja itsenäiseen päättelyyn ja oppimiseen pystyviä järjestelmiä otetaan käyttöön myös palveluissa, joissa niitä ei ole totuttu näkemään. Järjestelmien vastuullista käyttöä koskee kasvava joukko vaatimuksia ja vaikeita eettisiä kysymyksiä, jotka näkyvät esimerkiksi ajankohtaisessa, nuorten mielenterveyttä koskevassa keskustelussa.

kuvituskuva.
Kuva on tuotettu Leonardo.ai -tekoälyllä.

Sopiiko tekoäly nuorten mielenterveyspalveluun?

Suomessa nuorten mielenterveyspalveluja tarjoava Sekasin-chat on ollut vaikeuksissa, kun sadoissa tuhansissa liikkuvat kävijämäärät ovat ylittäneet vapaaehtoistyönä pyörivän palvelun kapasiteetin. Pahimmillaan vain 20 % apua tarvitsevista nuorista on päässyt läpi. Tammikuussa Sekasin otti käyttöön tekoälybotin, jonka tarkoitus on auttaa silloin, kun chat on suljettu tai ruuhkautunut. Ylen uutisessa kerrotaan, että tavoitteena on ollut rakentaa botti, ”joka toimisi hyvin ja eettisesti ja olisi mielenterveysalan ihmisten eikä teknologiajättien kouluttama”. (Heiskanen 2025).

Samalla viikolla Ylen toinen toimittaja raportoi testanneensa Sekasin-tekoälyä, ja kommentoi palvelua kriittiseen sävyyn. Vaikka tekoäly antaa sinänsä samankaltaisia perusohjeita kuin ihminen ja keskustelee kannustavaan sävyyn, se mm. unohtaa hetki sitten keskustellun asian, pyrkii jatkuvasti vaihtamaan puheenaihetta ja lopulta jättää käyttäjän yksin. (Koskela 2025).

Tietämättä, miten tekoälyn on tarkoitus toimia, ei aidosti voi arvioida sen onnistumista tai epäonnistumista. Tässä tekstissä ei muutenkaan ole tarkoitus arvostella Sekasin-palvelua, joka tekee arvokasta työtä. Esimerkki kuitenkin kuvastaa tekoälyn vastuullisuuteen liittyviä dilemmoja erinomaisesti. Kuvaan seuraavassa kahta keskeistä kehikkoa, joissa nämä korostuvat: kun tekoäly tuottaa hyötyjä, mutta myös huolenaiheita, miten näiden välillä tulisi tasapainoilla? Entä missä kulkevat rajat odotuksille tekoälyn virheettömyydestä, kun samalla hiljaisesti hyväksymme vastaavan inhimillisen toiminnan laadunvaihtelut tai joskus virheetkin?

Tekoälyn eettisten vaatimusten kenttä on laaja ja laajenee

Tekoälyn vastuullinen käyttö on ollut ohjaavana periaatteena Euroopan unionin (2024) harmonisoimassa tekoälylainsäädännössä, jota on pidetty kunnianhimoisena. Lainsäädännön tavoitteista suuri osa liittyy tekoälyn eettiseen ja vastuulliseen käyttöön. Direktiivissä mainitaan laajempana tavoitteena, että tekoälyn tulisi edustaa EU:n arvoja, olla ihmiskeskeistä ja luotettavaa.

Tavoitteistaan huolimatta säädöstä on kritisoitu siitä, että se ei välttämättä auta luotettavan tekoälyn kehittämisessä. Tämä johtuu osaltaan säädöksen monimutkaisuudesta, mutta myös siitä, että siinä yritetään kuvata tekoälyyn liittyvät riskit tiettyjen teknologioiden ja perusoikeuksien vaarantumisen välisinä ilmiöinä. (Kusche 2024). Seuraava esimerkki koulutussektorilta havainnollistaa, miten säädös voidaan nähdä myös oman tavoitteensa esteenä.

Terveysalan ohella myös koulutussektori on tunnistettu korkean riskin alueeksi EU-säädöksessä. Koulutuksessa on neljä osa-aluetta, joissa tekoäly muodostaa suuren riskin: tekoälyn käyttö osana opiskelijavalintaa, tekoälyn käyttö oppimistulosten arvioinnissa, (pl. oppimisprosessin ohjaus), tekoälyn käyttö henkilölle soveltuvan koulutustason arvioinnissa, sekä tekoälyn käyttö automaattisessa koevalvonnassa (Future of Life Institute 2025). Kuten näistä esimerkeistä on pääteltävissä, juridinen kehikko on varsin kapea ja voi rajoittaa tekoälyn kehittämistä myös tavalla, joka tukisi inhimillistä päätöksentekoa ja siten todellisuudessa parantaisi perusoikeuksien toteutumista. Tenttien valvonta, arviointi tai opinto-ohjaus voivat myös ihmisen tuottamana johtaa ei-toivottuihin tuloksiin. Vaikka tekoäly voi tietenkin muodostaa niissä riskin, sillä voi olla myös annettavaa.

Unescon (2022) yleiskokous ottaa kantaa tekoälyn eettisyyteen tavalla, joka laajentaa tarkastelua yksittäisitä teknologioista. Päätöskirjan ajatuksena on, että eettisen tarkastelun kannalta tärkeämpiä ovat toiminnan vaikutukset kuin se, onko kyseessä tekoäly, koneoppiminen, vai tilastollinen ennustaminen. Kuitenkin tekoälyjärjestelmiä rakennettaessa nämä tekniset seikat usein ohjaavat suunnittelua, minkä voi ajatella tekevän tekoälyn toiminnan vedenpitävästä varmistamisesta monimutkaista. Tilanteita, joissa järjestelmä pystyy inhimillistä käyttäytymistä muistuttavaan toimintaan (mm. päättelyyn, oppimiseen, havainnointiin, ennustamiseen) voi esimerkiksi mielenterveyschatissa olla jopa rajaton määrä.

Voiko eettiset haasteet ratkaista tekoälyn hallinnalla?

Nykyisellään tekoälyn toimintaa ei voi mitenkään verifioida kaikissa tilanteissa etukäteen, vaikka massiivisella ennakkokoulutuksella voidaankin tehdä paljon. Oppiva, mukautuva järjestelmä tuottaa uusia vastauksia aiemmin oppimansa pohjalta, ja tilanteita voi testata vasta, kun ne syntyvät. Järjestelmien monimutkaisuus, algoritmien logiikat, tai kielimallien kouluttamiseen käytetyt aineistot voivat näin tehdä tekoälyn eettisyyden aukottomasta varmistamisesta erittäin vaikeaa. Vaikka alkuperäinen tarkoitus olisi eettinen, järjestelmän mukautuva toiminta voi tuottaa yllätyksiä ja jopa toimia päinvastoin suhteessa alkuperäiseen tavoitteeseen.

Turun yliopiston johtamassa konsortiossa on kehitetty tekoälyn vastuulliseen käyttöön opastavaa viitekehystä, jonka on tarkoitus helpottaa kehittyvään lainsäädäntöön vastaamista, eettistä arviointia ja tunnistaa kriittiset avainkysymykset (Artificial Intelligence Governance And Auditing 2025). Malli erottelee avainkysymyksissä ympäristön, organisaation ja itse tekoälyjärjestelmän. Ympäristötaso kuvaa sovellettavan lainsäädännön ja sidosryhmien odotukset, organisaatiotaso strategiset tavoitteet ja arvontuotannon, ja järjestelmätaso tekoälysovelluksen designin, tietomallit ja algoritmit, mutta myös riskienhallinnan, vaatimustenmukaisuuden ja läpinäkyvyyden. Jokaista tasoa koskevat omat hallintaprosessit.

Mallissa tekoälyn hallinta nähdään eri toimintatasojen aikajanoina: esimerkiksi algoritmit muodostavat oman aikajanan, riskienhallinta omansa ja niin edelleen. Aikajanan eri vaiheet etenevät järjestelmän suunnittelusta sen kehittämiseen ja lopulta toiminnan seuraamiseen. Näiden osalta on tunnistettu suuri joukko tarkistuspisteitä, joilla järjestelmän vastuullisen käytön hallinta onnistuu luotettavammin. Haasteelliseksi mallin tosin tekee se, että tarkistuspisteitä on muistilistalla lähes 70 kappaletta.

Tekoälyn hyötyjen ja haittojen tasapaino voi olla veteen piirretty viiva

Vaikka kasvavat vaatimukset monimutkaistavat tekoälyn kenttää, ne ovat tärkeä muistutus. Teknologian kehittyessä joudumme ottamaan uudella tavalla kantaa eettisiin perusasioihin, jotka eivät välttämättä olisi normaalissa arjessa juurikaan esillä, vaikka syytä olisikin. Esimerkiksi harhaanjohtamista, väärinkäytöksiä ja laiminlyöntejä tapahtuu ihmisen tuottamissa palveluissa jatkuvasti.

Ovatko hallinnan periaatteet, EU-lainsäädäntö tai Unescon ohjeiden noudattaminen keino varmistaa, että tekoäly ei toimi tavoitellun vastaisesti? Varmuudella eivät ole. Tekoälyteknologioiden monimutkaisuus, järjestelmien autonominen oppiminen ja kielimallien laajuus tekevät toiminnan täydellisestä ennustamisesta mahdotonta. Siksi keskeisintä ovatkin valvonta ja jatkokehittäminen niin, etteivät virhetilanteet toistu. Tekoäly kehittyy jatkuvasti kouluttamalla, eikä se tässä mielessä ole koskaan ’valmis’.

Koneilta vaaditaan enemmän kuin ihmisiltä. Tämä on toisaalta ymmärrettävää uuden ja pelottavan ilmiön edessä, toisaalta se voi olla esteenä tekoälyn soveltamiselle myös tilanteissa, joissa tekoäly parantaisi inhimillisen toiminnan laatua tai johdonmukaisuutta. Unescon mukaan tekoälyjärjestelmiä tulisi arvioida suhteellisuuden tai tarkoituksenmukaisuuden pohjalta, eli mikä on teknologian vaikutusten ja huolenaiheiden välinen suhde. Vaikka nuoria kuunteleva palvelu tekisi virheitä tai toimisi joskus vastoin odotettua, se voi silti olla kokonaisuutena kestävä, jos sen tuottama palvelu on arvokkaampaa kuin sen mahdolliset haitat.

Tekoäly tuskin pystyy korvaamaan inhimillisen kohtaamisen arvoa tai ammattilaisen antamaa hoitoa, ainakaan aivan lähitulevaisuudessa. Kuitenkin Sekasin-chatissa on kyse palvelusta, jonka tuottavat vapaaehtoiset toimijat, eivät alan ammattilaiset, joka on aliresursoitu ja jonka aukioloajat ovat haastavat. Onko mahdollista, että tekoäly tällaisessa tilanteessa tuottaa arvoa käyttäjälleen, vaikka se käyttäytyisikin kärsimättömästi? Todennäköisesti kyllä.

Laajempana eettisenä kysymyksenä on tietenkin se, onko parempi, että ahdistunut nuori juttelee tekoälyn kanssa kuin se, että hän ei löydä keskustelukumppania ollenkaan. Tähän kysymykseen ei liene yhtä vastausta.

Lähteet

  • Artificial Intelligence Governance And Auditing, 2025. The AIGA AI Governance Framework. Viitattu 23.1.2025. https://ai-governance.eu/
  • Euroopan unioni, 2024. Euroopan parlamentin ja neuvoston asetus 2024/1689 (tekoälysäädös). Euroopan unionin virallinen lehti, FI L-sarja. 12.7.2024. https://eur-lex.europa.eu/legal-content/FI/TXT/?uri=CELEX:32024R1689
  • Future of Life Institute, 2025. The EU Artificial Intelligence Act. Up-to-date developments and analyses of the EU AI Act. Viitattu 23.1.2025. https://artificialintelligenceact.eu/
  • Heiskanen, P. 2025. Tekoälybotti ryhtyy antamaan vastauksia ahdistuneille nuorille. Yle uutiset 15.1.2025. Viitattu 23.1.2025. https://yle.fi/a/74-20137074
  • Koskela, M., 2025. Sekasin-chatti otti käyttöön tekoälyn, joka käyttäytyy kuin kärsimätön ja keskittymiskyvytön ystävä. Yle uutiset 16.1.2025. Viitattu 23.1.2025. https://yle.fi/a/74-20137285
  • Kusche, I., 2024. Possible harms of artificial intelligence and the EU AI act: fundamental rights and risk. Journal of Risk Research, 1 (14)
  • Unesco, 2022. Recommendation on the Ethics of Artificial Intelligence. United Nations Educational, Scientific and Cultural Organization, Paris. https://unesdoc.unesco.org/ark:/48223/pf0000381137
URN http://urn.fi/URN:NBN:fi-fe202501297735

Jaa sivu