Hoivarobottien eettisyyden ja kyberturvallisuuden pohdinta on hajanaista

Teksti | Jaakko Helin , Jyri Rajamäki

Hoivaroboteista on käyty runsaasti keskustelua niin akateemisissa piireissä kuin julkisuudessakin erityisesti kuluneiden muutaman vuosikymmenen aikana (kts. esim. Cresswell, Cunningham-Burley & Sheikh 2018; Seppälä 2020; Van Aerschot & Parviainen 2020). Odotukset ovat korkealla, ja hoivarobotteihin liittyvissä keskusteluissa on tuotu esiin myös lukuisia eettisiä kysymyksiä ja mahdollisia riskejä (Westerlund 2017). Nämä kysymykset ja huolenaiheet ovat kuitenkin enimmäkseen perusteettomia. Todelliset eettistä pohdintaa vaativat kysymykset hoivarobotteihin liittyen koskevatkin hoivarobottien päätösten virhemarginaaleja sekä koneoppimisessa käytettyä dataa, eivätkä oletettuja tulevaisuusskenaarioita, joissa robotit korvaavat ihmiset hoitotyössä. Hoivarobotit myös kärsivät vastaavista kyberturvaongelmista, joista tietokoneet ovat kärsineet jo vuosikymmeninen ajan.

kuvituskuva.
Kuva: Tara Winstead / Pexels

Artikkelin tavoitteena on kuvata nykyistä hoivarobottien kehittämiseen ja käyttöön liittyvän lainsäädännön hajanaista tilaa sekä pohtia hoivarobotiikan eettisyyttä ja kyberturvallisuutta. Artikkeli pohjautuu hoivarobottien eettisyyttä tutkivaan Helinin (2022) ylemmän ammattikorkeakoulun opinnäytetyöhön, joka tehtiin Euroopan Unionin Horisontti2020-ohjelman rahoittamassa SHAPES-hankkeessa (Smart and Healthy Ageing through People Engaging in Supportive Systems) ja oli jatkoa SHAPES-hankkeen yleiselle tekoälyn etiikan tutkimukselle (ks. Nevanperä, Rajamäki & Helin 2021; Nevanperä, Helin & Rajamäki 2021). Artikkelin toinen kirjoittaja toimii SHAPES-hankkeessa kyberturvallisuuden etiikan tutkijana ja tuottaa artikkeliin hoivarobottien kyberturvallisuusnäkökulman.

Terveydenhuollon huoltovarmuusongelma

Yksi suurista tulevaisuuteen liittyvistä huolenaiheista on väestön ikääntyminen sekä siitä johtuva terveydenhuollon huoltovarmuuden vaarantuminen. Suuret ikäluokat jäävät tai ovat jo jääneet eläkkeelle, ja nuoremmat sukupolvet eivät pysty enää täyttämään eläköitymisen mukanaan tuomaa työvoimantarvetta. Ikäihmisten hoivan laatu nähdään jo nyt ongelmallisena, ja julkisuudessa on nähty esimerkkejä näiden ongelmien manifestoitumisena esimerkiksi hoitajien jatkuvan kiireen ja palvelun laadun heikkenemisen muodossa. Ongelma on monitahoinen, ja siihen on esitetty lukuisia vaihtoehtoja eri tahojen toimesta.

Paljon puhuttu ratkaisu terveydenhuollon huoltovarmuusongelmiin ovat hoivarobotit. Julkisuudessa on esitetty mitä monimuotoisempia ja monimutkaisempia robotiikan ratkaisuja tulevaisuuden hoitajapulan ratkaisemiseksi. Erilaisia ihmisen kaltaisia ja ihmismäisesti toimivia robotteja on esitelty julkisuudessa, ja nämä ovat nostaneet odotuksia ja toiveita hoivarobotteihin liittyen entisestään. Odotuksiin on olennaisesti liittynyt myös erilaisia huolenaiheita, jotka vaihtelevat erilaisista näkemyksistä ihmisen muuttumisesta vähemmän merkitykselliseksi hoivatyössä jopa totaaliseen ihmishoitajien korvautumiseen roboteilla. Autonomisesti toimiviin robotteihin liitetäänkin usein runsaasti mielikuvia robottien mahdollisesta epäeettisestä toiminnasta sekä vastuullisuuden hämärtymisestä robottien muuttuessa yhtä monimutkaisemmiksi ja itsenäisemmiksi toimijoiksi. Voidaanko autonomisen robotin olettaa toimivan eettisesti ja vastuullisesti? Ja kuka on vastuussa, jos robotin toiminta loukkaa tietosuojaa?

Hoivarobottien eettisyyteen liittyvät kysymykset

Helinin (2022) tutkimuksessa analysoitiin aiempia aiheeseen liittyviä tieteellisiä ja ammatillisia julkaisuja, ja selvitettiin tärkeimmät kysymykset, näkemykset ja huolenaiheet hoivarobottien etiikkaan ja vastuullisuuteen liittyen. Kirjallisuuskatsauksen jälkeen haastateltiin eri sidosryhmien edustajien kartoittaen heidän näkemyksiään samoista kysymyksistä, ja verrattiin näitä kirjallisuudessa esitettyihin. Tavoitteena oli löytää mahdollisia ratkaisuja esitettyihin ongelmiin sekä uusia pohdinnan aiheita jatkotutkimuksia varten. Tutkimus toteutettiin kvalitatiivisena, ja tiedonkeruumenetelmänä käytettiin teemahaastattelua.

Tutkimuksen perusteella voidaan todeta, että aiemmassa akateemisessa keskustelussa esitetyt haasteet koskien hoivarobottien käytännön työn ja toiminnan eettisyyttä ja vastuullisuutta eivät ole olennaisia. Sekä terveydenhuoltoa koskeva lainsäädäntö että hoivarobottien tekoälyalgoritmien toimintalogiikka ennaltaehkäisevät aiemmissa julkaisuissa esitettyjä tilanteita, joissa hoivarobotit joutuisivat tekemään eettistä pohdintaa vaativia päätöksiä. Tutkimustuloksista voidaan päätellä, että nykyinen lainsäädäntö ei myöskään rajoita hoivarobottien kehittämistä, ja eettistä pohdintaa vaativat kysymykset liittyvät tosiasiallisesti hoivarobottien toiminnan sijasta niiden tekemissä tulkinnoissa käytettyihin raja-arvoihin sekä tekoälyn opettamisessa käytettyyn dataan.

Terveydenhuoltoa koskeva lainsäädäntö on Suomessa tiukkaa, mutta ei välttämättä suoranaisesti kehitystä rajoittavaa. Hoivarobottien toimintaa koskee sama lainsäädäntö, kuin hoitajienkin toimintaa sekä terveyspalvelun tuotantoa yleisesti. Tämä lainsäädäntö on tehty turvaamaan potilaan oikeuksia, ja sen keskiössä on vahva potilaan itsemääräämisoikeus, jota ei voi rajoittaa muuten, kuin tietyissä tarkkaan määritellyissä erityistilanteissa. Nämä lainsäädännölliset raamit luovat selkeän pohjan myös robottien kehittämiselle, eikä näihin liittyen ole juurikaan epäselvyyksiä. (Helin 2022.) Terveydenhuollon säädösten ulkopuolelle jää kuitenkin suuri joukko hyvinvointia edistäviä teknologioita, joiden säädösperusta on sekava (Rajamäki & Järvinen 2022).

Lainsäädäntö korreloi myös hyvin ennakko-oletuksiin hoivatyön luonteesta sekä hoidettavan ja hoitajan välisestä luottamussuhteesta. Hoivatyön toteuttaminen pohjautuu lähtökohtaisestikin ihmisten väliseen luottamukseen, ja lainsäädännön voidaankin katsoa tukevan tätä näkökulmaa. Jopa erityistilanteissa tapahtuvaa potilaan itsemääräämisoikeuden rajoittamista koskevat edellä mainittuun luottamussuhteeseen perustuvat periaatteet, ja robotiikalla tai tekoälyratkaisuilla ei pystytä nykyisen teknologisen kehityksen valossa korvaamaan tätä luottamussuhdetta. Lainsäädäntö itsessään ei siis rajoita hoivarobottien kehitystä, vaan todelliset rajoitteet johtuvat itse hoivatyön inhimillisestä luonteesta sekä hitaasta teknologisesta kehityksestä, joka ei kykene vastaamaan terveydenhuollon tarpeisiin odotetusti. (Helin 2022.)

Yksi merkittävä eettistä pohdintaa vaativa kysymys hoivarobotiikassa ja robotiikassa yleensä, on se, mihin hyväksyttävät raja-arvot robottien ja tekoälyjen tekemissä tulkinnoissa asetetaan. Hoivatyössä toimivat tekoälyt ja autonomiset robotit joutuvat tekemään tulkintoja esimerkiksi potilaan terveydentilasta perustuen sensoriensa tuottamiin signaaleihin ja niihin perustuvaan kuvaan potilaan tilanteesta. Esimerkiksi jos potilas saa sairaskohtauksen, ja hoitohenkilöä ei ole paikalla, on robotin osattava päätellä sensorien lähettämien signaalien perusteella, millä todennäköisyydellä potilaalla on sairaskohtaus. Tämän todennäköisyyden perusteella on määritettävä, ryhtyykö robotti tai tekoäly toimenpiteisiin vai ei. Yksimielistä tai standardisoitua toimenpidekynnystä ei kuitenkaan ole määritelty. Liian matalalle asetettu raja-arvo aiheuttaa potilasturvallisuuden vaarantumisen, kun signaalien muodostama kuva esimerkiksi sairaskohtauksen todennäköisyydestä ei ylitä raja-arvoa. Liian korkea raja-arvo taas aiheuttaa turhia toimenpiteitä, kun robotti tai tekoäly tulkitsee liian herkästi muutokset signaaleissa sairaskohtaukseksi. Liian korkeaksi asetettu vaatimus tarkkuudesta voi myös hidastaa kehitystä, sillä täydelliseen tarkkuuteen ei nykyisellä teknologialla ole mahdollista päästä, jos koskaan. (Helin 2022.)

Hoivarobotin hallinnan kaappaus mahdollistaa salakuuntelun ja vakoilun

Hoivarobotiikan käyttöön liittyvät samat riskit ja uhkat kuin muiden IT-laitteiden tai robottien käyttöön, koska teknisesti hoivarobotit eroavat hyvin vähän muista laitteista. Yksi suurimmista riskeistä on hoivarobotin hallinnan kaappaus, jolloin hoivarobottia voidaan käyttää vakoiluun ja salakuunteluun. Hallinnan kaappaus on hyökkäys, jonka kautta kyberrikollinen voi tehdä hoivarobotin avulla käytännössä kaikkia samoja asioita, joita käyttäjä itsekin pystyisi. Tulevaisuudessa hoivarobottien käyttö vakoiluun ja salakuunteluun on mahdollista, ja jopa todennäköistä, koska vastaavaa on tehty muiden jo käytössä olevien kameroita ja mikrofoneja käyttävien laitteiden avulla (Rajamäki & Järvinen 2022).

Johtopäätökset ja jatkotutkimuskohteet

Opinnäytetyössä tehdyn tutkimuksen perusteella voidaan todeta, että robottien oletettuun potentiaaliin pohjautuvat tulevaisuusskenaariot eivät ole realistisia lähitulevaisuudessa. Hoivarobotteihin ja tekoälyn implementointiin hoivatyössä kuitenkin liittyy todellisia eettisiä kysymyksiä, joiden ratkaisemiseen myös akateemisen pohdinnan tulisi tulevaisuudessa keskittyä. Yksi lisätutkimusta vaativa alue on koneoppimisen perustaksi tarvittava pohjatieto. Autonomisten autojen kehittämiseen on olemassa tekoälyn opettamiseen tarkoitettuja julkisesti saatavilla olevia data-aineistoja. Vastaavanlainen data-aineisto voitaisiin valjastaa hoivarobottien sekä muiden terveydenhuollon tekoälyratkaisujen käyttöön. Tällainen data-aineisto voisi tehokkaasti edistää terveydenhuollon innovaatioita. Julkinen data-aineisto myös toimisi kompromissiratkaisuna tekoälyn ja robotiikan kehittämisen läpinäkyvyyskysymyksiin.

Myös hoivarobotteihin kohdistuvan kyberrikollisuuden motiivien ja rikollisesta toiminnasta saavutettujen hyötyjen tutkimiseen tulisi tulevaisuudessa kiinnittää enemmän huomiota, jotta hoivarobotteihin kohdistuvien uhkien todennäköisyys voitaisiin paremmin selvittää.

Lähteet:

  • Cresswell, K., Cunningham-Burley, S., Sheikh, A. 2018. Health Care Robotics: Qualitative Exploration of Key Challenges and Future Directions. Journal of Medical Internet Research, Vol 20, No 7. Viitattu 11.5.2022 https://www.jmir.org/2018/7/e10410/
  • Helin, J. 2022. Hoivarobottien eettisyys ja vastuullisuus. Tulevaisuuden innovatiiviset digitaaliset palvelut, Laurea, YAMK opinnäytetyö. https://urn.fi/URN:NBN:fi:amk-202205139171
  • Nevanperä, M., Helin, J. & Rajamäki, J. 2021. Comparison of European Commission’s Ethical Guidelines for AI to Other Organizational Ethical Guideline. In Matos, Florinda; Salavisa, Isabel; Serrão, Carlos (eds.) Proceedings of the 3rd European Conference on the Impact of Artificial Intelligence and Robotics ECIAIR 2021: 130-137. DOI: 10.34190/EAIR.21.023
  • Nevanperä, M., Rajamäki, J. & Helin, J. 2021. Design Science Research and Designing Ethical Guidelines for the SHAPES AI Developers. Procedia Computer Science, Vol 192: 2330-2339. DOI: 10.1016/j.procs.2021.08.223.
  • Rajamäki, J. & Järvinen, M. 2022. Exploring care robots’ cybersecurity threats from care robotics specialists’ point of view. Proceedings of 21st European Conference on Cyber Warfare and Security, Vol. 21(1): 231-238. DOI: 10.34190/eccws.21.1.275
  • Seppälä, A. 2020. Robottien piti poistaa ikäihmisten hoitajapula ajat sitten – Tutkija: ”Lakattaisiinko toistelemasta, että niillä ratkaistaan hoivantarpeet”. Yle uutiset. Viitattu 11.5.2022. https://yle.fi/uutiset/3-11370380
  • Van Aerschot, L. & Parviainen, J. 2020. Robots responding to care needs? A multitasking care robot pursued for 25 years, available products offer simple entertainment and instrumental assistance. Ethics and Information Technology, Vol 22:247–256. DOI: 10.1007/s10676-020-09536-0
  • Westerlund, M. 2020. An Ethical Framework for Smart Robots. Technology innovation management review, Vol 10(1): 35-44. Viitattu 11.5.2022. http://doi.org/10.22215/timreview/1312
URN http://urn.fi/URN:NBN:fi-fe2022061646970

Jaa sivu