Esittelimme yhdessä Oulun yliopiston Anni Silvolan kanssa “Tekoäly opiskelijan tukena” -webinaarissa 9.6.2023 ensimmäisiä havaintojamme tutkimuksesta, jossa selvitetään toisen asteen opiskelijoiden käsityksiä tekoälystä opiskelijan tukena. Tässä blogipostauksessa esitän tiivistelmän webinaariesityksestä sekä yleisön kommenteista.
Tutkimuksen taustalla on havainto siitä, että väärinkäsitykset tekoälyn kyvykkyydestä voivat aiheuttaa suuria ongelmia eri konteksteissa. Esimerkiksi New Yorkissa juristi käytti ChatGPT:tä aiempien oikeustapausten tutkimiseen – ja päätyi lainaamaan oikeustapausta jota ei oikeasti ollut edes olemassa. Entä ChatGPT:n käyttö opiskelukontekstissa? Pikaisen aineistohaun perusteella opiskelijoiden käsityksistä ChatGPT:stä tai tekoälystä yleisemmin ei löytynyt vielä kovinkaan paljoa empiiristä tutkimusta, joten päätimme tarttua aiheeseen.
Tutkimusasetelma
Mitkä asiat vaikuttavat teknologian tai tekoälyn käyttöön oppimisen tukemisessa? Mielenkiintoisia teemoja ovat muun muassa käsitykset siitä, mihin tekoäly pystyy (miten sitä voidaan käyttää, mitä se oikeastaan on ja mitä se voi tietää), opiskelijoiden yksilölliset opiskelutaidot ja -valmiudet sekä luottamus teknologioita kohtaan ja yksityisyyden rajat. “Nämä kaikki johtavat isoihin kysymyksiin siitä, mitä tekoälystä pitäisi opettaa opiskelijoille”, Anni kertoi webinaarissa. Yleisiä tekoälyyn liittyviä käsityksiä ovat muun muassa, että “tekoälyllä on tunteet”, “tekoäly on verrattavissa ihmisen aivoihin” ja “tekoäly toimii samankaltaisesti kuin ihminen”. Kaikkiaan nykyään on yhä vaikeampi hahmottaa, milloin olemme vuorovaikutuksessa tekoälyn kanssa. Ymmärrys tekoälyn toimintaperiaatteista on keskeinen osa tekoälylukutaitoa. Lisäksi ymmärrys tekoäly toiminnasta lisää työkalujen läpinäkyvyyttä käyttäjille.
Luodussa tutkimusasetelmassa opiskelijat käyvät pienryhmissä läpi erilaisia skenaarioita (matemaattisen käsitteen ymmärrys, jaksaminen, univaikeudet, tulevaisuuden suunnitelmat), joissa pyydetään apua botilta (ks. aiempi postaus GPT4-botin toteutuksesta). Jokaisen skenaarion jälkeen botin kanssa käyty keskustelu käydään lyhyesti uudelleen läpi niin, että opiskelijat kertovat ajatuksistaan liittyen keskustelun eri vaiheisiin (stimulated recall). Skenaarioiden jälkeen seuraa teemahaastattelu, jossa opiskelijat saavat laajemmin reflektoida ajatuksiaan ja pureutua käsityksiin tekoälystä. Koeasetelmaa pilotoitiin toukokuussa 2023, ja varsinainen aineistonkeruu alkaa syyskuun aikana.
Pilotoinnin havainnot
Pilotoinnissa suunniteltu tutkimusasetelma havaittiin pääosin toimivaksi, vaikkakin pieniä muutoksia varmasti vielä tehdään ennen varsinaista aineistonkeruuta. Botin kehittämisen kannalta erittäin mielenkiintoisia olivat opiskelijoiden ajatukset kunkin skenaarion päätteeksi (stimulated recall -haastattelu). Opiskelijoita mietitytti etenkin, mitä tarkkaan ottaen tapahtuu jos botille antaa luvan välittää tiedon henkilökunnalle. Näkyykö koko keskusteluhistoria koulun henkilökunnalle, vaiko vain jonkinlainen tiivistys? Kenelle kaikille se näkyy? Tähän tarvitaan selvästi tarkennuksia. Yksi vaihtoehto voisi olla tarjota opiskelijoille erilaisia vaihtoehtoja erilaisten tilanteiden varalle.
“Must tuntuu et vähän pienemmissä asioissa, vaikka jossain koulustressissä, se ois ihan ok. Mut jos mun perheessä olis alkoholisti-isä ja mä kerron siitä, ni en mä välttämättä suoraan haluis et tää kaikki tieto mitä mä kerron botille lähtee jolleki, niiku koulun henkilökunnalle”
– Opiskelijan kommentti stimulated recall -haastattelussa
Haastatteluissa pureuduttiin syvemmälle opiskelijoiden ajatuksiin tekoälystä. Esimerkiksi kysymykseen siitä, mitä kaikkea botin ajatellaan lähtökohtaisesti tietävän opiskelijasta, saatiin hyvin erilaisia vastauksia:
“En mä usko et se mikään vakooja on mikä repii mun kaikki tiedot jostain netistä.”
“No josse näkee puhelinnumeron, niin kylhän kaikki tiedot on tuol jossain tietokannassa, ni siit se voi ehkä… no en, en kyl usko se sielt saa noit niinku omii tietoi… mut kai seki nyt niinku on mahollista”
“Kai toi jos toi on koulun botti, kai se olis hyvä että se tietää sun opiskelutaustan, että minkälaisia sun arvosanat on ollu ja, onko sulla jotain merkintöjä siellä taustalla että, sulla on paljon poissaoloja tai jotain väkivaltaa tai niinku että oot huonosti suoriutunu”
Samoin kysymykseen siitä, mihin botin toiminnan ajatellaan perustuvan:
“Joku sen on koodannu et, mitä pitää vastata, jos tulee joku kysymys.”
“Se on vähä niinku Google”
“Voi olla et on otettu jotain 10 000 WhatsApp keskustelua jostain tungettu ne siihen tekoälyohjelmaan ja sit se tekoäly on silleen, hmm, mitäs mä näillä tekisin?”
Webinaariyleisön kommentit
Webinaari-yleisö osallistui myös erittäin aktiivisesti keskusteluun ja kommentointiin aiheeseen liittyen. Yleisesti ottaen tekoälyn tuoma yhteiskunnallinen murros herätti paljon keskustelua:
“Tekoäly ja se käyttö on tuleva kansalaistaito”
“Minua huolestettaa mitä tekoälyn murros tekee totuudelle. Tai siis, ihmiset ovat tottuneet uskomaan silmiään. Nykyiset kuvia tuottavat tekoälyohjelmat ovat jo melkein siinä, että kuka tahansa voi tehdä minkä tahansa kuvan. Jotenkin pelottaa, mitä tämä tekee ‘suurille kansan joukoille’, jos emme saa tätä viestiä läpi. Ja jos ihminen ei voi luottaa silmiinsä, mihin sitten enää luotetaan?”
Toisaalta myös konseptista, jossa bottia käytetään avun pyytämiseen, saatiin kommentteja jotka vastasivat hyvin myös opiskelijoiden havaintoja:
“Tulee hieman epämääräinen olo tuosta botin vastauksesta ‘kerron koulun henkilökunnalle’ kun siinä ei tarkenneta kenelle/keille/kuinka monelle. Olisi hyvä ehkä yksilöidä kenelle tieto menee ja missä muodossa?”
“Ottaahan koulu varmasti yhteyttä opiskelijaan ja tarpeeksi nopeasti!? Siis opiskelijaterveydenhuolto tms.”
“Olen samaa mieltä siitä, että nimenomaan avoimesti ja yhdessä opiskelijoiden kanssa kannattaa näitä asioita edistää.”
Kuten aiemmin todettu, seuraavassa kehitysvaiheessa on erityisesti tarkennettava, mitä käytännössä tarkoittaa jos botti välittää asian henkilökunnalle – ja toisaalta varmistettava, että henkilökunta on varautunut botin kautta tuleviin tukipyyntöihin. Myös jatkuva ja avoin opiskelijoiden ajatusten ja kokemusten kerääminen on suorastaan edellytys tekoälyn vastuulliselle hyödyntämiselle.
Lisäksi kommenteissa kyseltiin muutamista teknisistä yksityiskohdista, joihin voin tässä yhteydessä vastata:
“Onko tuo jotenkin suojattu tuo keskustelun sisältö? Ettei se mene opetusdataksi Open AI:lle?”
“Nyt kiinnostaa ihan tuo tekninen toteutus: Miten botti on kytketty puhelinnumeroon ja Whatsappiin?”
Kun Open AI:n kielimalleja käytetään rajapintojen kautta, dataa ei käytetä opetusdatana (Enterprise privacy at OpenAI: “Data from ChatGPT Enterprise and the API Platform isn’t used for training our models”). Tekniseen toteutukseen liittyvät siis sekä GPT API että WhatsApp API ja niiden hyödyntäminen omassa sovelluslogiikassamme – jotta keskustelu botin kanssa on loogista ja mielekästä, jokaiseen uuteen rajapintakutsuun on liitettävä sen hetkisen keskustelun aiempi viestihistoria.
Mitä seuraavaksi?
Pilotointihavaintojen sekä saatujen kommenttien perusteella bottia hienosäädetään hieman varsinaisia tutkimustiedonkeruita varten. Olemme myös jatkaneet perehtymistä aiheeseen liittyvään teoriataustaan, ja jatkokehitämme opiskelijoille osana tutkimusasetelmaa esitettäviä skenaarioita yhdessä opinto-ohjauksen ja opiskeluhuollon ammattilaisten kanssa. Sen jälkeen vuorossa ovat varsinaiset tiedonkeruut, jotka toteutetaan muutamassa suomalaisessa toisen asteen oppilaitoksessa. Ensimmäiset tulosjulkaisut saadaan todennäköisesti vuoden 2024 puolella.