Aalto-yliopisto

Tutkimus: Tekoäly osaa esittää ihmistä uskottavasti verkkokyselyissä ja pilottitutkimuksissa

Jaa
Palkittu tutkimus osoittaa suuret kielimallit jo niin vakuuttaviksi, että arvioijat erehtyivät pitämään niiden kyselyvastauksia jopa aidompina kuin ihmisten vastauksia. Tutkijat toteavat, että tulos kyseenalaistaa joukkoistettujen verkkokyselyjen luotettavuuden.

Suomen tekoälykeskus FCAI:n tutkijat valjastivat äskettäin suuret kielimallit, erityisesti GPT-3:n, tuottamaan avoimia vastauksia videopelien pelaajakokemuksia koskeviin kysymyksiin. Tutkimuksessa selvisi, että vastauksia arvioimaan rekrytoidut ihmiset pitivät tekoälyn luomia vastauksia usein jopa vakuuttavampina kuin oikeita vastauksia.

Tutkimus julkaistiin äskettäin arvostetussa koneiden ja ihmisten vuorovaikutusta käsittelevässä CHI 2023 -konferenssissa, ja se palkittiin siellä yhtenä parhaista tutkimusartikkeleista. 

Suurten maksullisten joukkoistamisalustojen käyttäminen on vakiintunut tavaksi eri tutkimusaloilla, joilla tarvitaan paljon ihmisten tuottamia vastauksia. Esimerkiksi psykologian ja tietotekniikan tutkijat käyttävät Amazonin Mechanical Turkin kaltaisia alustoja tutkimuskyselyjen toteuttamiseen. Nyt julkaistu tutkimus osoittaa, että chat-tekoälyjen tuottamat keinotekoiset haastattelut voivat tarjota laajoille kyselyille ketterän vaihtoehdon erityisesti tutkimuksen alkuvaiheessa, koska niiden avulla voidaan testata tutkimusasetelmaa nopeasti ja edullisesti.

"Kielimallit eivät voi eivätkä saisi korvata oikeita osallistujia, mutta synteettisestä datasta voi olla hyötyä tutkimusideoiden alustavassa pallottelussa ja pilotoinnissa", professori Perttu Hämäläinen Aalto-yliopistolta sanoo.

Tutkijat painottavatkin, että kaikki tekoälyn tuottamiin tietoihin perustuvat havainnot on vahvistettava myös todellisella datalla. 

Tutkimustuloksen kääntöpuoli on, että joukkoistamisten käyttäminen tutkimuksessa voi tulla tiensä päähän.

"Nyt kun suuret kielimallit ovat niin helposti saatavilla, internetistä kerättyihin vastauksiin ei voi enää luottaa. Taloudelliset kannustimet voivat ajaa pahantahtoiset käyttäjät hyödyntämään botteja ja suuria kielimalleja laadukkaiden väärennettyjen vastausten tuottamiseen", Hämäläinen sanoo.

"Saattaa olla aika luopua Mechanical Turkin kaltaisista alustoista todellisen datan keräämiseksi ja palata takaisin suorassa vuorovaikutuksessa vastaajien kanssa tehtäviin kyselyihin.” 

Tutkimukseen osallistui tutkijoita Aalto-yliopistosta sekä Helsingin yliopistolta. Alkuperäinen tutkimusartikkeli: https://dl.acm.org/doi/10.1145/3544548.3580688

Avainsanat

Yhteyshenkilöt

Perttu Hämäläinen
Professori, Aalto-yliopisto ja Suomen tekoälykeskus FCAI
perttu.hamalainen@aalto.fi
0505967735

Linkit

Tietoja julkaisijasta

Aalto-yliopistossa tiede ja taide kohtaavat tekniikan ja talouden. Rakennamme kestävää tulevaisuutta saavuttamalla läpimurtoja avainalueillamme ja niiden yhtymäkohdissa. Samalla innostamme tulevaisuuden muutoksentekijöitä ja luomme ratkaisuja maailman suuriin haasteisiin. Yliopistoyhteisöömme kuuluu 12 000 opiskelijaa ja yli 4000 työntekijää, joista 400 on professoreita. Kampuksemme sijaitsee Espoon Otaniemessä.  

Tilaa tiedotteet sähköpostiisi

Haluatko tietää asioista ensimmäisten joukossa? Kun tilaat tiedotteemme, saat ne sähköpostiisi välittömästi julkaisuhetkellä. Tilauksen voit halutessasi perua milloin tahansa.

Lue lisää julkaisijalta Aalto-yliopisto

Uutishuoneessa voit lukea tiedotteitamme ja muuta julkaisemaamme materiaalia. Löydät sieltä niin yhteyshenkilöidemme tiedot kuin vapaasti julkaistavissa olevia kuvia ja videoita. Uutishuoneessa voit nähdä myös sosiaalisen median sisältöjä. Kaikki tiedotepalvelussa julkaistu materiaali on vapaasti median käytettävissä.

Tutustu uutishuoneeseemme