Tekoälyn käyttö vaatii älyä tietoturvalta ja toimintapolitiikalta

Tekoälyn kehitys etenee nopeasti ja mullistaa monia nykypäivän töitä, tehtäviä ja toimintatapoja. Suuret kielimallit, kuten ChatGPT, avaavat paljon mahdollisuuksia, mutta murroksessa on myös tietoturvariskejä.  Elmo kertoo, kuinka tekoäly käytetään fiksusti ja mitä jokaisessa organisaatiossa tulisi linjata – itse tai asiantuntijan avulla.

LLM on älyttömän hyvä apu – oikeissa paikoissa käytettynä

Käytännössä kaikki uudet, vuodesta 2023 alkaen julkaistut AI-palvelut perustuvat ns. LLM-malliin. LLM-malli tarkoittaa ”Large Language Model” -mallia, joka on suuri kielimalli.

Nämä ovat tietokoneohjelmistoja, jotka on suunniteltu ymmärtämään, tuottamaan ja käsittelemään ihmiskieltä monimutkaisella tavalla. Ne perustuvat tekoälyyn ja koneoppimiseen, ja niitä koulutetaan suurilla tekstiaineistoilla oppimaan kielen rakenteita, merkityksiä ja käyttötapoja.

Esimerkkejä LLM-malleista ovat OpenAI:n GPT-sarjan mallit (kuten GPT-3 ja GPT-4), jotka kykenevät tuottamaan tekstiä, vastaamaan kysymyksiin, kääntämään kieliä ja suorittamaan muita kielenkäsittelyyn liittyviä tehtäviä. Nämä mallit ovat hyödyllisiä monenlaisissa sovelluksissa, kuten automaattisessa kääntämisessä, chatboteissa, tekstin luomisessa ja tiedonhakujärjestelmissä.

Tekoäly ei analysoi tiedon oikeellisuutta

On tärkeää ymmärtää, ettei LLM-malli ole taikuri, vaan väline, jonka käyttö on tehokasta ja turvallista tiettyyn pisteeseen saakka. Tekoälyn vastaukset perustuvat dataan, mutta eri työkalujen välillä voi olla eroja siinä, mistä tämä data peräisin on.

Esimerkiksi ChatGPT käyttää kaikkea sille syötettyä tietoa, kun taas vaikkapa Azure Open AI ei tallenna sille syötettyä tietoa, vaan hyödyntää muiden mallien dataa. Tekoäly tai LLM-malli ei ole virheetön, sillä sen antamat vastaukset perustuvat sille syötettyyn dataan. Annettu tieto voi olla vanhentunutta tai virheellistä.

Tiedosta riskit, suojele liikesalaisuuksia

On tärkeää tiedostaa riskit, kun käsitellään liikesalaisuuksia tekoälymallien kanssa. Lähtökohtaisesti liikesalaisuudet tai esimerkiksi asiakkaisiin liittyvät asiat eivät kuulu julkiselle tekoälylle tai LLM-mallille.

On olemassa esimerkiksi tapaus, jossa Samsungin työntekijät vahingossa vuotivat huippusalaisia tietoja ChatGPT:n käytön yhteydessä. Tämän seurauksena salaisia tietoja päätyi osaksi mallin käyttäjien yhteistä aineistoa.

Vaikka ChatGPT on parantanut käyttäjien mahdollisuuksia vaikuttaa asetuksiin itsenäisesti, riski on edelleen olemassa. Geneeriset ongelmat ja niiden ratkaisut voivat lähtökohtaisesti olla osa tekoälyn käyttöä; mutta kun liikutaan yritysluottamuksellisen tiedon alueelle, tietoturva nousee etusijalle.

Tekoälyn tuottamien aineistojen analysointi vaatii ihmisen 

Tekoälymallien vastausten validointi vaatii myös ihmisen osallistumista, ja tämä on osaltaan myös tietoturvakysymys. Vaikka tekoäly voi luoda näennäisen vakuuttavia vastauksia, ne perustuvat silti vain aineistoon ja voivat sisältää virheitä. Ilman ihmisen arviointia ja tarkastusta, virheet voivat päästä julkisiksi ja aiheuttaa ongelmia. Julkisten palveluiden (ChatGPT, Copilot Bing yms.) ongelmat ovat yleisimmin seuraavia:

  • Tieto voi olla vanhentunutta
  • Tieto voi olla virheellistä
  • Tieto on julkista (= kaikkea mitä ohjelmaan syötät käytetään mallin parantamiseen).
  • Vaikka ChatGPT tarjoaa mahdollisuuden viestihistorian unohtamiseen, se ei silti tee sinne syötetystä asiakas- tai liiketoimintasovellus-tiedosta yksityistä. 

Hyödynnä tekoälyä fiksusti – muun muassa tähän

Tekoälyn käyttöä koskevat toimintapolitiikat on syytä linjata liiketoiminta-alasta riippuen, mutta yleisesti ottaen muutamia hyväksyttäviä tapoja hyödyntää tekoälyä ovat muun muassa seuraavat tehtävät: 

  • Microsoftin lisenssiin ja tenantiin kiinnitetyt palvelut; mm. M365 Copilot, Azure Copilot
  • OpenAI ChatGPT Team & Enterprise -versiot

Mitä organisaation tulisi tehdä, jotta tekoäly valjastetaan voimaksi – eikä päästetä kasvamaan riskiksi? 

Jokaisen organisaation, joka jo käyttää tekoälyä tai harkitsee sen hyödyntämistä töiden ja tehtävien suorittamisessa, on syytä itse tai asiantuntijan avulla tehdä seuraavat toimenpiteet:

  • Kartoittaa tekoälyn käyttöä organisaation hyödyksi → miettiä, onko mahdollisuutta hyödyntää avoimia LLM-malleja ja mihin tulisi vetää raja.
  • Tarpeen mukaan palveluiden kieltäminen, mikäli se koetaan organisaatiossa välttämättömäksi esimerkiksi liiketoiminta-alan takia. Kieltäminen tulisi tehdä politiikalla sekä teknisesti palveluiden käyttämistä rajoittamalla.
  • Hankkia tarpeen mukaiset työkalut tekoälyn tai LLM-mallin käyttämiseen.
  • Sopia yhteiset pelisäännöt tekoälyn käytölle.
  • Luoda tekoälyn käyttöä koskeva organisaation laajuinen politiikka mahdollisine sanktioineen.
Elmo on nopeasti kasvava yritysten ICT-palveluiden ulkoistuskumppani, joka on panostanut vahvasti tieto- ja kyberturvallisuuteen.

Apunasi tietoturvallisessa tekoälyn käytössä on ISO/IEC 27001:2022 -sertifioitu Elmo. 

Ollaan yhteydessä,
Elmo

Tehdäänkö yrityksestäsi parempi?