Forskare om chattrobotarna: "De tvingas fabulera"

Hur kan det bli så knasigt när AI-roboten ska svara på enkla faktafrågor? Vi frågade forskaren Marco Kuhlmann.

Marco Kuhlmann, är forskare och kan mycket om AI. Han berättar dock att företaget bakom OpenAI släpper mindre och mindre information om hur man arbetar med tekniken, i takt med att tjänsten kommersialiseras. Därför kan det bli svårare för forskare i framtiden att svara på hur chattrobotarna egentligen fungerar.

Marco Kuhlmann, är forskare och kan mycket om AI. Han berättar dock att företaget bakom OpenAI släpper mindre och mindre information om hur man arbetar med tekniken, i takt med att tjänsten kommersialiseras. Därför kan det bli svårare för forskare i framtiden att svara på hur chattrobotarna egentligen fungerar.

Foto: Privat

Västervik2023-05-20 08:00

"Västerviks-Tidningen, Ankarsrumsposten och Gamlebybladet" blir svaret när vi frågar ChatGPT vilka lokala tidningar det finns i kommunen. De två sistnämnda verkar roboten själv ha hittat på. Och så är det faktiskt, i princip, enligt Marco Kuhlmann som är professor på Institutionen för datavetenskap på Linköpings universitet. Chattrobotarna tränas upp på enorma mängder text för att kunna förutsäga nästa ord i en text. Lite som när mobiltelefonen föreslår vad som kan bli nästa ord när du skriver ett meddelande. 

– Det är samma teknik, fast på steroider, säger Marco Kuhlmann. 

Något som chattrobotarna inte tränats på är att ge svaret; "jag vet inte". Den kan därför svara något som verkar helt taget ur luften när den inte vet svaret på en fråga. Som när den påstår att Tomas Ledin är från Västervik. Något som kan låta bra rent språkligt – texten roboten levererar hänger ju ihop – men är helt fel ur ett faktaperspektiv. 

– De tvingas nästan fabulera, de berättar en historia.

undefined
OpenAI är ett forskningsbolag som utvecklar artificiell intelligens.

Enligt Marco Kuhlmann finns det flera risker med AI, som också diskuterats flitigt senaste tiden. 

Dels handlar det om var AI hämtar sin information ifrån. På engelska finns stora mängder material för robotarna att träna på, men inte lika mycket på svenska. Det gör att till exempel källor som Flashback och Familjeliv, där det finns väldigt mycket text att hämta, kan få orimligt stor påverkan.

– En stor risk som många inte riktigt inser är att man inte får någon uppfattning om hur säker den är på saker. Den säger bara saker. Fantiserar ihop något som skulle kunna fungera rent språkligt. 

Om man inte kan lita på AI:n, vad ska man ha den till? 

– De kan bli väldigt bra i vissa specialområden. Grunduppgiften är att prediktera nästa ord, men den kan även tränas på annat. Ett stort användningsområde är att producera välformulerade texter. Man kan använda den till att skriva om en egen text, förbättra den rent språkligt, hitta en röd tråd eller göra den mer målgruppsanpassad. 

Här varnar dock Marco Kuhlmann för ytterligare en risk. Den text man matar in i systemet lämnas över till företaget som kan använda den för att förbättra tjänsten, och man förlorar på så sätt kontrollen över den. Det kan bli ett problem om det handlar om till exempel sekretessbelagd information eller upphovsrättsligt skyddat material. 

Så jobbar vi med nyheter  Läs mer här!