Tekoälyn hallusinointi ja hallusinointia minimoivat ja ehkäisevät tekniikat
Miettinen, Risto (2024)
Diplomityö
Miettinen, Risto
2024
School of Engineering Science, Tietotekniikka
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi-fe20241209100334
https://urn.fi/URN:NBN:fi-fe20241209100334
Tiivistelmä
Tekoäly (AI) on kehittynyt viime vuosina nopeasti ja vaikuttanut ympäri maailmaa eri alojen tapaan tehdä töitä. Se toimii kehityksen promoottorina monilla aloilla, kuten terveyden-huollossa, rahoitussektorilla, vakuutusliiketoiminnassa sekä liikenteen ja logistiikan liiketoiminnassa. Edistyksestään huolimatta erilaiset tekoälyyn pohjautuvat- tai sitä käyttävät järjestelmät eivät ole kaikessa hienoudessaan erehtymättömiä. Yksi esiin nouseva ja samalla erittäin merkittävä haaste on ilmiö, joka tunnetaan nimellä "tekoälyhallusinaatio". Siinä erilaiset, usein LLM-kielimalleihin perustuvat tekoälymallit, tuottavat vastauksia, analyysejä tai ennusteita, joissa annettu tieto ei perustu reaalimaailmaan. Nämä koneen tuottamat hallusinaatiot voivat ilmetä suoranaisena vääränä tietona, virheellisinä koneen tuottamina käännöksinä tai jopa täysin tekaistuna sisältönä, mikä voi heikentää tekoälysovellusten luotettavuutta sekä hidastaa niiden oikeanlaista soveltamista. Tämän diplomityön tavoitteena on tutkia tekoälyhallusinaatioiden syntyperää ja luonnetta, tutkia olemassa olevia tekniikoita ongelman lieventämiseksi tai välttämiseksi sekä ehdottaa soveltuvia menetelmiä tekoälyjärjestelmien kestävyyden parantamiseksi erilaisissa käyttötarkoituksissa. Artificial intelligence (AI) has developed rapidly over the last years and has influenced the ways of working in different fields around the globe. It acts as a promoter of development in many fields, such as healthcare, the financial sector, the insurance business, and transport and logistics businesses. Despite their progress, the various systems based on or using artificial intelligence are not infallible in all their subtlety. One emerging and at the same time very significant challenge is the phenomenon known as "artificial intelligence hallucination", where different artificial intelligence models, often based on LLM language models, produce outputs, analyzes or predictions that are not based on the real world in the presented data or other real world contexts. These machine-generated hallucinations can take the form of outright misinformation, incorrect machine-generated translations, or even completely fabricated content, which can undermine the reliability of AI applications and slow down the proper application of their use. The aim of this thesis is to investigate the origin and nature of artificial intelligence hallucinations, explore existing techniques to mitigate or avoid this problem, and to propose suitable methods for improving the durability of artificial intelligence systems for various purposes.
