Hyppää sisältöön
    • Suomeksi
    • På svenska
    • In English
  • Suomeksi
  • In English
  • Kirjaudu
Näytä aineisto 
  •   Etusivu
  • LUTPub
  • Diplomityöt ja Pro gradu -tutkielmat
  • Näytä aineisto
  •   Etusivu
  • LUTPub
  • Diplomityöt ja Pro gradu -tutkielmat
  • Näytä aineisto
JavaScript is disabled for your browser. Some features of this site may not work without it.

Tekoälyn hallusinointi ja hallusinointia minimoivat ja ehkäisevät tekniikat

Miettinen, Risto (2024)

Katso/Avaa
Diplomityö Miettinen Risto (4.895Mb)
Lataukset: 


Diplomityö

Miettinen, Risto
2024

School of Engineering Science, Tietotekniikka

Näytä kaikki kuvailutiedot
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi-fe20241209100334

Tiivistelmä

Tekoäly (AI) on kehittynyt viime vuosina nopeasti ja vaikuttanut ympäri maailmaa eri alojen tapaan tehdä töitä. Se toimii kehityksen promoottorina monilla aloilla, kuten terveyden-huollossa, rahoitussektorilla, vakuutusliiketoiminnassa sekä liikenteen ja logistiikan liiketoiminnassa. Edistyksestään huolimatta erilaiset tekoälyyn pohjautuvat- tai sitä käyttävät järjestelmät eivät ole kaikessa hienoudessaan erehtymättömiä. Yksi esiin nouseva ja samalla erittäin merkittävä haaste on ilmiö, joka tunnetaan nimellä "tekoälyhallusinaatio". Siinä erilaiset, usein LLM-kielimalleihin perustuvat tekoälymallit, tuottavat vastauksia, analyysejä tai ennusteita, joissa annettu tieto ei perustu reaalimaailmaan. Nämä koneen tuottamat hallusinaatiot voivat ilmetä suoranaisena vääränä tietona, virheellisinä koneen tuottamina käännöksinä tai jopa täysin tekaistuna sisältönä, mikä voi heikentää tekoälysovellusten luotettavuutta sekä hidastaa niiden oikeanlaista soveltamista. Tämän diplomityön tavoitteena on tutkia tekoälyhallusinaatioiden syntyperää ja luonnetta, tutkia olemassa olevia tekniikoita ongelman lieventämiseksi tai välttämiseksi sekä ehdottaa soveltuvia menetelmiä tekoälyjärjestelmien kestävyyden parantamiseksi erilaisissa käyttötarkoituksissa.
 
Artificial intelligence (AI) has developed rapidly over the last years and has influenced the ways of working in different fields around the globe. It acts as a promoter of development in many fields, such as healthcare, the financial sector, the insurance business, and transport and logistics businesses. Despite their progress, the various systems based on or using artificial intelligence are not infallible in all their subtlety. One emerging and at the same time very significant challenge is the phenomenon known as "artificial intelligence hallucination", where different artificial intelligence models, often based on LLM language models, produce outputs, analyzes or predictions that are not based on the real world in the presented data or other real world contexts. These machine-generated hallucinations can take the form of outright misinformation, incorrect machine-generated translations, or even completely fabricated content, which can undermine the reliability of AI applications and slow down the proper application of their use. The aim of this thesis is to investigate the origin and nature of artificial intelligence hallucinations, explore existing techniques to mitigate or avoid this problem, and to propose suitable methods for improving the durability of artificial intelligence systems for various purposes.
 
Kokoelmat
  • Diplomityöt ja Pro gradu -tutkielmat [14752]
LUT-yliopisto
PL 20
53851 Lappeenranta
Ota yhteyttä | Tietosuoja | Saavutettavuusseloste
 

 

Tämä kokoelma

JulkaisuajatTekijätNimekkeetKoulutusohjelmaAvainsanatSyöttöajatYhteisöt ja kokoelmat

Omat tiedot

Kirjaudu sisäänRekisteröidy
LUT-yliopisto
PL 20
53851 Lappeenranta
Ota yhteyttä | Tietosuoja | Saavutettavuusseloste