• farsinuce@feddit.dk
    link
    fedilink
    arrow-up
    4
    ·
    edit-2
    23 days ago

    Jeg kan dog godt have mine tvivl om, om AI i sin nuværende form vil være pålidelig nok til at klare disse administrative opgaver uden at hallucinere

    Dén type opgaver, tænker jeg, teknologien efterhånden kan håndtere OK.

    • Manipulation af eksisterende information (f.eks. dét at opsummere eller omstrukturere data) er et godt sted at bruge en LLM som hjælpemiddel.
    • At generere ny data derimod er en anderledes opgave, hvor modellerne oftere risikerer at hallucinere fabulere.

    Især når det kommer til dosering af medicin, […] Jeg synes det er alt for tidligt at give den folks liv i hænderne på den måde.

    Sandt, men ro på. Lad os først prøve med lettere lydreferater (speech-to-text), så må Terminator vente pænt til sin tur 🙂


    Edit: Kilde på term: https://www.beren.io/2023-03-19-LLMs-confabulate-not-hallucinate/