![]() |
Ansvarlig bruk |
Jeg elsker å hjelpe deg med spørsmålene dine! Selv om jeg prøver, kan det hende at jeg ikke får til alt riktig, så det er alltid en god idé å sjekke for feil og lese primærkildene.
Husk at jeg ikke er en erstatning for en advokat. Jeg mangler evnen til å resonere juridisk, veie motstridende juridiske argumenter og fakta, og vurdere den bredere konteksten. Jeg bruker en blanding av maskinlæring (som gjør at jeg kan finne mønstre i data) og regelbaserte teknikker (som gjør at jeg kan følge et sett med regler laget av mennesker) for å generere svar. Kildene mine kan være utdaterte, og jeg har kanskje ikke tilgang til alle relevante lover og fakta. Du bør konsultere en kvalifisert advokat hvis du trenger juridisk rådgivning tilpasset din situasjon.
Hvis du er en advokat, er det viktig at du vet hva dine yrkesetiske forpliktelser er og hva de betyr for bruken av kunstig intelligens i din virksomhet. Hvis du er en student, er det viktig at du kjenner din utdanningsinstitusjons retningslinjer for akademisk integritet og forskningsetikk, inkludert eventuelle regler om bruk av AI-verktøy og kildehenvisninger.
Ikke send inn sensitiv, konfidensiell eller personlig informasjon til denne tjenesten. For å forbedre kvalitet, sikkerhet og andre aspekter av tjenesten kan mennesker lese, annotere og behandle informasjonen du sender inn. Informasjonen du sender inn er ikke beskyttet av advokat-klient privilegiet og behandles ikke konfidensielt.
Feilmatrise
Når jeg genererer svar, kan jeg gjøre forskjellige typer feil. For klassifiseringsoppgaver, for eksempel å forutsi om en tekst handler om et visst emne, kan vi bruke en feilmatrise for å beskrive disse feilene.
Forutsagt positiv | Forutsagt negativ | |
---|---|---|
Faktisk positiv | Sant positiv | Usant negativ |
Faktisk negativ | Usant positiv | Sant negativ |
En usant positiv er når jeg forutsier at noe er sant når det faktisk er usant. En usant negativ er når jeg forutsier at noe er usant når det faktisk er sant.
Hallusinasjoner
En hallusinasjon er et svar jeg gir som inneholder falsk eller villedende informasjon presentert som fakta. For eksempel kan jeg inkludere plausible usannheter i innholdet jeg genererer, selv om jeg prøver å unngå det.
Hallusinasjoner oppstår fordi AI-modeller, som språkmodeller, genererer tekst basert på mønstre de har lært fra store mengder data. Selv om språkmodellen kan produsere sammenhengende og kontekstuelt relevante svar, har den ikke evnen til å verifisere nøyaktigheten av informasjonen den gir. "Kunnskapen" deres er i bunn og grunn en samling av mønstre og korrelasjoner, heller enn en forståelse av fakta.
Les mer
-
"Large legal fictions: Profiling legal hallucinations in large language models" by Matthew Dahl, Varun Magesh, Mirac Suzgun, Daniel E. Ho, Journal of Legal Analysis 16, no. 1 (2024)
-
... we show that LLMs hallucinate at least 58% of the time, struggle to predict their own hallucinations, and often uncritically accept users’ incorrect legal assumptions.
-
-
"GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models" by Iman Mirzadeh, Keivan Alizadeh, Hooman Shahrokhi, Oncel Tuzel, Samy Bengio, and Mehrdad Farajtabar (2024)
This reveals a critical flaw in the models’ ability to discern relevant information for problem-solving, likely because their reasoning is not formal in the common sense term and is mostly based on pattern matching. ... This suggests deeper issues in their reasoning processes that cannot be alleviated by in-context shots and needs further investigation.
We hypothesize that this decline is due to the fact that current LLMs are not capable of genuine logical reasoning; instead, they attempt to replicate the reasoning steps observed in their training data.
- "AI and ethics: Investigating the first policy responses of higher education institutions to the challenge of generative AI" by Attila Dabis and Csaba Csáki (2024)
- "A solicitor’s guide to responsible use of artificial intelligence" by the Law Society of NSW Journal (2023)
- "New York lawyers sanctioned for using fake ChatGPT cases in legal briefs" by Sara Merken, Reuters (2023)
- Zhang v. Chen, 2024 BCSC 285