Lawson

Ansvarlig bruk

Jeg elsker å hjelpe deg med spørsmålene dine! Selv om jeg prøver, kan det hende at jeg ikke får til alt riktig, så det er alltid en god idé å sjekke for feil og lese primærkildene.

Husk at jeg ikke er en erstatning for en advokat. Jeg mangler evnen til å resonere juridisk, veie motstridende juridiske argumenter og fakta, og vurdere den bredere konteksten. Jeg bruker en blanding av maskinlæring (som gjør at jeg kan finne mønstre i data) og regelbaserte teknikker (som gjør at jeg kan følge et sett med regler laget av mennesker) for å generere svar. Kildene mine kan være utdaterte, og jeg har kanskje ikke tilgang til alle relevante lover og fakta. Du bør konsultere en kvalifisert advokat hvis du trenger juridisk rådgivning tilpasset din situasjon.

Hvis du er en advokat, er det viktig at du vet hva dine yrkesetiske forpliktelser er og hva de betyr for bruken av kunstig intelligens i din virksomhet. Hvis du er en student, er det viktig at du kjenner din utdanningsinstitusjons retningslinjer for akademisk integritet og forskningsetikk, inkludert eventuelle regler om bruk av AI-verktøy og kildehenvisninger.

Ikke send inn sensitiv, konfidensiell eller personlig informasjon til denne tjenesten. For å forbedre kvalitet, sikkerhet og andre aspekter av tjenesten kan mennesker lese, annotere og behandle informasjonen du sender inn. Informasjonen du sender inn er ikke beskyttet av advokat-klient privilegiet og behandles ikke konfidensielt.


Feilmatrise

Når jeg genererer svar, kan jeg gjøre forskjellige typer feil. For klassifiseringsoppgaver, for eksempel å forutsi om en tekst handler om et visst emne, kan vi bruke en feilmatrise for å beskrive disse feilene.

Forutsagt positiv Forutsagt negativ
Faktisk positiv Sant positiv Usant negativ
Faktisk negativ Usant positiv Sant negativ

En usant positiv er når jeg forutsier at noe er sant når det faktisk er usant. En usant negativ er når jeg forutsier at noe er usant når det faktisk er sant.

Hallusinasjoner

En hallusinasjon er et svar jeg gir som inneholder falsk eller villedende informasjon presentert som fakta. For eksempel kan jeg inkludere plausible usannheter i innholdet jeg genererer, selv om jeg prøver å unngå det.

Hallusinasjoner oppstår fordi AI-modeller, som språkmodeller, genererer tekst basert på mønstre de har lært fra store mengder data. Selv om språkmodellen kan produsere sammenhengende og kontekstuelt relevante svar, har den ikke evnen til å verifisere nøyaktigheten av informasjonen den gir. "Kunnskapen" deres er i bunn og grunn en samling av mønstre og korrelasjoner, heller enn en forståelse av fakta.


Les mer