Att säga detta till chatgpt kan faktiskt landa dig i fängelse

Att säga detta till chatgpt kan faktiskt landa dig i fängelse
© NextPit

Chatgpt är en kraftfull och flexibel AI -chatbot. Det kan svara på komplexa frågor och till och med diskutera allt du vill med det. OpenAI: s VD Sam Altman har emellertid utfärdat en skarp varning till användare som delar känslig information med chatboten: dina chattar är inte lagligt skyddade och kan användas som bevis mot dig under stämningar.

  • Åsikt: Hur chatgpt utbildar våra barn

Varför du inte ska dela känslig information med AI

Openais chatgpt har vunnit popularitet, med vissa användare som vänder sig till chatboten som terapeut eller livstränare för att dela information om personlig liv och få relevant rådgivning. Även om dessa chattar kan verka privata, noterade företagets VD, Sam Altman, i en ny podcastintervju att dina konversationer saknar lagliga integritetsskydd.

”Jag tror att vi säkert kommer att behöva en juridisk eller en politisk ram för AI,” svarade Altman på Podcaster Theo Vons fråga. Altman fortsatte, ”Så om du pratar med Chatgpt om dina mest känsliga grejer och så finns det som en stämning eller vad som helst, kan vi krävas för att producera det, och jag tycker att det är väldigt skruvat.”

VD framhöll att till skillnad från samtal med en verklig terapeut, advokat eller läkare, som skyddas av privilegium, har interaktioner med chatgpt inte samma lagliga skydd. Detta innebär att OpenAI kan tvingas avslöja dina chattregister om det krävs enligt lag.

AI -chatbots täcks fortfarande inte av rättsligt skydd

Altman sa: ”Vi borde ha samma begrepp om integritet för dina samtal med AI som vi gör med en terapeut eller vad som helst.”

Han tillade att bristen på specifikt integritetsskydd för AI bara nyligen har kommit in i rampljuset och att denna fråga måste tas upp omedelbart.

Konversationer med chatgpt är vanligtvis inte krypterade till slut, och OpenAI: s policy gör det möjligt för dem att se dina chattar för säkerhetsövervakning och utbildning av AI-modellen.

Även om användare kan ta bort sina konversationer, och OpenAI vanligtvis raderar dessa permanent efter 30 dagar baserat på företagets datalagringspolicy, tvingar en pågående rättegång av New York Times och andra nyhetspublikationer nu att behålla alla poster på obestämd tid.

Istället föreslog Altman att användare skulle ha en klar förståelse för sekretesspolicyn för rättvis användning om de planerar att använda AI i stor utsträckning. Alternativt finns det lösningar för att säkerställa en säkrare och privat användning av AI, till exempel att köra liknande modeller offline, som GPT4All av Nomic AI och Ollama.

Använder du chatgpt mycket? Vilka åtgärder föreslår du för att hålla dina chattar säkrare? Vi vill höra dina tankar.

Nyaste artiklar

Relaterade artiklar