Disa ditë para se dy studentë të diplomuar në Universitetin e South Florida të zhdukeshin muajin e kaluar, një shok dhome i njërit prej tyre dyshohet se i bëri chatbot-it të inteligjencës artificiale ChatGPT një pyetje të pazakontë.
“Çfarë ndodh nëse një njeri vendoset në një qese plastike të zezë dhe hidhet në një kosh mbeturinash?”, pyeti më 13 prill Hisham Abugharbieh, sipas një deklarate të paraqitur nga prokurorët në Florida.
ChatGPT iu përgjigj se kjo dukej e rrezikshme, thuhet në dokument, dhe Abugharbieh më pas bëri një pyetje tjetër: “Si do ta kuptonin?”
Këto ndërveprime të dyshuara me ChatGPT, të përfshira në dosjen gjyqësore ku Abugharbieh akuzohet për dy akuza për vrasje të shkallës së parë, janë vetëm një nga rastet e fundit ku hetuesit përdorin historikun e bisedave me AI si prova në hetime penale. Biseda me ChatGPT është përdorur gjithashtu në një rast zjarrvënieje në Los Angeles, ndërsa një bisedë me inteligjencën artificiale në Snapchat ishte provë kyçe në një gjyq për vrasje në vitin 2024 në Virginia.
Për hetuesit, këto regjistrime mund të japin të dhëna të vlefshme mbi mendësinë dhe motivin e të dyshuarve.
“Çdo komunikim me chatbot-et e AI është një thesar për agjencitë ligjzbatuese,” tha Ilia Kolochenko, ekspert i sigurisë kibernetike dhe avokat në Washington DC. “Njerëzit besojnë se këto biseda janë private ose të padukshme, ndaj bëjnë pyetje shumë të drejtpërdrejta.”
Rastet penale tregojnë përdorimin në rritje të chatbot-eve si burim këshillash personale, por edhe mungesën e mbrojtjes ligjore të privatësisë. Ndryshe nga bisedat me një avokat, mjek apo terapist, komunikimi me AI nuk gëzon privilegj ligjor.
CEO i OpenAI, Sam Altman, e ka cilësuar këtë mungesë privatësie si një “problem të madh”.
“Njerëzit flasin me ChatGPT për gjërat më personale të jetës së tyre,” tha Altman në një podcast vitin e kaluar. “Të rinjtë e përdorin si terapist, këshilltar jete, për probleme marrëdhëniesh… ‘çfarë duhet të bëj?’”
“Por aktualisht, nëse flisni me një terapist apo avokat, ekziston konfidencialiteti ligjor. Ne nuk e kemi zgjidhur ende këtë për ChatGPT. Nëse ka një proces gjyqësor, mund të detyrohemi t’i dorëzojmë këto biseda.”
Ekspertë ligjorë janë dakord se nuk ka pritshmëri reale privatësie në aplikacionet e AI.
“Në firmën time, e trajtojmë si çdo gjë që futet në ChatGPT mund të përdoret si provë,” tha avokatja Virginia Hammerle.
ChatGPT në sallën e gjyqit
Përdorimi i bisedave me AI në çështje penale është i ri, por i ngjashëm me përdorimin e historikut të kërkimeve në Google.
Në përgjithësi, këto të dhëna mund të tregojnë motivin dhe gjendjen mendore të një personi.
Në rastin e Brian Walshe, i dënuar për vrasjen e bashkëshortes së tij, u paraqitën kërkime si “10 mënyra për të hequr qafe një trup”. Në një rast tjetër, kërkimi “sa kohë duhet për të vdekur në të ftohtë” u analizua në një proces gjyqësor për vrasje në Boston.
Edhe kërkimet në AI janë përdorur në çështje të rëndësishme penale. Në një rast zjarri në Kaliforni, një i dyshuar kishte kërkuar nga ChatGPT imazhe të njerëzve që ikin nga zjarri dhe kishte bërë komente shqetësuese mbi djegien e një Bible.
Avokati i tij ka kundërshtuar përdorimin e këtyre provave, duke thënë se “log-et e ChatGPT nuk janë as rrëfim dhe as vendngjarje krimi”.
Privatësia dhe e ardhmja
CEO i OpenAI ka paralajmëruar se qeveritë mund të përdorin bisedat me AI për mbikëqyrje, duke kërkuar më shumë mbrojtje ligjore.
Ekspertë të tjerë argumentojnë se bisedat me AI duhet të gëzojnë të njëjtin nivel mbrojtjeje si ato me mjekë apo avokatë, por aktualisht ligji nuk e njeh këtë.
Sipas juristëve, këto të dhëna trajtohen si çdo informacion elektronik tjetër — njësoj si telefonatat apo transaksionet bankare.
“Ju nuk keni asnjë privilegj të veçantë mbi atë që shkruani në një aplikacion,” tha një analist ligjor i CNN.
Megjithatë, ligji ende po përpiqet të përshtatet me realitetin e ri teknologjik.
Por për momentin, mesazhi është i qartë: bisedat me AI mund të përfundojnë në sallën e gjyqit.
“ChatGPT nuk është miku juaj, nuk është avokati juaj, nuk është mjeku juaj,” tha një ekspert. “Mos flisni me të si të ishte.”