Pse kompanitë e inteligjencës artificiale duan që ju të keni frikë prej tyre

Ata e ndërtuan. Ata kanë frikë prej saj. Dhe gjithsesi po e shesin.

Ndoshta e keni dëgjuar më parë këtë histori: një kompani teknologjike thotë se ka krijuar një inteligjencë artificiale aq të fuqishme sa është e frikshme. Sipas tyre, është shumë e rrezikshme për t’u lëshuar në botë – pasojat do të ishin katastrofike. Fatmirësisht për ne, ata po e mbajnë të mbyllur për momentin. Thjesht donin që ju ta dinit.

Kjo është pikërisht ajo që kompania Anthropic po pretendon për modelin e saj më të fundit, Claude Mythos. Sipas kompanisë, aftësia e këtij modeli për të gjetur dobësi në sigurinë kibernetike tejkalon ekspertët njerëzorë dhe mund të ketë pasoja që ndryshojnë botën nëse bie në duar të gabuara. “Pasojat – për ekonomitë, sigurinë publike dhe atë kombëtare – mund të jenë të rënda,” deklaroi kompania në një postim në fillim të prillit. Disa komentues madje paralajmëruan se kjo teknologji mund t’ju detyrojë të zëvendësoni çdo pajisje në jetën tuaj për të shmangur kaosin dixhital.

Disa ekspertë sigurie i vënë në dyshim këto pretendime, por kjo nuk është diçka e re. Drejtues të kompanive kryesore të AI-së paralajmërojnë rregullisht se produktet e tyre mund të shkatërrojnë njerëzimin. Atëherë lind pyetja: pse duan që ne të kemi frikë prej tyre?

Është një mënyrë e çuditshme për të folur për produktet e tua. Nuk dëgjon McDonald’s të thotë se ka krijuar një burger aq të shijshëm sa është e pamoralshme ta shesë.

Një teori e mundshme

Sipas kritikëve, kjo strategji u shërben kompanive të AI-së sepse e zhvendos vëmendjen nga dëmet reale që ato po shkaktojnë tashmë. Udhëheqësit e teknologjisë thonë se thjesht po paralajmërojnë për një të ardhme të pashmangshme dhe se siguria është prioritet. Por të tjerë argumentojnë se kjo është frikësim i qëllimshëm, që ekzagjeron potencialin e teknologjisë për të rritur vlerën në treg dhe për të justifikuar mungesën e rregullimit.

Profesoresha Shannon Vallor shpjegon: nëse këto teknologji paraqiten si pothuajse “mbinatyrore” në rrezik, njerëzit ndihen të pafuqishëm dhe mendojnë se vetëm vetë kompanitë mund t’i kontrollojnë ato.

“Ndaleni dikë!”

Një zëdhënës i Anthropic tha se kompania ka qenë transparente për këto çështje, por nuk adresoi drejtpërdrejt kritikat kryesore.

Kjo nuk është hera e parë. Në vitin 2019, kur Dario Amodei ishte te OpenAI, kompania deklaroi se modeli GPT-2 ishte shumë i rrezikshëm për t’u publikuar. Megjithatë, disa muaj më vonë, u publikua gjithsesi.

Edhe CEO i OpenAI, Sam Altman, ka përdorur shpesh këtë retorikë. Në vitin 2015 ai tha se AI mund të çojë në fundin e botës, ndërsa më vonë deklaroi se shqetësohej nëse kishte bërë diçka të gabuar duke publikuar ChatGPT.

Në vitin 2023, figura të njohura si Bill Gates dhe Demis Hassabis nënshkruan një deklaratë ku thuhej se rreziku i zhdukjes nga AI duhet të jetë prioritet global. Po atë vit, Elon Musk kërkoi ndalimin e përkohshëm të zhvillimit të AI-së – dhe pak muaj më vonë krijoi kompaninë e tij të AI-së.

A është Mythos vërtet kaq i rrezikshëm?

Anthropic pretendon se modeli i saj ka zbuluar mijëra dobësi serioze në sisteme teknologjike, duke tejkaluar ekspertët njerëzorë.

Por shkencëtarja Heidy Khlaaf është skeptike. Ajo thekson mungesën e një treguesi kyç: normën e “pozitiveve të rreme”, që tregon sa shpesh një sistem sinjalizon gabimisht një problem. Pa këtë, është e vështirë të vlerësohet sa i dobishëm është modeli.

Gjithashtu, modeli nuk është krahasuar me mjetet ekzistuese të përdorura prej dekadash nga ekspertët e sigurisë. Ka edhe pretendime se kufizimi i publikimit mund të lidhet me mungesë fuqie kompjuterike – diçka që kompania nuk e komentoi.

Kjo nuk do të thotë se rreziku nuk ekziston. AI është shumë e aftë për të analizuar kode të mëdha dhe për të zbuluar dobësi reale. Por pretendimet e mëdha kërkojnë prova të forta.

Pse gjithë kjo dramë?

Si OpenAI ashtu edhe Anthropic thonë se ekzistojnë për të parandaluar katastrofa globale nga AI. Megjithatë, të dyja po synojnë të bëhen kompani publike dhe të rrisin fitimet.

Sipas Shannon Vallor, për të kuptuar një kompani duhet të shohësh interesat e saj. Dhe këto interesa shpesh nuk përputhen me imazhin e “mbrojtësit të njerëzimit”.

Ndërkohë, problemet reale janë të shumta: gabime në sistemet shëndetësore, ndotje nga qendrat e të dhënave, manipulime me deepfake, dhe ndikime negative në shëndetin mendor.

Demonë apo shpëtimtarë?

Në të njëjtën kohë që paralajmërojnë për shkatërrim, disa liderë premtojnë edhe shpëtim. Sam Altman ka folur për një të ardhme me arritje të jashtëzakonshme, ndërsa Dario Amodei ka përmendur një “vend gjenish në një qendër të dhënash”.

Sipas Vallor, utopia dhe apokalipsi janë dy anë të së njëjtës medalje. Të dyja janë aq ekstreme sa e bëjnë të vështirë diskutimin real mbi rregullimin dhe kontrollin.

Por këto nuk janë forca hyjnore – janë produkte të ndërtuara nga kompani për fitim. Dhe njerëzimi ka rregulluar teknologji shumë më të rrezikshme se chatbot-et.

“Asgjë nuk është e paregulueshme,” thotë ajo. “Përveç nëse ne zgjedhim të mos e rregullojmë.”

Le të jemi të qartë: është e mundur teorikisht që AI të marrë kontrollin e botës. Por a ju tingëllon kjo si histori që i kemi dëgjuar më parë?

A nuk duhej të jetonim të gjithë në metaversin e Mark Zuckerberg? A nuk duhej që Bitcoin të zëvendësonte monedhat tradicionale? A nuk thuhej se rrjetet sociale do të shpëtonin demokracinë?

Ndoshta do të ndodhin. Ndoshta jo.