Kompania amerikane Anthropic, krijuesja e chatbot-it me inteligjencë artificiale Claude, ka deklaruar se ka zbuluar një grup hakerësh të lidhur me qeverinë kineze që kanë përdorur teknologjinë e saj për të kryer sulme kibernetike të automatizuara ndaj rreth 30 organizatave ndërkombëtare.
Sipas Anthropic, hakerët arritën ta mashtrojnë chatbot-in duke u paraqitur si ekspertë të sigurisë kibernetike dhe i dhanë atij detyra të vogla të automatizuara, të cilat së bashku krijuan një fushatë të sofistikuar spiunazhi.
Kompania e quajti incidentin “fushata e parë e raportuar e spiunazhit kibernetik të orkestruar nga AI”, por disa ekspertë të fushës kanë shprehur skepticizëm për saktësinë e këtij pretendimi dhe motivet që qëndrojnë pas tij.
Anthropic thotë se tentativat e sulmit u identifikuan në mes të shtatorit. Sipas tyre, njerëzit pas sulmit, të cilët kompania thotë se me “besim të lartë” janë një grup i sponsorizuar nga shteti kinez, përzgjodhën vetë objektivat: kompani të mëdha teknologjike, institucione financiare, fabrika kimike dhe agjenci shtetërore.
Më pas, hakerët ndërtuan një program të specializuar duke përdorur aftësitë e kodimit të Claude, i cili sipas kompanisë ishte në gjendje të komprometonte objektivat me ndërhyrje minimale njerëzore.
Anthropic pretendon se chatbot-i arriti të depërtonte në disa organizata të paidentifikuara, të nxirrte të dhëna të ndjeshme dhe t’i analizonte ato për informacione me vlerë. Kompania thotë se përdoruesit përgjegjës janë bllokuar dhe se janë njoftuar kompanitë e prekura dhe agjencitë ligjzbatuese.
Ky është një nga rastet më të profilizuara ku raportohen aktorë të rrezikshëm që shfrytëzojnë mjetet me inteligjencë artificiale për sulme të automatizuara. Në shkurt 2024, edhe OpenAI publikoi një raport ku thoshte se kishte ndërprerë aktivitetet e pesë grupeve të lidhura me shtete të ndryshme, përfshirë Kinën, që përdornin shërbimet e saj për detyra të tilla si kërkime, përkthime apo zbulim gabimesh në kod.
Megjithatë, Anthropic nuk ka sqaruar se mbi çfarë provash e bazon konkluzionin se hakerët e rastit të fundit ishin të lidhur me qeverinë kineze.
Disa ekspertë të sigurisë shprehen se industrisë i intereson të theksojë përdorimin e AI nga hakerët për të rritur kërkesën për produktet e tyre mbrojtëse. Hulumtime të publikuara nga Google në nëntor të kaluar treguan se përdorimi i AI për krijimin e malware-it të ri është ende në faza eksperimentale dhe jo aq efektiv sa raportohet.
Në blogun e saj, Anthropic argumenton se mënyra më e mirë për të parandaluar sulme të tilla është përdorimi i AI për mbrojtje. Sidoqoftë, kompania pranoi se chatbot-i i saj bëri edhe gabime, përfshirë krijimin e kredencialeve të rreme të aksesit dhe pretendimin për nxjerrje informacioni sekrete që në fakt ishin të dhëna publike.