Ekspertët paralajmërojnë: Mos besoni gjithçka që do t’ju tregojë inteligjenca artificiale..!

Ekspertët paralajmërojnë: Mos besoni gjithçka që do t’ju tregojë inteligjenca artificiale..!

Një nga rreziqet e mundshme të përdorimit të inteligjencës artificiale është shfrytëzimi i saj për të krijuar kode me qëllim të keq.
Megjithëse krijuesit e robotëve të komunikimit me AI përpiqen të parandalojnë përdorime të tilla, hulumtimi i kryer nga IBM ka treguar se ekziston një mënyrë për t’i kapërcyer këto pengesa. Shqetësues i veçantë është se nuk kërkohen njohuri të veçanta ose njohuri për kodimin për të mashtruar AI dhe për të kryer një sulm kibernetik.



Në një raport, ekspertët e IBM përshkruan se si ishin në gjendje të shkruanin kod me qëllim të keq dhe të gjenin këshilla të këqija sigurie me modele gjuhësore si “Chat-GPT”. Sipas ekspertëve, mjafton të njohësh gjuhën angleze dhe të kesh njohuri bazë për mënyrën se si funksionojnë këto modele gjuhësore.


Ekspertët manipuluan pesë modele të ndryshme gjuhësore për të marrë informacion se si të kryheshin sulme me qëllim të keq.
“Ajo që kemi mësuar është se anglishtja është bërë në thelb një “gjuhë programimi” për malware,” shkroi një nga studiuesit, Chenta Lee.

Raporti thekson gjithashtu se ekspertët ishin në gjendje të merrnin një model gjuhësor për të zbuluar të dhëna financiare konfidenciale për përdoruesit e tjerë. Për më tepër, ekspertët vlerësojnë se përdoruesit do t’i përdorin këto modele gjuhësore për të kërkuar këshilla sigurie, por ato mund të jenë të gabuara.




Nga aty theksojnë se është e nevojshme të aplikohen praktikat më të mira të sigurisë për të reduktuar rrezikun e një sulmi. Ndër të tjera, duhet të injoroni emailet e panjohura dhe të dyshimta, të mos hyni në faqet e internetit të dyshimta, të përdorni teknologjinë që e dini se është e sigurt, të përditësoni rregullisht pajisjet dhe të kontrolloni rregullisht informacionin e marrë me një model gjuhësor si “Chet-GPT”.

/ina

 

Advertisement