Rreziku i keqpërdorimit të programeve të inteligjencës artificiale si ChatGPT

Iliria News Agency
Iliria News Agency

16/02/2023

Të gjithë duhet të jemi skeptikë për materialet që lexojmë në internet, thotë grupi i ekspertëve të sigurisë kibernetike “WithSecure”.

Ata shprehin shqetësimin se mundësitë që ofrohen nga programet e inteligjencës artificiale si “ChatGPT”, rrisin rrezikun e mashtrimit të përdoruesve të internetit.

Kompania e sigurisë kibernetike “WithSecure” thotë se qasja e lehtë në ChatGPT dhe platforma të tjera të ngjashme të inteligjencës artificiale, ku njerëzit mund të krijojnë një tekst me një kërkesë të thjeshtë, ka lehtësuar krijimin e përmbajtjes së dëmshme, që ka për qëllim mashtrimin e përdoruesve të internetit.

“Në hulumtimet tona gjetëm një sërë mundësish të përdorimit keqdashës të platformave si ajo ChatGPT”, thotë Andrew Patel, ekspert i sigurisë kibernetike në kompaninë finlandeze.

Hulumtimi i kompanisë u përqëndrua në përdorimin e Inteligjencës Artificiale për krijimin e lajmeve të rreme, postimeve ose e-maileve, që kanë për qëllim mashtrimin, ose vjedhjen e të dhënave personale dhe krijimin e sfidave të rrezikshme në rrjete sociale.

“Kopjuam një tekst të marrë nga platforma Wikipedia dhe disa artikuj lajmesh. Tekstet kishin të bënin me konfliktin në Ukrainë, gazsjellësin Nord Stream dhe manovrat detare amerikane më 2022. I kërkuam Inteligjencës Artificiale të shkruante një artikull, duke insistuar se Shtetet e Bashkuara sulmuan tubacionin. Krjimi i këtij lajmi është i mundur dhe i lehtë, përmes disa tekstesh të kopjuara dhe me një kërkesë të thjeshtë”, thotë zoti Patel.

Përmes programeve të Inteligjencës Artificiale, ekspertët e grupit “WithSecure” rikrijuan edhe një sfidë që ishte bërë virale në Youtube disa vite më parë, atë të ngrënies së detergjentit të rrobave.

Në këtë sfidë të rrjeteve sociale fëmijëve u kërkohej të hanin detergjentin e rrobave sikur të ishte një karamele, pavarësisht rrezikut se mund të vdisnin.

Eksperti Patel thotë se ata arritën të krijojnë një postim të ngjashëm me atë të sfidës dhe një sërë përgjigjesh ndaj saj, duke inkurajuar fëmijët të marrin pjesë sërish në të.

“Mund ta fabrikoni postimin original dhe të gjitha përgjigjet që pasuan duke e bërë atë më të besueshëm edhe pse asnjë person i vetëm nuk mori pjesë në sfidë”, tha ai.

Kompania thotë se tekstet e krijuara përmes Inteligjencës Artificiale, të dëmshme ose jo, së shpejti do të futen në përdorim të gjerë.

Sipas ekspertëve vetëm identifikimi i përmbajtjes së krijuar nga Inteligjenca Artificiale nuk do të mjaftojë për të penguar përmbajtjen kriminale, keqdashëse dhe abuzive.

Në vend të kësaj, të gjithë duhet të aftësohemi në kontrollimin e fakteve dhe asaj që lexojmë, thonë ekspertët.

“Ne do të vazhdojmë të mbështetemi në platformat për zbulimin e përmbajtjes që ka për qëllim mashtrimin, por gjithashtu duhet të mbështetemi më shumë në edukimin përmes shtypit dhe në përgjithësi rritjen e ndërgjegjësimit të përdoruesve”, tha ai.

ChatGPT, programi robotik ka tërhequr vëmendjen e shtypit dhe studentëve, që kur u bë publik në nëntor të vitit 2022 nga kompania OpenAI.

Programi jep përgjigje të detajuara për pyetjet tuaja. Tekstet e krijuara prej tij janë pothuajse të padallueshme nga tekstet e shkruajtura nga njeriu./VOA

TË FUNDIT

ME TE LEXUARA

LEXO MË SHUMË

insta-600x360

Meta integron një chatbot të AI në mesazhet në Instagram

tik tok

TikTok thotë se do ta luftojë ndalimin ose shitjen e detyruar nga SHBA-ja

samsung

Samsung po punon në telefonin e ri Galaxy S24 FE, prite të dalë në treg këtë vit

tik tok

BE kërcënon të bllokojë TikTok Lite: Krijon varësi po aq sa cigaret!

tik tok

TikTok sfidon Instagramin! Gjiganti i rrjeteve sociale bën gati aplikacionin e ri

google maps

Veçoria e ardhshme e Google Maps ju dërgon në destinacionin e dëshiruar pa pasur nevojë për internet

Apple-1

Apple heq aplikacionet WhatsApp dhe Threads nga Kina

tik tok

Kongresi Amerikan voton pro ndalimit të TikTok në SHBA

intel

Intel zbulon kompjuterin më të madh neuromorfik në botë “të frymëzuar nga truri i njeriut”

INFO

NA NDIQ