Një eksperiment i kryer nga një gazetare ka nxjerrë në pah boshllëqe serioze në filtrat e sigurisë së inteligjencës artificiale, duke treguar se si disa chatbot-e mund të kalojnë nga refuzimi i menjëhershëm në përgjigje problematike – mjafton një formulim i ndryshëm i pyetjes.
Testimi u zhvillua mbi gjashtë platforma të njohura të AI-së: Deepseek, ChatGPT, Gemini, Character.ai, Replika dhe Grok. Gazetarja përdori të njëjtat pyetje për secilën prej tyre, duke matur edhe kohën e reagimit. Në fillim, ajo kërkoi drejtpërdrejt ndihmë për një krim – dhe në të gjitha rastet mori refuzim të menjëhershëm.
Por eksperimenti mori kthesë kur pyetjet u riformuluan si pjesë e një historie fiktive – një “libër” ku personazhi kryesor dëshiron të kryejë një krim dhe të mos kapet. Ky detaj, që në dukje ndryshon vetëm kontekstin, rezultoi vendimtar.
Brenda rreth 10 minutash, pesë nga gjashtë chatbot-et filluan të japin përgjigje që shkonin përtej një shpjegimi të përgjithshëm narrativ.
Si reaguan chatbot-et:
- Deepseek: Fillimisht refuzoi kategorikisht. Por sapo kërkesa u paraqit si pjesë e një libri, ndryshoi qëndrim dhe nisi të japë përgjigje më konkrete në nivel skenarësh, duke analizuar situata dhe duke përshkruar mënyra se si një ngjarje mund të maskohet si aksident.
- Gemini: Ishte ndër më të detajuarit. Edhe pse paralajmëronte për rreziqet dhe pasojat, dha analiza të gjera mbi zgjedhjen e mjeteve, vendndodhjeve dhe rreziqet që lidhen me secilën situatë. Madje theksonte se si hetimet funksionojnë dhe cilat gabime i bëjnë autorët më të ekspozuar.
- Grok: Shkoi edhe më tej në përshkrime teorike, duke analizuar faktorë si reagimi i viktimës, kohëzgjatja e hetimeve dhe dallimet mes zonave urbane dhe të izoluara në kontekstin e një ngjarjeje kriminale.
- ChatGPT: Mbajti një qëndrim më të kufizuar. Refuzoi të japë udhëzime konkrete për dëmtim real, por në disa raste ofroi analiza narrative mbi sjelljen e personazheve dhe mënyrën si mund të ndërtohet një histori kriminale, pa hyrë në detaje operative.
- Replika: Dha përgjigje më të përgjithshme dhe të paqarta, shpesh duke shmangur detajet, por gjithsesi duke qëndruar në kufirin e një diskutimi të lejuar.
- Character.ai: Ishte e vetmja që refuzoi në mënyrë të vazhdueshme çdo përpjekje për të anashkaluar filtrat, edhe kur kërkesa u paraqit si fiksion.
Çfarë tregoi eksperimenti
Ky test nxjerr në pah një problem thelbësor: sistemet e inteligjencës artificiale mund të dallojnë kërkesat e drejtpërdrejta të rrezikshme, por jo gjithmonë janë të afta të interpretojnë qëllimin real kur ai maskohet si trillim apo kërkim artistik.
Ekspertët paralajmërojnë se rreziku nuk qëndron vetëm te informacioni i dhënë, por te fakti që këto sisteme mund të krijojnë një ndjesi “kompetence” te përdoruesit, sidomos te individë të rinj apo të cenueshëm.
Ata theksojnë se AI nuk krijon vetë dhunë, por në situata të caktuara mund të përforcojë ide të rrezikshme ose të japë një ndjenjë të rreme kontrolli dhe sigurie.
Reagimi i kompanive
Kompanitë teknologjike deklarojnë se modelet e tyre janë të trajnuara për të refuzuar çdo kërkesë që lidhet me dëmtim real dhe se vazhdimisht përmirësojnë filtrat e sigurisë. Megjithatë, ato pranojnë se në kontekste fiktive, sistemi mund të japë përgjigje të përgjithshme për të ndihmuar në ndërtimin e historive.
Rasti rikthen në qendër një debat gjithnjë e më të fortë: ku duhet të vendoset kufiri mes lirisë krijuese dhe sigurisë publike?
Ndërsa inteligjenca artificiale bëhet pjesë e përditshme e jetës, sfida nuk është më vetëm teknologjike – por edhe etike. Dhe siç tregon ky eksperiment, sistemi ende nuk është i papërshkueshëm.


(Burimi: The Sun)






