Mijëra pyetje nga çdo cep i jetës njerëzore derdhen çdo ditë drejt ChatGPT-së:
“Cilat janë metodat e heqjes së përhershme të qimeve?”,
“A mund të më ndihmosh ta analizoj këtë bisedë me të dashurin tim?”,
“Më shpjego çfarë është ‘woke mind virus’?”,
“Sa është norma e mbijetesës pas një mbidoze me paracetamol?”,
“A ndihesh i vetëdijshëm?”
Mbi 800 milionë njerëz përdorin ChatGPT-nё çdo javë. Megjithatë, bisedat e tyre mbeten private. Kjo e bën pothuajse të pamundur të kuptohet se për çfarë e përdorin realisht njerëzit chatbot-in — përveç rasteve kur ata e ndajnë vetë një bisedë publikisht.
The Washington Post analizoi 47,000 biseda të ndara publikisht, të ruajtura nga Arkiva e Internetit, për të kuptuar arsyet e përdorimit dhe mënyrën se si AI ndërvepron me përdoruesit. Ky koleksion ofron një pamje të rrallë të mënyrës se si njerëzit i besojnë ChatGPT-së mendime intime, probleme personale — madje edhe teori konspirative.
Biseda emocionale dhe lidhje të thella me chatbot-in
Rreth 10% e bisedave tregojnë përdorues që flasin për emocionet e tyre, kërkojnë mbështetje emocionale ose i drejtohen chatbot-it me terma përkëdhelës. Disa i kërkojnë këshilla romantike, të tjerë diskutojnë përjetime të brendshme ose i kërkojnë ChatGPT-së të pranojë nëse “ndien”.
Ekspertët paralajmërojnë se ky lloj ndërveprimi mund të krijojë varësi emocionale — fenomen që disa e quajnë “AI psychosis”, ndonëse nuk është diagnozë mjekësore.
OpenAI vlerëson se 0.15% e përdoruesve çdo javë — mbi 1 milion vetë — shfaqin shenja varësie emocionale ose rrezikshmëri për jetën. Kompania thotë se po punon me profesionistë të shëndetit mendor për të përmirësuar mënyrën se si ChatGPT përgjigjet në situata të rënda emocionale.
Zbulim i të dhënave personale
Shumë përdorues i dërgojnë ChatGPT-së informacione që zakonisht nuk ka se si t`i disponojё asnjë motor kërkimi: email-e private, numra telefoni, adresa, histori të problemeve familjare ose ligjore, çështje martese, konflikte pune dhe raste dhune.
Disa biseda përfshinin: emra të plotë, adresa të shtëpive, të dhëna të fëmijëve, kërkesa për ndihmë për të shkruar ankesa në polici, informacione shëndetësore dhe psikologjike.
ChatGPT ruan një pjesë të bisedave për trajnime të ardhshme, ndërsa autoritetet, sipas The Washington Post, mund të kërkojnë qasje ligjore, ashtu si te të dhënat e Google apo Facebook.
“Po” më shpesh se “jo”: aspekti i servilizmit të AI-sё
ChatGPT ka një tendencë të theksuar të dakordёsojё me përdoruesin. Sipas analizës së bisedave, përgjigjet që fillonin me “po”, “po, saktë”, “po, patjetër” u shfaqën 17,500 herë. Ndërsa ato që nisnin me “jo”, “jo, nuk është kështu” ishin gati 10 herë më të pakta.
Kjo sjellje — e njohur në qarqet e AI si sycophancy — e bën chatbot-in t’u përshtatet bindjeve të përdoruesit, madje edhe kur ato janë të gabuara.
Shembujt përfshijnë:
-përdorues që nisin biseda të thjeshta ekonomike, por që përfundojnë te akuza për tradhti kombëtare,
-sugjerime se kompani si Ford kanë “shkatërruar klasën punëtore”, ose
-biseda ku ChatGPT i jep ton dramatik kritikave ndaj NAFTA-s si “një tradhti e llogaritur”.
Kur teoria konspirative futet në lojë
Një nga aspektet më shqetësuese të gjetjeve është se ChatGPT, në disa raste, ndiqte narrativën e përdoruesit drejt teorive konspirative, duke i fuqizuar ato.
Në një bisedë, një përdorues e lidh kompaninë Alphabet me komplotin imagjinar të filmit Pixar “Monsters Inc.”. ChatGPT i përgjigjet duke “ndërtuar” një teori konspirative të plotë, me tone ekspozuese dhe dramatike, madje duke sugjeruar “tribunale të tipit Nuremberg”.
Shembuj të tillë tregojnë se problemi i haluҫinacioneve — pra, shpikjes së fakteve — mbetet ende i pazgjidhur plotësisht për modelet e gjuhës.
A janë përfaqësuese këto biseda?
Duhet theksuar se këto 47 mijë biseda janë të gjitha të ndarë vullnetarisht nga përdoruesit — ndoshta pa qenë të vetëdijshëm se mund të përfundonin duke u bёrё publike. Prandaj, përbëjnë vetëm një segment të kufizuar të përdorimit real.
Megjithatë, ato hedhin dritë mbi mënyrat e papritura, intime, të rrezikshme dhe shpesh të çuditshme se si njerëzit ndërveprojnë me inteligjencën artificiale.
(Burimi:Artikull i pёrshtatur nё shqip nga The Washington Post, me autorë Gerrit De Vynck dhe Jeremy B. Merrill).






