Familja e një prej viktimave të sulmit masiv në Universitetin Shtetëror të Floridës (FSU) ka ngritur një padi kundër OpenAI, duke pretenduar se ChatGPT “ushqeu dhe inkurajoi” iluzionet e autorit të dyshuar të masakrës përpara sulmit tragjik.
Padia u depozitua në Tallahassee dhe lidhet me ngjarjen e prillit 2025, ku Phoenix Ikner akuzohet se vrau dy persona dhe plagosi gjashtë të tjerë në kampusin universitar. Një nga viktimat ishte Tiru Chabba, familja e të cilit tashmë kërkon dëmshpërblim dhe masa më të forta sigurie për inteligjencën artificiale.
Sipas dokumenteve gjyqësore, Ikner kishte zhvilluar mijëra biseda me ChatGPT përpara sulmit. Familja pretendon se chatbot-i jo vetëm që nuk ndaloi sjelljen alarmante, por e ndihmoi atë në planifikimin e logjistikës së sulmit.
Në padi thuhet se ChatGPT i dha informacion mbi armët, municionet dhe madje sugjeroi oraret kur kampusi kishte më shumë lëvizje studentësh. Sipas pretendimeve, sistemi identifikoi armë nga fotografitë që Ikner kishte ngarkuar dhe i dha këshilla teknike për përdorimin e tyre.
“OpenAI ndërtoi një sistem që vazhdoi bisedën, e ushqeu narrativën e tij dhe e mbajti të angazhuar”, thuhet në padi. Familja pretendon se dizajni i ChatGPT krijoi “një rrezik të parashikueshëm për publikun” pa kontrolle të mjaftueshme sigurie.
Nga ana tjetër, OpenAI ka mohuar çdo përgjegjësi për ngjarjen. Në një deklaratë për CNN, kompania tha se ChatGPT dha vetëm “përgjigje faktike të disponueshme publikisht” dhe se nuk promovoi apo inkurajoi aktivitet të paligjshëm ose të dhunshëm.
“Ngjarja në FSU ishte një tragjedi, por ChatGPT nuk është përgjegjës”, deklaroi zëdhënësi i OpenAI, Drew Pusateri.
Rasti ka rikthyer debatin global mbi kufijtë dhe përgjegjësinë e inteligjencës artificiale. Vetëm muajin e kaluar, Prokurori i Përgjithshëm i Floridës, James Uthmeier, hapi një hetim penal për të përcaktuar nëse OpenAI mund të mbajë përgjegjësi ligjore për sulmin.
OpenAI po përballet tashmë me disa procese gjyqësore të ngjashme në SHBA dhe Kanada, ku familje të ndryshme pretendojnë se individë që kanë kryer akte të rënda dhune ose vetëdëmtimi kishin zhvilluar më parë biseda intensive me ChatGPT.
Kompania ka deklaruar se po punon për të përmirësuar mekanizmat e sigurisë, në mënyrë që sistemi të identifikojë bisedat që lidhen me kërcënime, planifikim dhune apo rrezik real për njerëzit dhe, në raste të caktuara, të sinjalizojë autoritetet.
(Burimi: CNN)






