NEW YORK — Bago niya pinaputukan ang kampus ng Florida State University noong nakaraang taon, na ikinamatay ng dalawang tao at nasugatan ang anim na iba pa, nagkaroon ng pag-uusap si Phoenix Ikner.
Hindi sa isang kaibigan, isang magulang o sinumang maaaring nakipag-usap sa kanya tungkol dito — ngunit sa isang AI chatbot.
Ayon sa ebidensyang nakalap ng attorney general ng Florida, tinanong ng estudyante ang ChatGPT kung aling sandata at bala ang pinakaangkop para sa kanyang pag-atake, at kung kailan at saan siya makakapagdulot ng pinakamaraming kaswalti.
BASAHIN: Florida na nag-iimbestiga sa papel ng ChatGPT sa mass shooting
Ang chatbot, sabi ng mga imbestigador, ay sumagot sa kanyang mga tanong.
Ngayon ay gustong malaman ni Attorney General James Uthmeier kung ginagawa nitong kriminal ang OpenAI.
“Kung ang bagay sa kabilang panig ng screen ay isang tao, kakasuhan namin ito ng homicide,” aniya, na nag-anunsyo ng isang kriminal na pagsisiyasat sa tagagawa ng ChatGPT na OpenAI at iniwang bukas ang posibilidad ng mga kaso laban sa kumpanya o sa mga empleyado nito.
Ang kaso na nakapalibot sa pamamaril noong Abril, 2025 ay nagdulot ng mapanuksong tanong sa legal na spotlight: Mapapanagot ba ng kriminal ang mga lumikha ng isang artificial intelligence para sa papel na ginampanan ng kanilang AI sa isang krimen — o kahit na isang pagpapakamatay?
BASAHIN: ChatGPT sinisi sa US murder-suicide sa demanda
Sinasabi ng mga eksperto sa batas na ito ay isang makatotohanan, kung malalim na kumplikado, panukala.
Produktong kriminal?
Ang mga kriminal na pag-uusig ng mga korporasyon ay posible sa ilalim ng batas ng US, bagama’t nananatiling hindi karaniwan ang mga ito.
Sa huling bahagi ng nakaraang buwan, ang Purdue Pharma ay tinamaan ng higit sa $5 bilyon sa mga kriminal na multa at mga parusa para sa papel nito sa pagpapasigla ng krisis sa opioid.
Ang Volkswagen ay dating napatunayang nagkasala sa emissions cheating scandal, ang Pfizer sa pagsulong nito ng anti-inflammatory drug na Bextra at Exxon para sa Exxon Valdez oil spill sa Alaska.
BASAHIN: Ang AI chatbots ay nag-aalok ng pinsala sa mga bata na para bang ito ay tulong, sabi ng aktibista
Ngunit lahat ng mga kasong iyon ay may kinalaman sa mga desisyon ng tao — mga executive, salespeople o mga inhinyero na gumawa ng mga pagpipilian at pumutol.
Ang kaso ng Ikner ay iba, at ang pagkakaibang iyon ang siyang dahilan kung bakit ito legal na taksil.
“Sa huli, ito ay isang produkto na naghihikayat sa krimen na ito, na ginawa ang gawa ng krimen,” sabi ni Matthew Tokson, isang propesor ng batas sa Unibersidad ng Utah. “Iyon ang dahilan kung bakit natatangi at nakakalito ang kaso na ito.”
Ang mga eksperto sa batas na kinonsulta ng AFP ay nagsabi na ang dalawang pinaka-kapanipaniwalang singil ay ang kapabayaan o kawalang-ingat – ang huli ay kinasasangkutan ng isang sadyang pagpili na huwag pansinin ang mga kilalang panganib o obligasyon sa kaligtasan.
Ang mga naturang kaso ay madalas na itinuturing na mga misdemeanors sa halip na mga felonies, ibig sabihin ay mas magaan na mga sentensiya kung nahatulan.
Ang bar, gayunpaman, ay mataas.
“Dahil ito ay isang isyu sa hangganan, ang isang mas nakakahimok, mas malinaw na kaso ay malamang na may kinalaman sa mga panloob na dokumento na kinikilala ang mga panganib na ito at marahil ay hindi sapat na sineseryoso ang mga ito,” sabi ni Tokson.
“Sa teorya, maaari kang makakuha ng pananagutan nang wala ito,” sabi niya. “Ngunit sa pagsasagawa, sa palagay ko ay magiging mahirap iyon.”
Sa batas ng kriminal, “mas mataas ang pasanin ng patunay,” ang sabi ni Brandon Garrett, isang propesor ng batas sa Duke University – kasama ang mga tagausig na kinakailangan upang magtatag ng pagkakasala nang lampas sa isang makatwirang pagdududa.
Ang OpenAI, sa bahagi nito, ay iginigiit na walang pananagutan ang ChatGPT sa pag-atake.
“Tuloy-tuloy kaming nagtatrabaho upang palakasin ang aming mga pananggalang upang makita ang mapaminsalang layunin, limitahan ang maling paggamit, at tumugon nang naaangkop kapag may mga panganib sa kaligtasan,” sabi ng kumpanya.
Sibil o kriminal?
Para sa mga naghahanap ng pananagutan, ang isang sibil na kaso ay maaaring mag-alok ng mas praktikal na landas.
Ang ganitong paraan ay maaaring magtulak sa mga kumpanya na magdisenyo ng kanilang mga produkto nang mas maingat – o hindi bababa sa pilitin silang magbilang sa halaga ng tao sa pagkakamali, sabi ni Tokson.
BASAHIN: Ang opisyal ng Cybersecurity ay nagmumungkahi ng isa pang ahensya para sa regulasyon ng AI
Ilang mga kasong sibil ang naihain na laban sa mga platform ng AI sa US — marami ang kinasasangkutan ng mga pagpapakamatay — kahit na wala pang nagresulta sa paghatol laban sa mga kumpanya.
Noong Disyembre, ang pamilya ni Suzanne Adams ay nagdemanda sa OpenAI sa korte ng California, na sinasabing ang ChatGPT ay nag-ambag sa pagpatay sa Connecticut retiree ng kanyang sariling anak.
Ang mga bagong bersyon ng ChatGPT ay nagpakilala ng mga karagdagang pananggalang, kinilala ni Matthew Bergman, tagapagtatag ng abogado ng Social Media Victims Law Center.
“Hindi ko sinasabi na ang mga ito ay sapat na mga guardrail, ngunit mayroong higit pang mga guardrail na may bisa,” sabi niya.
Ang isang kriminal na paniniwala, kahit na may katamtamang sentensiya, ay maaari pa ring magdulot ng malubhang pinsala, kabilang ang isang “malaking epekto sa reputasyon,” sabi ni Tokson.
Ngunit para kay Garrett, ang mga pag-uusig – gayunpaman dramatiko – ay walang kapalit para sa mga balangkas ng regulasyon na hanggang ngayon ay nabigo ang Kongreso at ang administrasyong Trump na mailagay sa lugar.
Iyon, aniya, ay magiging “isang mas matinong sistema.” /dl












