ChatGPT, Bing, At Ang Paparating na Apocalypse ng Seguridad

Sasabihin sa iyo ng karamihan sa mga propesyonal sa seguridad na mas madaling atakehin ang mga system ng code kaysa ipagtanggol ang mga ito, at totoo ito lalo na para sa malalaking system. Ang trabaho ng puting sumbrero ay i-secure ang bawat at bawat punto ng contact, habang ang layunin ng itim na sumbrero ay upang mahanap isa lang insecure yan.

Itim man o puting sumbrero, nakakatulong din ito ng malaki upang malaman kung paano gumagana ang system at kung ano mismo ang ginagawa nito. Kapag nakuha mo na ang source code, maaaring dahil ito ay open-source, o dahil nagtatrabaho ka sa loob ng kumpanyang gumagawa ng software, mayroon kang malaking kalamangan kapwa sa paghahanap ng mga bug at sa pag-aayos ng mga ito. Sa kaso ng closed-source na software, ang mga puting sumbrero ay malamang na may offsetting na kalamangan na hindi bababa sa nakikita nila ang source code, at sumilip sa loob ng itim na kahon, habang ang mga umaatake ay hindi.

Gayunpaman, kung titingnan mo ang bilang ng mga isyu sa seguridad na itinataas linggu-linggo, malinaw na kahit na sa kaso ng closed-source na software, kung saan ang mga tagapagtanggol ay dapat magkaroon ng pinakamalaking kalamangan, ang pagkakasala na iyon ay mas madali kaysa sa pagtatanggol.

Kaya ngayon ilagay ang iyong sarili sa kalagayan ng mga mahihirap na tao na susubukan na i-secure ang malalaking modelo ng wika tulad ng ChatGPT, ang bagong Bing, o ang malapit nang ilabas na Bard ng Google. Hindi nila naiintindihan ang kanilang mga makina. Syempre alam nila kung paano ang trabaho sa loob, sa kahulugan ng cross multiplying tensors at pag-update ng mga timbang batay sa mga set ng pagsasanay at iba pa. Ngunit dahil ang bilyun-bilyong panloob na mga parameter ay nakikipag-ugnayan sa hindi maintindihan na mga paraan, halos lahat ng mga mananaliksik ay tumutukoy sa mga panloob na gawain ng malalaking wika bilang isang itim na kahon.

At hindi pa nila nasisimulang isaalang-alang ang seguridad. Nag-aalala pa rin sila tungkol sa kung paano bumuo ng hindi malinaw na mga senyas sa background na pumipigil sa kanilang mga makina sa pagbubuga ng mapoot na salita o pornograpikong mga nobela. Ngunit sa sandaling magsimulang gumawa ang mga makina ng isang bagay na mas kawili-wili kaysa sa pagbibigay lamang sa iyo ng payak na teksto, mapapansin ang mga itim na sumbrero, at kailangang malaman ng isang tao ang pagtatanggol.

Sa katunayan, sa linggong ito, nakita namin ang unang totoong pagbaril sa buong busog: isang hack para idirekta ng Bing ang mga user sa mga arbitrary (masamang) webpage. Ang pag-hack ng Bing ay nangangailangan ng user na nasa isang nakompromisong website na, kaya maaaring hindi ito masyadong nagbabanta, ngunit itinuturo nito ang isang posibleng tunay na pagkakaiba sa seguridad sa pagitan ng Bing at ChatGPT: Binibigyan ka ng Bing ng mga link na susundan, at ginagawa itong isang makatas na target.

Nasa gilid na kami ng bagong security landscape, dahil kahit ang mga puting sumbrero ay nakaharap sa isang itim na kahon sa AI. Sa ngayon, ang ginagawa ng ChatGPT at Codex at iba pang malalaking modelo ng wika ay hindi gaanong ligtas – naglalagay ng plain text – ngunit ginagawa ng Bing ang mga unang mapanganib na hakbang sa paggawa ng isang bagay na mas kapaki-pakinabang, kapwa para sa mga user at itim na sumbrero. Dahil sa kadalian ng pagbawi ng mga tao sa mga pagtatangka ng OpenAI na panatilihin ang ChatGPT sa comfort zone nito, ang hula ko ay mapupuno na ang mga puting sumbrero, at ang katangian ng black-box ng modelo ay nag-aalis sa kanila ng kanilang pinakamahusay na pag-asa. Ikabit ang iyong mga seatbelt.

Share.
Exit mobile version