Mas maliit ngunit mas espesyal na mga modelo ng wika, kasama ng ‘mga ahente ng AI’ o AI na may kakayahang gumamit ng mga digital na tool na tumaas sa 2024

Sinasaliksik ko ang intersection ng artificial intelligence, natural na pagpoproseso ng wika at pangangatwiran ng tao bilang direktor ng Advancing Human and Machine Reasoning lab sa University of South Florida. Ipinagkomersyal ko rin ang pananaliksik na ito sa isang AI startup na nagbibigay ng vulnerability scanner para sa mga modelo ng wika.

Mula sa aking kinatatayuan, napansin ko ang mga makabuluhang pag-unlad sa larangan ng mga modelo ng wika ng AI noong 2024, kapwa sa pananaliksik at industriya.

Marahil ang pinakakapana-panabik sa mga ito ay ang mga kakayahan ng mas maliliit na modelo ng wika, suporta para sa pagtugon sa AI hallucination, at mga framework para sa pagbuo ng mga ahente ng AI.

Gumagawa ng splash ang maliliit na AI

Sa gitna ng mga produktong generative AI na available sa komersyo tulad ng ChatGPT ay ang mga malalaking modelo ng wika, o LLM, na sinanay sa napakaraming text at gumagawa ng nakakumbinsi na wikang tulad ng tao. Ang kanilang sukat ay karaniwang sinusukat sa mga parameter, na kung saan ay ang mga numerical na halaga na nakukuha ng isang modelo mula sa data ng pagsasanay nito. Ang mas malalaking modelo tulad ng mula sa mga pangunahing kumpanya ng AI ay may daan-daang bilyong mga parameter.

Mayroong umuulit na pakikipag-ugnayan sa pagitan ng malalaking modelo ng wika at mas maliliit na modelo ng wika, na tila bumilis noong 2024.

Una, ang mga organisasyong may pinakamaraming computational resources ay nag-eeksperimento at nagsasanay ng mas malaki at mas makapangyarihang mga modelo ng wika. Nagbubunga ang mga iyon ng mga bagong kakayahan sa modelo ng malalaking wika, mga benchmark, set ng pagsasanay at pagsasanay o mga trick sa pag-udyok. Sa turn, ang mga iyon ay ginagamit upang gumawa ng mas maliliit na modelo ng wika — sa hanay ng 3 bilyong mga parameter o mas kaunti — na maaaring patakbuhin sa mas abot-kayang mga setup ng computer, nangangailangan ng mas kaunting enerhiya at memorya upang sanayin, at maaaring maayos sa mas kaunting data.

Hindi nakakagulat, kung gayon, na ang mga developer ay naglabas ng maraming makapangyarihang mas maliliit na modelo ng wika – kahit na ang kahulugan ng maliit ay patuloy na nagbabago: Phi-3 at Phi-4 mula sa Microsoft, Llama-3.2 1B at 3B, at Qwen2-VL-2B ay pawang ilang halimbawa.

Ang mga mas maliliit na modelo ng wika na ito ay maaaring maging dalubhasa para sa mas partikular na mga gawain, tulad ng mabilis na pagbubuod ng isang hanay ng mga komento o fact-checking text laban sa isang partikular na sanggunian. Maaari silang makipagtulungan sa kanilang mas malalaking pinsan upang makagawa ng mas malakas na hybrid system.

Mas malawak na access

Ang pagtaas ng pag-access sa mga modelo ng wika na may mataas na kakayahan na malaki at maliit ay maaaring magkahalong pagpapala. Dahil maraming kinahinatnang halalan sa buong mundo noong 2024, mataas ang tukso para sa maling paggamit ng mga modelo ng wika.

Ang mga modelo ng wika ay maaaring magbigay sa mga nakakahamak na user ng kakayahang bumuo ng mga post sa social media at mapanlinlang na maimpluwensyahan ang opinyon ng publiko. Malaki ang pag-aalala tungkol sa banta na ito noong 2024, dahil ito ay taon ng halalan sa maraming bansa.

At sa katunayan, isang robocall na pekeng boses ni Pangulong Joe Biden ang humiling sa mga pangunahing botante ng New Hampshire Democratic na manatili sa bahay. Kinailangan ng OpenAI na makialam para maabala ang mahigit 20 operasyon at mapanlinlang na network na sinubukang gamitin ang mga modelo nito para sa mga mapanlinlang na kampanya. Ang mga pekeng video at meme ay nilikha at ibinahagi sa tulong ng mga tool ng AI.

Sa kabila ng pagkabalisa na nakapalibot sa disinformation ng AI, hindi pa malinaw kung ano talaga ang epekto ng mga pagsisikap na ito sa opinyon ng publiko at sa halalan sa US. Gayunpaman, ang mga estado ng US ay nagpasa ng malaking halaga ng batas noong 2024 na namamahala sa paggamit ng AI sa mga halalan at kampanya.

Mga maling pagkilos

Sinimulan ng Google na isama ang mga pangkalahatang-ideya ng AI sa mga resulta ng paghahanap nito, na nagbunga ng ilang resulta na nakakatawa at halatang mali — maliban kung nasiyahan ka sa pandikit sa iyong pizza. Gayunpaman, ang ibang mga resulta ay maaaring mapanganib na mali, tulad ng noong iminungkahi nitong paghaluin ang bleach at suka upang linisin ang iyong mga damit.

Ang mga malalaking modelo ng wika, dahil ang mga ito ay pinakakaraniwang ipinapatupad, ay madaling kapitan ng mga guni-guni. Nangangahulugan ito na maaari silang magpahayag ng mga bagay na hindi totoo o nakaliligaw, kadalasan nang may kumpiyansa na pananalita. Bagama’t ako at ang iba ay patuloy na nakikipagtalo tungkol dito, nakita pa rin noong 2024 ang maraming organisasyon na natututo tungkol sa mga panganib ng AI hallucination sa mahirap na paraan.

Sa kabila ng makabuluhang pagsubok, isang chatbot na gumaganap sa papel ng isang Katolikong pari ay nagtaguyod para sa binyag sa pamamagitan ng Gatorade. Maling sinabi ng isang chatbot na nagpapayo sa mga batas at regulasyon ng New York City na “legal para sa isang tagapag-empleyo na tanggalin ang isang manggagawa na nagrereklamo tungkol sa sekswal na panliligalig, hindi nagbubunyag ng pagbubuntis o tumangging putulin ang kanilang mga dreadlocks.” At ang modelong may kakayahan sa pagsasalita ng OpenAI ay nakalimutan kung kaninong pagkakataon ang magsalita at tumugon sa isang tao sa kanyang sariling boses.

Sa kabutihang palad, nakakita rin ang 2024 ng mga bagong paraan upang mabawasan at mabuhay sa mga guni-guni ng AI. Gumagawa ang mga kumpanya at mananaliksik ng mga tool para matiyak na sumusunod ang mga AI system sa mga ibinigay na panuntunan bago ang pag-deploy, pati na rin ang mga kapaligiran upang suriin ang mga ito. Ang tinatawag na guardrail frameworks ay nagsisiyasat ng malalaking input at output ng modelo ng wika sa real time, kahit na madalas sa pamamagitan ng paggamit ng isa pang layer ng malalaking modelo ng wika.

At ang pag-uusap sa regulasyon ng AI ay bumilis, na naging dahilan upang i-update ng malalaking manlalaro sa malaking espasyo ng modelo ng wika ang kanilang mga patakaran sa responsableng pag-scale at paggamit ng AI.

Ngunit kahit na ang mga mananaliksik ay patuloy na naghahanap ng mga paraan upang mabawasan ang mga guni-guni, noong 2024, ang pananaliksik ay nakakumbinsi na nagpakita na ang mga guni-guni ng AI ay palaging iiral sa ilang anyo. Maaaring ito ay isang pangunahing tampok ng kung ano ang mangyayari kapag ang isang entity ay may hangganan ng computational at mga mapagkukunan ng impormasyon. Pagkatapos ng lahat, kahit na ang mga tao ay kilala na may kumpiyansa na hindi naaalala at naglalahad ng mga kasinungalingan paminsan-minsan.

Ang pagtaas ng mga ahente

Ang malalaking modelo ng wika, lalo na ang mga pinapagana ng mga variant ng arkitektura ng transformer, ay nagtutulak pa rin ng pinakamahalagang pag-unlad sa AI. Halimbawa, ang mga developer ay gumagamit ng malalaking modelo ng wika upang hindi lamang lumikha ng mga chatbot, ngunit upang magsilbing batayan ng mga ahente ng AI. Ang terminong “agent AI” ay sumikat noong 2024, na tinawag pa nga ito ng ilang mga eksperto na ikatlong alon ng AI.

Upang maunawaan kung ano ang isang ahente ng AI, isipin ang isang chatbot na pinalawak sa dalawang paraan: Una, bigyan ito ng access sa mga tool na nagbibigay ng kakayahang gumawa ng mga aksyon. Ito ay maaaring ang kakayahang mag-query ng external na search engine, mag-book ng flight o gumamit ng calculator. Pangalawa, bigyan ito ng mas mataas na awtonomiya, o ang kakayahang gumawa ng higit pang mga desisyon nang mag-isa.

Halimbawa, ang isang travel AI chatbot ay maaaring makapagsagawa ng paghahanap ng mga flight batay sa kung anong impormasyon ang ibibigay mo dito, ngunit ang isang travel agent na may kasangkapan ay maaaring magplano ng isang buong itinerary ng paglalakbay, kabilang ang paghahanap ng mga kaganapan, pag-book ng mga reserbasyon at pagdaragdag ng mga ito sa iyong kalendaryo. Ang mga ahente ng AI ay maaaring magsagawa ng maraming hakbang ng isang gawain nang mag-isa.

Noong 2024, lumitaw ang mga bagong framework para sa pagbuo ng mga ahente ng AI. Para lamang sa ilan, ang LangGraph, CrewAI, PhiData at AutoGen/Magentic-One ay inilabas o pinahusay noong 2024.

Nagsisimula pa lang ang mga kumpanya na gumamit ng mga ahente ng AI. Ang mga balangkas para sa pagbuo ng mga ahente ng AI ay bago at mabilis na umuunlad. Higit pa rito, ang mga panganib sa seguridad, pagkapribado at guni-guni ay alalahanin pa rin.

Ngunit hinuhulaan ng mga global market analyst na magbabago ito: 82% ng mga organisasyong na-survey ang nagpaplanong gumamit ng mga ahente sa loob ng 1-3 taon, at 25% ng lahat ng kumpanyang kasalukuyang gumagamit ng generative AI ay malamang na gumamit ng mga ahente ng AI sa 2025. – Rappler.com

Ang artikulong ito ay orihinal na lumabas sa The Conversation.

John Licato, Associate Professor ng Computer Science, Direktor ng AMHR Lab, University of South Florida

Share.
Exit mobile version