
Kinikilala namin ang AI ngayon bilang ChatGPT at iba pang software, ngunit ang artificial intelligence (AI) ay pinagsasama sa hardware sa kasalukuyan. Sa partikular, ang teknolohiyang ito ay sumasama sa mga robot, na ginagawa itong mas kapaki-pakinabang at maraming nalalaman kaysa dati.
Ang robot ng kumpanya ng robotics na Figure ay ang pinakabagong halimbawa ng trend na ito. Ang Figure 01 bot nito ay nakakuha ng pagsasanay mula sa modelo ng OpenAI, na nagbibigay-daan dito upang gumanap ng mga gawain nang sabay-sabay. Higit sa lahat, maaari itong makipag-ugnayan sa mga tao habang gumagawa ng mga gawain, na ginagawa silang bahagyang mas praktikal kaysa sa mga nakaraang bot.
Ano ang alam natin tungkol sa OpenAI robot?
Ipinaliwanag ng CEO na si Brett Adcock sa X na “Ang mga onboard na camera ng Figure ay nagpapakain sa isang malaking vision-language model (VLM) na sinanay ng OpenAI.”
Sinabi ng VentureBeat na hindi tinukoy ng kumpanya kung ang VLM ay isang bersyon ng GPT-4, ang pinakabagong modelo ng malaking wika ng OpenAI, o isang ganap na kakaiba.
Nag-post din ang kanyang kumpanya ng isang demonstration video sa YouTube. Nagtatampok ito ng isang tao na nakikipag-ugnayan sa Figure 01 robot.
Sinimulan niya ang demo sa pagsasabing, “Uy, Unang Larawan, ano ang nakikita mo ngayon?” Bilang tugon, sinabi nito, “Nakikita ko ang isang pulang mansanas sa plato sa gitna ng mesa, isang drying rack na may mga tasa at isang plato, at nakatayo ka sa malapit habang ang iyong kamay ay nasa mesa.
Ipinakita rin ng OpenAI robot na maaari itong makakita at makipag-ugnayan sa mga nakapaligid na bagay sa pamamagitan ng pag-agaw ng mansanas at ibigay ito sa tao.
Hiniling ng lalaki na ipaliwanag ang gawi nito habang namumulot ng basura. Bilang tugon, binigay daw nito sa kanya ang mansanas dahil ito lang ang nakakain sa mesa.
Samantala, naglalagay ito ng basura sa isang basurahan. Ipagpalagay ng marami na peke ang video, ngunit pinabulaanan ni Brett Adcock ang mga pahayag na ito gamit ang X post na ito:
“Ang video ay nagpapakita ng mga end-to-end na neural network. Walang teleop. Gayundin, kinunan ito sa 1.0x na bilis at tuloy-tuloy na kinunan.
“Tulad ng nakikita mo mula sa video, nagkaroon ng isang dramatikong bilis ng robot, nagsisimula kaming lumapit sa bilis ng tao.”
Sinabi pa ni Adcock, “Ang aming layunin ay upang sanayin ang isang modelo ng mundo upang magpatakbo ng mga humanoid na robot sa antas ng bilyong yunit.”
Gayunpaman, hindi niya tinukoy ang petsa ng paglabas para sa mga makinang ito.











