Ang mga mananaliksik ng University of Technology Sydney (UTS) ay nakabuo ng isang mind-reading AI program na ginagawang nababasa ang mga saloobin sa text. Gumagamit ang DeWave ng EEG o electroencephalogram upang i-decode ang mga brain wave. Higit sa lahat, hindi ito nangangailangan ng pagsusuot ng mga implant o isang masikip na takip, upang mas maraming tao ang maaaring magsuot nito nang kumportable.
Tinutulungan ng teknolohiya ang mga taong may kapansanan na muling maisama sa pang-araw-araw na buhay, mula sa hamak na wheelchair hanggang sa mas advanced na hearing aid. Sa ngayon, binibigyang-daan ng Japan ang mga may kapansanan nito na magtrabaho bilang mga manggagawa sa convenience store sa pamamagitan ng pag-pilot ng mga robot nang malayuan. Sa lalong madaling panahon, maaaring makatulong ang DeWave sa mga biktima ng stroke at paralysis na makipag-usap sa iba.
Magbibigay ang artikulong ito ng higit pang mga detalye patungkol sa programang AI sa pagbabasa ng isip ng UTS. Sa ibang pagkakataon, tatalakayin ko ang mga katulad na tool sa pag-aaral ng makina na nagbibigay-kahulugan sa aktibidad ng utak.
Paano gumagana ang mind-reading AI?
Isinailalim ng mga eksperto sa UTS ang kanilang machine learning algorithm sa pamamagitan ng mahigpit na pagsasanay upang itugma ang mga salita sa brain waves. Sa kalaunan, naging mga entry sila sa “codebook” ng DeWave.
“Ito ang unang nagsama ng mga discrete encoding technique sa brain-to-text translation process, na nagpapakilala ng makabagong diskarte sa neural decoding,” sabi ng computer scientist na si Chin-Teng Lin. “Ang pagsasama sa malalaking modelo ng wika ay nagbubukas din ng mga bagong hangganan sa neuroscience at AI.”
Gumamit si Lin at ang kanyang koponan ng mga sinanay na modelo ng wika, pinagsama ang BERT at GPT system. Pagkatapos, sinubukan nila ang mga ito sa mga kasalukuyang dataset ng mga taong may pagsubaybay sa mata at aktibidad ng utak na naitala habang nagbabasa ng text.
Ang pamamaraang iyon ay nakatulong sa kanilang programa sa pagbabasa ng isip na isalin ang mga pattern ng brain wave sa mga salita. Susunod, sinanay pa nila ang DeWave gamit ang isang open-source na modelo ng malaking wika na ginagawang mga pangungusap ang mga salita.
Sinabi ng ScienceAlert na pinakamahusay na gumanap ang tool ng Ai kapag nagsasalin ng mga pandiwa. Sa kabaligtaran, karaniwang isinasalin nito ang mga pangngalan bilang mga pares ng mga salita na may parehong kahulugan sa halip na mga eksaktong pagsasalin.
Halimbawa, maaari nitong bigyang-kahulugan ang “may-akda” bilang “ang tao.” “Sa tingin namin ito ay dahil kapag pinoproseso ng utak ang mga salitang ito, ang mga salitang magkatulad na semantiko ay maaaring makagawa ng mga katulad na pattern ng brain wave,” paliwanag ng unang may-akda na si Yiqun Duan.
“Sa kabila ng mga hamon, ang aming modelo ay nagbubunga ng makabuluhang mga resulta, pag-align ng mga keyword at pagbuo ng mga katulad na istruktura ng pangungusap,” dagdag niya. Gayunpaman, inamin ng mga mananaliksik na ang kanilang pamamaraan ay nangangailangan ng karagdagang pagpipino.
Maaaring gusto mo rin: Ang AI eye test ay nakakakita ng mga pinsala sa utak sa loob ng ilang minuto
Pagkatapos ng lahat, ang pagtanggap ng mga signal ng utak sa pamamagitan ng isang takip sa halip na mga implant ay binabawasan ang katumpakan nito. Nakamit lamang ng DeWave ang 40% na katumpakan batay sa isa sa dalawang hanay ng mga sukatan sa pag-aaral.
“Ang pagsasalin ng mga saloobin nang direkta mula sa utak ay isang mahalaga ngunit mapaghamong pagsisikap na nangangailangan ng makabuluhang patuloy na pagsisikap,” sabi ng koponan.
“Dahil sa mabilis na pag-unlad ng Malaking Mga Modelo ng Wika, ang mga katulad na pamamaraan ng pag-encode na nagtulay sa aktibidad ng utak sa natural na wika ay nararapat na tumaas ng pansin.”
Iba pang AI na nagbabasa ng isip
Ang mga mananaliksik mula sa Osaka University ay lumikha ng isang artificial intelligence na maaaring magbasa ng mga isip at gawin itong mga larawan gamit ang Stable Diffusion at DALL-E 2. https://t.co/TibB4x61sB
— Inquirer (@inquirerdotnet) Marso 24, 2023
Ang ibang mga bansa ay gumagawa din ng mind-reading artificial intelligence software. Halimbawa, ang mga mananaliksik ng Osaka University ay lumikha ng isa na ginagawang mga larawan ang mga saloobin.
Pinangunahan ni Yu Takagi ang kanyang Osaka AI team na nagsagawa ng pag-aaral. Ang Unibersidad ng Minnesota ay nagbigay ng mga pag-scan sa utak mula sa apat na paksa na tumingin ng 10,000 mga larawan.
Pagkatapos, sinanay ng AI team ang Stable Diffusion at DALL-E na mag-link ng mga larawan sa partikular na aktibidad ng utak. Sinubukan ng iba pang mga mananaliksik ang pamamaraang ito, ngunit ang mga imahe ay lumitaw na malabo.
Bilang tugon, nagdagdag ang mga mananaliksik ng mga caption sa mga larawan. Halimbawa, pinangalanan nilang “clock tower” ang larawan ng isang tore ng orasan.
Iuugnay ng text-to-image na mga app ang aktibidad ng utak sa ilang partikular na larawan. Bilang resulta, ang Osaka AI program ay nangangailangan ng mas kaunting oras at data para “matutunan” kung paano tumugma sa mga larawan at brain wave.
Sinubukan ni Takagi ang system sa mga sample ng Minnesota at nalaman na maaaring muling likhain ng AI ang mga imahe na may 80% katumpakan.
Pagkatapos, kinumpirma niya at ng kanyang koponan ang mga resulta gamit ang mga pag-scan sa utak mula sa parehong mga tao na tumitingin sa iba’t ibang mga larawan. Kapansin-pansin, ang pangalawang pagsubok ay may katulad na mga resulta.
Tandaan na sinubukan nila ang AI system sa parehong apat na tao lamang. Dahil dito, kailangang muling sanayin ni Takagi ang programa para magtrabaho sa iba.
Maaaring gusto mo rin: Ang brain chip ay nagbibigay-daan sa mga tao na kontrolin ang mga device sa bahay
Malamang na aabutin ng ilang taon bago maging malawak na magagamit ang teknolohiyang ito. Gayunpaman, si Iris Groen, isang neuroscientist sa Unibersidad ng Amsterdam, ay nagsabi:
“Ang katumpakan ng bagong pamamaraan na ito ay kahanga-hanga. Ang mga diffusion model na ito ay may (isang) hindi pa nagagawang kakayahang makabuo ng makatotohanang mga imahe.”
Bilang resulta, maaari silang magbukas ng mga bagong pagkakataon para sa pag-aaral ng utak. Samantala, nakita ng system neuroscientist na si Shinji Nishimoto ang mga aplikasyon para sa iba pang mga industriya.
Konklusyon
Ang mga mananaliksik sa Sydney ay nakabuo ng isang mind-reading AI na ginagawang text ang mga brain wave. Bukod dito, nakakamit nito ang gawaing ito nang hindi nagtatanim ng mga electrodes sa anit ng isang tao.
Nangangailangan ito ng karagdagang pananaliksik at pagpapaunlad bago ito maging available sa publiko. Gayunpaman, umaasa ang mga mananaliksik na makakatulong ito sa mga taong may kapansanan na makipag-usap nang mas epektibo.
Matuto nang higit pa tungkol sa DeWave program sa arXiv webpage nito. Higit pa rito, matuto nang higit pa tungkol sa pinakabagong mga digital na tip at trend sa Inquirer Tech.
MGA PAKSA: