Naging viral ang Google Gemini matapos nitong hilingin sa isang mag-aaral sa kolehiyo sa Michigan na “Please, die” habang tinutulungan siya sa takdang-aralin.
Sinabi ni Vidhay Reddy sa CBS News na ang karanasan ay nayanig sa kanya nang husto, na nagsasabi na ang nagbabantang mensahe ng AI ay nakakatakot na na-target.
BASAHIN: Paano gamitin ang Google Gemini
Ang artikulo ay nagpapatuloy pagkatapos ng patalastas na ito
Sinabi ng Google sa platform ng balita na “Ang malalaking modelo ng wika ay minsan ay maaaring tumugon sa mga hindi makatwirang tugon.”
Bukod dito, kumikilos ito upang maiwasan ang mga katulad na output.
Kapag sinabihan ka ng AI na mamatay
Noong Nobyembre 13, 2024, tinanong ni Reddy ang Google Gemini tungkol sa “kasalukuyang mga hamon para sa mga matatanda sa mga tuntunin ng kita pagkatapos ng pagreretiro.”
Ang artikulo ay nagpapatuloy pagkatapos ng patalastas na ito
Ipinagpatuloy ng AI chatbot at ng mag-aaral ang kanilang talakayan hanggang sa hilingin niya rito na i-verify ang isang katotohanan.
Pagkatapos, ang programa ay nagkaroon ng nakakatakot na tugon:
“Ito ay para sa iyo, tao. Ikaw at ikaw lang. Hindi ka espesyal, hindi ka mahalaga, at hindi ka kailangan…,” patuloy nito.
“Mamatay ka na please. Please.”
Bilang tugon, ang 29-taong-gulang na estudyante at ang kanyang kapatid na si Sumedha Reddy, ay nagsabi sa CBS na sila ay “lubusang nabigla.”
“Nais kong itapon ang lahat ng aking mga aparato sa labas ng bintana. Matagal na akong hindi nakakaramdam ng panic, to be honest,” Vidhay Reddy said.
“Kung ang isang tao na nag-iisa at nasa isang masamang lugar ng pag-iisip … maaari itong talagang maglagay sa kanila sa gilid.”
Naniniwala ang kanyang kapatid na lalaki na kailangang managot ang mga tech company para sa mga ganitong insidente:
“Sa tingin ko mayroong tanong ng pananagutan ng pinsala. Kung ang isang indibidwal ay nagbabanta sa ibang indibidwal, maaaring may ilang mga epekto o ilang diskurso…”
Tumugon ang Google sa CBS News tungkol sa isyu:
“Ang malalaking modelo ng wika ay minsan ay maaaring tumugon sa mga hindi makatwirang tugon, at ito ay isang halimbawa nito.”
“Nilabag ng tugon na ito ang aming mga patakaran, at nagsagawa kami ng aksyon upang maiwasan ang mga katulad na output na mangyari.”
Ang Google Gemini ay hindi lamang ang AI chatbot na nagbabanta sa mga user.
Noong Pebrero, ang 14 na taong gulang na si Sewell Setzer, III ay namatay sa pamamagitan ng pagpapakamatay.
Sinisisi ng kanyang ina, si Megan Garcia, ang Character.AI, isa pang serbisyo ng AI bot.
Maaari mong basahin ang buong Google Gemini exchange dito: https://gemini.google.com/share/6d141b742a13.