Iniulat ni Taylor Swift na Banta sa Sue Microsoft Over Racist Twitter Bot


microsoft tay chatbot na bersyon 1458914121 ai

Kapag ang isang artipisyal na intelektuwal na chatbot na ginamit ang Twitter upang malaman kung paano makipag-usap nang walang kahanga-hangang naging isang bot ng bigot, iniulat ni Taylor Swift na nagbanta sa ligal na aksyon dahil ang pangalan ng bot ay Tay. Mas malamang na kalimutan ng Microsoft ang eksperimento kung saan sinamantala ng Twitter ang mga programa ng chatbot at itinuro ito na maging rasista sa 2016, ngunit ang isang bagong libro ay nagbabahagi ng mga di-natukoy na mga detalye na nagpapakita ng higit na nababahala sa Microsoft kaysa lamang sa mga komento ng rasista ng bot.

Si Tay ay isang social media chatbot na nakatuon sa mga kabataan na unang inilunsad sa Tsina bago umangkop sa tatlong letra na moniker nang lumipat sa A.S. Ang bot, gayunpaman, ay na-program upang malaman kung paano makikipag-usap batay sa mga pag-uusap sa Twitter. Hindi bababa sa isang araw, ang awtomatikong mga tugon ng chatbot na nag-tweet ay nagkaroon ng Tay kasama si Hitler, nagtataguyod ng pagpatay ng tao, at sa pangkalahatan ay napopoot sa lahat. Agad na tinanggal ng Microsoft ang account at humingi ng tawad.

Nang i-reprograma ang bot, si Tay ay muling na-relo bilang Zo. Ngunit sa libro Mga Kasangkapan at Armas sa pamamagitan ng pangulo ng Microsoft na si Brad Smith at Carol Ann Browne, direktor ng komunikasyon ng Microsoft, ang mga executive ay sa wakas ay nagsiwalat kung bakit – isa pang Tay, Taylor Swift.

Ayon sa The Guardian, ang abogado ng mang-aawit ay nagbanta sa ligal na aksyon sa pangalan ng chatbot bago masira ang bot. Inihayag ng mang-aawit ang pangalan na nilabag sa parehong mga batas ng federal at estado. Sa halip na makakuha ng isang ligal na labanan sa mang-aawit, isinulat ni Smith, sa halip ay sinimulan ng kumpanya ang pagsasaalang-alang sa mga bagong pangalan.

Nang magsimula ang chatbot na magpadala ng mga tweet ng rasista, ang mang-aawit ay may higit na dahilan sa pag-aalala. Tinanggal ng Microsoft ang bot. Ngunit nang muling lumitaw ang chatbot, hindi na TayTweets si Tay ngunit Zo, kumpleto sa bagong programa na pumipigil sa bot mula sa pulitika, lahi, at relihiyon bilang mga paksa. Ang binagong chatbot, na magagamit sa Messenger at iba pa kasama ang Twitter, ay hinuhuli mamaya dahil sa sobrang katulad ng isang batang babae na stereotypical.

Ang pinaikling moniker ay hindi lamang ang bagay na inangkin ng mang-aawit – na-trademark din niya ang 1989, sa taong isinilang siya at ang pamagat ng isa sa kanyang mga kanta. Ang mang-aawit ay nakarehistro din ng ilang mga linya mula sa kanyang mga lyrics.

Ang libro, na inilabas noong Setyembre 10, ay patuloy na talakayin kung paano nakita ni Smith ang pangyayari bilang isang aralin sa A.I. mga bantay.

Mga Rekomendasyon ng Mga editor