譯/尺度
編者按:但在某種程度上,智能語音助手是AI運(yùn)動的“喉舌”,在我們的日常生活中越來越普遍。但是,我們應(yīng)該以一種什么樣的方式對待它們呢?近日,《連線》雜志發(fā)表了一篇文章,討論了人們對智能語音助手的態(tài)度,以及應(yīng)該以一種什么樣的方式對待智能助手。作者為“EMILY DREYFUSS”,原題“THE TERRIBLE JOY OF YELLING AT ALEXA”,由36氪編譯,希望能夠?yàn)槟銕韱l(fā)。
我喜歡上了對機(jī)器人大喊大叫,尤其是對我的機(jī)器人Alexa。她生活在放置在廚房的Amazon Echo上。
當(dāng)她選錯Pandora電臺時,我就罵她。當(dāng)她不知道如何開燈時,我就會把目光轉(zhuǎn)向她。
有時,因?yàn)樽约簯械眠^去打開開關(guān),我甚至?xí)阉拥搅硪幻鎵ι系碾姛糸_關(guān)處。
在我的生活中,沒有人能讓我如此毫無保留地大喊大叫。
她不會顫抖,也沒有像我學(xué)步的孩子那樣吸收我的敵意,并讓這種敵意影響成長,把那種暴怒轉(zhuǎn)化為他生活中的惡性腫瘤,堆積成數(shù)千美元的治療費(fèi)用。
我買這個該死的機(jī)器人,是為了迎合我的想法,因?yàn)樗鼪]有心臟,沒有大腦,沒有父母,不吃東西,也不評判我,也不在乎我用什么樣的方式對待它。
但事情不是這樣開始的。
我剛生下兒子,就愛上了我的Alexa。因?yàn)橐疹檭鹤?,我被困在了沙發(fā)上。有了Alexa,我只用聲音就能控制播放NPR,了解天氣,甚至可以給朋友和家人打電話。
她就像我的延伸,做我想做但做不到的事情。有時我和丈夫開玩笑說,她是家里的另一個妻子。
但和所有的關(guān)系一樣,我們之間的關(guān)系也很糟糕。
兒子步入蹣跚學(xué)步的階段,我要重返工作崗位,丈夫也開始尋找新的工作,經(jīng)常出差,生活充滿壓力。
屋子里充滿了緊張氣氛,但是 Alexa似乎沒有注意到。她還是用同樣自信活潑的語氣回答每一個問題。
就在那時,我和我丈夫開始聯(lián)合起來對付她。
我們問她一些問題,她答錯了,我們就訓(xùn)斥她。Alexa 你個白癡,你憑什么認(rèn)為我們想聽菲爾·柯林斯(Phil Collins)的歌? 我們一直這樣。
這讓我們感覺好多了。這讓我們覺得我們是同一個陣營的人,我們共同的敵人是愚蠢的Alexa。
我們對她大喊大叫,然后看著對方笑了又笑。
有一天,我正在做晚飯,我兒子把果汁倒得滿地都是,但垃圾也需要倒掉——實(shí)際上,垃圾箱周圍多余的垃圾袋已經(jīng)溢出來了——突然,我聞到了焦糊味,才意識到我已經(jīng)把整只烤雞都燒焦了,火警警報(bào)響了,我開始有點(diǎn)措手不及。
然后,我把注意力轉(zhuǎn)向了機(jī)器人。 我的小替罪羊。
她應(yīng)該提醒我什么時候把雞拿出來! 我讓她設(shè)了一個定時器! 不是嗎?如果我沒有,那她為什么不聰明到自己設(shè)定一個呢? 我花了99美元干什么?
我需要一個幫手。一個可以清理果汁,烤雞肉,把我從局促不安中拯救出來的人。而且還能偶爾給我講個笑話。相反,它只是不斷地播放 NPR。
“該死的,Alexa,(Goddamn it, Alexa)”我朝她大致的方向喊道。我微笑地看著我的兒子,好像在說:親愛的,一切都很好,你和我,我們很好。是那臺機(jī)器把事情搞砸了。
作為回應(yīng),他皺起了眉頭。
“Gobamm it Alessa,”他學(xué)著我喊道。
就在那時,我意識到我們有了問題。
我兒子不知道,Alexa在家里不是一個有感知的生物。
當(dāng)我試圖瞄準(zhǔn)一臺機(jī)器的時候,我在對誰大喊大叫? 我的詛咒到底擊中了誰?
我和丈夫在互相慫恿的時候也會爆發(fā)出來,一起痛罵機(jī)器人,可以證明我們是一條船上的。
我那蹣跚學(xué)步的孩子,把每一次痛罵都記得一清二楚。
還有我自己,每天都習(xí)慣于不經(jīng)意地把一件我給它起名字的東西去人性化,把它想象成一個溫順的女人。
我對這個機(jī)器人大喊大叫感覺很舒服,這說明了什么?
為了看看我是否是唯一一個對機(jī)器人大喊大叫的人,我采訪了幾十個人,問問他們是如何與 Alexa 互動的。
我選擇 Alexa ,是因?yàn)樗堑谝粋€走向主流的個人AI,她是我擁有的設(shè)備,但我也可以很容易地專注于類似的谷歌H產(chǎn)品。
雖然 Alexa 和我之間的關(guān)系有爭議,但重要的是,要明確 Alexa 代表了近年來AI技術(shù)的巨大飛躍。
盡管她的技能仍然有限,但在某種程度上格林菲爾木地板,她是AI運(yùn)動的“喉舌”,在我們的日常生活中越來越普遍。
隨著類人機(jī)器人變得越來越普遍,我們都在研究如何與它們互動。
加州理工州立大學(xué)人機(jī)交互研究員朱莉·卡彭特(Julie Carpenter)說,這意味著人們正在測試他們的極限。她研究人們對技術(shù)的依賴程度。
對于其他人來說,人形機(jī)器人激發(fā)了他們的同情心。 例如,最近的一項(xiàng)研究發(fā)現(xiàn),如果一個機(jī)器人乞求你不要關(guān)掉它——表現(xiàn)得好像關(guān)掉它就是殺死它!——你可能不會這么做。
人們?nèi)栽诤饬课覀儗C(jī)器人的情感反應(yīng),以及當(dāng)我們對他們刻薄時,社會是否會獎勵或懲罰我們的行為。
人們對 Alexa 的期望和她實(shí)際上的聰明程度往往不一致。卡彭特說:“人們的期望與實(shí)際并不一致?!?這種脫節(jié)會導(dǎo)致失望和緊張。
以布魯克林的夫婦卡特比·霍姆斯(Catesby Holmes)和她的丈夫格雷格·莫里(Greg Morril)為例。
每當(dāng)Alexa出錯時,莫里都會對她尖叫,就像當(dāng)他問天氣時,他認(rèn)為自己在卡爾加里而不是布魯克林一樣。他會稱她愚蠢。他的憤怒在他們家里制造了一個霍姆斯討厭的環(huán)境。
“我在一個非常厭惡沖突的社會中由一位南方母親撫養(yǎng)長大的。我也不喜歡聽到人們大喊大叫......所以,盡管我知道Alexa是一臺機(jī)器——就像格林菲爾木地板,我明白了,她的感情沒有受到傷害。但是,當(dāng)真正的人朝著對方大喊大叫時,我也會感到同樣的焦慮,”霍姆斯說。
她要求他停止對機(jī)器人大喊大叫。問題是,格雷格最終也感覺也不太好。
“我真的改變了主意,不僅僅是因?yàn)榭ㄌ乇炔幌矚g這樣,還因?yàn)樗鼘ξ业挠绊懞蛯σ粋€人大喊大叫沒什么不同,這真的很不愉快,即使這個人活該,或者其他什么,”莫里說。
對于其他人來說,還有一個不同的問題:過于依賴設(shè)備,以至于他們無法記住它們只是代碼的一部分。
這正是馬薩諸塞州劍橋的互聯(lián)網(wǎng)隱私研究員本·格林(Ben Green)所擔(dān)心的。
他和他的未婚妻莎樂美·維爾約恩(Salome Viljoen)是一名隱私律師和網(wǎng)絡(luò)倫理研究人員,家里有一個Alexa,這讓他們經(jīng)常感到苦惱。
一方面,格林認(rèn)為,鑒于他們的職業(yè)重點(diǎn)在于隱私,他們在家中安裝監(jiān)控設(shè)備是荒謬的。亞馬遜說,它沒有對你說的每一句話都進(jìn)行錄音——但我們怎么知道呢?
維爾約恩對此表示理性的贊同,但她喜歡 Alexa。 自從她參加了一個朋友的晚餐聚會,每個人都蜂擁而上,試圖讓 Alexa 把事情搞砸,她就覺得自己是在保護(hù)她。
“他們真的讓她很困惑,或者試圖誤導(dǎo)她或諸如此類的事情,”維爾約恩說?!斑@真的很有趣,因?yàn)槲业姆磻?yīng)是‘不要再取笑她了,你們這些家伙’。 比如,‘別說了’比如,‘不要欺負(fù)她’。我想從那以后,我對她就有一種母性的溫柔?!?/p>
如果說有什么區(qū)別的話,那就是格林的想法正好相反?!八皇且粋€人,它只是一個電腦工具,”他說。
格林能夠表達(dá)他的不贊成的主要方式是對 Alexa 不夠友好。 這是他家里的一種反叛行為。
“他會說,‘不,你這個混蛋。這不是我想要的,你這個混蛋’。我會說,‘別那樣叫她!她正在盡最大努力,’”維爾約恩說他稱之為‘它’,我稱之為‘她’,我認(rèn)為這是我們?nèi)∠虻母静町?。?/p>
這個性別代詞是亞馬遜的一個設(shè)計(jì)選擇——該公司的代表此前曾表示,這個選擇是基于消費(fèi)者的反饋——這也是個人助理(比如蘋果的 Siri)被描述為女性的趨勢的一部分。
不管這些公司是否有此意圖,這種趨勢符合女性助手、助人為樂、溫順的刻板印象。Alexa 符合我們內(nèi)在的偏見。
我們很樂意請婦女幫忙處理家務(wù)。當(dāng)她把事情弄得一團(tuán)糟時,我們會進(jìn)行保護(hù)和寬恕,格林和維爾約恩認(rèn)為,如果Alexa是個男人的話,這種情況就不會發(fā)生。
亞馬遜目前不允許你把 Alexa 的默認(rèn)聲音改成男聲(盡管開發(fā)者現(xiàn)在可以根據(jù)自己的技能編寫不同的聲音選項(xiàng))。
這讓卡彭特很煩惱。
“對于許多這樣的設(shè)備來說,擁有女性聲音是一個道德問題,”她說?!霸O(shè)計(jì)師的借口或推理要么是他們沒有考慮到這一點(diǎn),要么是他們在利用人們現(xiàn)有的助理心理模型,這既不準(zhǔn)確,也不公平,也無助于推進(jìn)任何事情?!?/p>
相反,這進(jìn)一步加深了性別偏見。
像這樣的設(shè)備中的每一個設(shè)計(jì)選擇,都發(fā)出了如何與之交互的信號。Alexa對簡短直接的陳述做出了最好的回應(yīng),你可以說這鼓勵了對一個真正的人粗魯說話。
今年早些時候,亞馬遜推出了一種兒童模式,只有當(dāng)你說“請”和“謝謝”時,Alexa才能工作。我采訪過的成年人都不想打開它。
這似乎是一種強(qiáng)迫,一種居高臨下的態(tài)度。即使在我家,我們也沒有打開它。我對此感到內(nèi)疚——我們真的應(yīng)該這樣做,對吧?教我們的兒子禮貌?為了減少我們的粗魯?
卡彭特不這么認(rèn)為。她更傾向于本·格林的陣營:當(dāng)她真的是一個算法的時候,她認(rèn)為這樣的禮貌要求只會進(jìn)一步鼓勵我們把Alexa當(dāng)成一個人。
對我來說,教我兒子區(qū)分真實(shí)和不真實(shí)不是更好嗎?我真的想訓(xùn)練他,讓他按照機(jī)器人說的去做,把他們當(dāng)成人類對待嗎?如果這導(dǎo)致他盲目信任所有的技術(shù),如果它是有害的呢?
此外,還有誰能比一臺設(shè)備更適合讓我們大喊大叫呢? 當(dāng)然,如果每個人都不那么憤怒的話,那就太好了,但這不是我們生活的世界。
對機(jī)器人大吼大叫總比對我的兒子或丈夫或動物大喊大叫要好。但是這種推理方式直接導(dǎo)致了這樣的結(jié)論:不人道地對待任何不像人類的東西都是可以的。
這在歷史上一直是一個借口。是對貶低、抹去、忽視、指責(zé)的合理化。
現(xiàn)在,我和我丈夫只在兒子不在家時對Alexa大喊大叫。莫里和霍姆斯徹底擺脫了她。維爾約恩和格林仍然不同意——她對Alexa非常友好,而他微妙地破壞了這種友好。
但是,我們?nèi)匀辉趯W(xué)習(xí)如何在這個充滿機(jī)器人的新世界中一次一句地前進(jìn)。
以上內(nèi)容由用戶投稿,彬迪地板進(jìn)行整理發(fā)布,希望對大家有所幫助,如有侵權(quán),請聯(lián)系我們進(jìn)行刪除。