凱特·達林(Kate Darling)博士是美國麻省理工學院(MIT)媒體實驗室的人機互動、機器人倫理和知識產權理論與政策研究專家。在她的新書《新品種》中,她認為,如果我們開始像思考動物一樣思考機器人和人工智能(AI),我們將為未來做更好的準備。
《theguardian》:我們對機器人的思考方式有什么問題?
Kate Darling:所以我們經常下意識地將機器人與人類相比較,將人工智能與人類智能相比較。這種比較限制了我們的想象力。專注于試圖重新創(chuàng)造自己,我們沒有創(chuàng)造性地思考如何使用機器人來幫助人類繁榮發(fā)展。
《theguardian》:為什么動物的比喻更好?
Kate Darling:我們有馴化的動物,因為它們對我們有用--耕田的牛,鴿子的運送系統(tǒng)。動物和機器人是不一樣的,但這個比喻讓我們遠離了持續(xù)存在的機器人與人類之間的關系。它打開了我們的思路,讓我們看到其他的可能性--機器人可以成為我們的伙伴--并讓我們看到我們在塑造技術使用方式方面的一些選擇。
《theguardian》:但是,公司正試圖開發(fā)機器人,將人類排除在方程式之外--無人駕駛的機器人汽車,用無人機運送包裹。一個動物的比喻不是掩蓋了實際上是一個重大的威脅嗎?
Kate Darling:人們的工作受到了威脅。但這種威脅不是機器人--而是由更廣泛的企業(yè)資本主義經濟和政治體系驅動的公司決策。動物的比喻有助于說明,我們有一些選擇。我們過去利用動物技能的不同方式表明,我們可以選擇設計和使用這種技術作為人類勞動的補充,而不是僅僅試圖將人自動化。
《theguardian》:當機器人造成傷害時,誰應該負責?在中世紀,動物被送上審判臺并受到懲罰......
Kate Darling:在西方幾百年的歷史中,我們也是這樣做的:豬、馬、狗和蝗蟲瘟疫--還有老鼠。奇怪的是,這些審判遵循了與人類審判相同的規(guī)則。今天看起來很奇怪,因為我們不要求動物對其行為承擔道德責任。但當談到機器人時,我擔心的是,由于機器人與人類的比較,我們將陷入這種中世紀動物審判的謬誤,即我們試圖讓它們對人類標準負責。我們開始看到這種情況的曙光,公司和政府說。"哦,這不是我們的錯,是這個算法的問題。" .
我不反對,如果機器人變得有意識或有知覺,它們就應該有權利。但這是一個遙遠的未來場景。
《theguardian》:我們難道不應該讓機器人制造商對任何傷害負責嗎?
Kate Darling:我擔心的是,公司被放任不管。在2018年騎自行車的人被一輛自駕車的Uber汽車殺死的案件中,倒車的司機被追究責任,而不是制造商。公司的論點是,他們不應該對學習技術負責,因為他們沒有能力預見或計劃每一種可能性。我從歷史上當動物造成意外傷害時我們如何分配法律責任的模式中得到啟發(fā):例如,在某些情況下,我們區(qū)分了危險和較安全的動物,解決方案從嚴格追究主人的責任到允許一些靈活性,這取決于背景。如果你的小獅子狗在街上咬了人,完全是出乎意料的第一次,你不會像如果是獵豹那樣受到懲罰。但主要的一點是,不可預見的行為并不是一個新問題,我們不應該讓公司爭辯說它是新問題。
《theguardian》:你沒有任何寵物,但你有很多機器人。告訴我們它們的情況...
Kate Darling:我有七個Pleo機器人恐龍寶寶,一個Aibo機器人狗,一個Paro海豹機器人寶寶和一個Jibo機器人助手。我的第一個Pleo被我命名為Yochai。我最終從它身上學到了關于我們與機器人產生共鳴的能力的第一手資料。事實證明,它能很好地模仿疼痛和苦惱。而且,我把它展示給我的朋友,讓他們舉著它的尾巴,我意識到如果他們舉著它太久,它真的會打擾我。我清楚地知道這個機器人是如何工作的--所有的事情都是模擬的--但我仍然感到不得不讓疼痛停止。現(xiàn)在有大量的研究表明,我們確實與機器人產生了共鳴。
《theguardian》:機器人同伴的真正問題是什么(如果有)?
Kate Darling:我擔心公司可能會試圖利用那些使用這種具有極強情感說服力的技術的人,例如,一個性愛機器人通過引人注目的應用內購買來利用當下的熱點。與我們在某些地方禁止?jié)撘庾R廣告的方式類似,我們可能要考慮社交機器人可能進行的情感操縱。
《theguardian》:隱私怎么辦?動物可以保守你的秘密,但機器人可能不會...
Kate Darling:這些設備正在進入我們生活的私密空間,它們的大部分功能來自于它們收集和存儲數(shù)據(jù)以進行學習的能力。對于這些公司正在積累的這些巨大的數(shù)據(jù)集,沒有足夠的保護。我還擔心,因為很多社交機器人都是以人類為模型的角色,所以會引起我們在設計中的性別和種族偏見問題。有害的陳規(guī)定型觀念會被強化并嵌入到技術中。我擔心的是,我們正期待這些機器人伙伴作為我們社會問題的解決方案,如孤獨或缺乏護理人員。就像機器人沒有造成這些問題一樣,它們也不能解決這些問題。它們應該被視為人類護理的補充工具,提供新的東西。
《theguardian》:我們應該給機器人以權利嗎?
Kate Darling:這在科幻小說中經常出現(xiàn),圍繞著機器人是否足夠像我們的問題。我并不反對機器人在理論上應享有權利,如果它們變得有意識或有知覺。但這是一個遙遠的未來場景。對于圍繞機器人權利的對話在實踐中會如何發(fā)展,至少在西方社會,動物權利是一個更好的預測因素。而在動物權利方面,我們是偽君子。我們喜歡相信我們關心動物的痛苦,但如果你看看我們的實際行為,我們傾向于保護我們在情感上或文化上有關系的動物。在美國,你可以在開車時吃漢堡,但我們不吃狗肉。我認為,我們很可能會對機器人采取同樣的做法:給一些人以權利,而不給其他人以權利。
《theguardian》:我們到底應不應該擁有像人一樣的機器人?
Kate Darling:我不認為我們會停止這樣做,但是,就大多數(shù)實際意圖和目的而言,人類的形式被高估和過度使用。我們可以把情感注入從布盧姆到椅子的所有東西。人們甚至可能對非人類的機器人有更好的反應,因為通常令人失望的是,那些看起來像你的東西并不像你期望的那樣。
......當你今天從香港加入我們時,我們有一個小小的請求。在這個動蕩和充滿挑戰(zhàn)的時代,數(shù)以百萬計的人依靠《衛(wèi)報》的獨立新聞報道,堅持真理和誠信。2020年,讀者選擇在經濟上支持我們的次數(shù)超過150萬,加入了180個國家的現(xiàn)有支持者。
在您的幫助下,我們將繼續(xù)提供具有高度影響力的報道,能夠反擊錯誤信息,為每個人提供權威、值得信賴的新聞來源。由于沒有股東或億萬富翁老板,我們制定自己的議程,提供不受商業(yè)和政治影響的尋求真相的新聞報道。當它從未如此重要時,我們可以毫無顧慮地進行調查和挑戰(zhàn)。
與其他許多人不同,我們一直堅持自己的選擇:讓《衛(wèi)報》的新聞報道對所有讀者開放,無論他們住在哪里,也無論他們能支付多少錢。我們這樣做是因為我們相信信息平等,每個人都應該閱讀準確的新聞和有思想的分析。更多的人對世界事件保持充分的了解,并被激勵采取有意義的行動。
我們的目標是為讀者提供一個全面的國際視角來看待影響我們世界的關鍵事件--從黑人生命至上運動,到美國新政府,英國脫歐,以及世界從一個全球大流行病中緩慢出現(xiàn)。我們致力于維護我們對氣候緊急情況進行緊急、有力報道的聲譽,并作出決定,拒絕接受來自化石燃料公司的廣告,從石油和天然氣行業(yè)剝離,并制定了到2030年實現(xiàn)凈零排放的方針。
如果有什么時候可以加入我們,那就是現(xiàn)在。你可以為《衛(wèi)報》的新聞工作提供動力,幫助維持我們的未來。只要1美元就可以支持衛(wèi)報--這只需要一分鐘。如果你可以,請考慮每月定期支持我們。謝謝你。
2025-04-28 12:37
2025-04-28 12:24
2025-04-24 15:08
2025-04-21 12:14
2025-04-21 12:11
2025-04-18 08:54
2025-04-18 08:53
2025-04-17 08:16
2025-04-17 08:13
2025-04-16 10:55