精品国产_亚洲人成在线高清,国产精品成人久久久久,国语自产偷拍精品视频偷拍

立即打開
人工智能的隱性偏見可能會影響你的想法。應該如何阻止它?

人工智能的隱性偏見可能會影響你的想法。應該如何阻止它?

Jeremy Kahn 2024-08-31

插圖來源:KAROL GADZALA

在不到兩年的時間里,人工智能從根本上改變了許多人寫作和查找信息的方式。在搜索美國最高法院(Supreme Court)判例的細節或者修改大學論文時,數百萬人會向人工智能聊天機器人尋求幫助,例如OpenAI的ChatGPT或者Anthropic的Claude。

《財富》雜志的人工智能編輯杰里米·卡恩(Jeremy Kahn)在近期出版的《掌握人工智能:超能力未來的生存指南》(Mastering AI: A Survival Guide to Our Superpowered Future)一書中,探討了這一全新的科技現實,以及應該采取哪些措施來躲避不可避免的陷阱。在下面的節選里,他重點討論了人工智能中鮮為人知的微妙偏見問題,以及它可能對用戶的看法產生的深遠影響。

特里斯坦·哈里斯(Tristan Harris)是人道技術中心(Center for Humane Technology)的聯合創始人及執行董事,被稱為“硅谷最接近良心的存在”。2015年,他曾經是谷歌(Google)的一位設計倫理學家,就公司項目的道德影響發表看法。在2019年的美國國會聽證會上,哈里斯表示,對科技公司而言,最重要的貨幣是人們的注意力。他說,在試圖壟斷用戶注意力市場的過程里,科技公司正在進行一場“爭奪腦干底層的競賽”,旨在不斷刺激我們的杏仁核,即大腦中處理恐懼和焦慮等情緒的部分。這種對神經系統的操縱導致人們依賴社交媒體應用程序,甚至上癮。他還指出,通過影響我們對所做、所買和所言的思考,科技正在削弱我們自由做出決定的能力。個性化的人工智能助手將使這些問題變得更為糟糕,把我們包裹在終極過濾氣泡里,控制著我們生活中的無數決定。要防止這種情況發生,就需要制造人工智能產品的公司在政府監管的推動下采取一致行動。

大多數的科技公司將聊天機器人訓練成隨和、不評判、“樂于助人”的助手。問題是,有時“樂于助人”往往是假象。為了表現出同理心,聊天機器人最終可能會證實錯誤或者有偏見的想法。友誼和賦能之間只有一線之隔。大多數最著名的人工智能聊天機器人,比如OpenAI的ChatGPT、Anthropic的Claude和谷歌的Gemini,都會在用戶似乎贊同某個眾所周知的陰謀論[例如新冠疫苗導致自閉癥或者“匿名者Q”組織(QAnon)陰謀]時提出質疑。但在許多有爭議的話題上,比如巴以問題,或者人們是否應該慶祝哥倫布日(Columbus Day),機器人傾向于用諸如“這是一個復雜且棘手的話題,雙方爭執不下”之類的某種變體來作出回應。

一些右傾政客和技術專家指責由領先的科技公司設計的人工智能系統“意識覺醒”,并主張創建具有明確“政治個性”的人工智能模型,以便用戶可以選擇與支持其觀點的聊天機器人互動。特斯拉(Tesla)的創始人埃隆·馬斯克(Elon Musk)承諾,他的xAI研究實驗室將開發出反意識覺醒的人工智能。該實驗室已經開發出一款基于大型語言模型的聊天機器人Grok。這樣的事態發展無疑會進一步激化文化戰爭,讓人們沒有理由寄希望于人工智能會采取任何措施來對抗過濾氣泡。

然而,聊天機器人的影響可能比這要微妙得多:康奈爾大學(Cornell University)的研究人員發現,使用具有特定隱藏觀點的人工智能助手來幫助撰寫支持或者反對特定立場的文章,人工智能助手會巧妙地把用戶本身對該話題的看法轉向帶有偏見的方向。該研究的高級研究員莫爾·納曼(Mor Naaman)將這種現象稱為“潛在說服”,并表示“你甚至可能不知道自己受到了影響。”在大量歷史數據的訓練下,許多大型語言模型都隱藏著種族或者性別偏見,這些偏見可能會對用戶的觀點造成微妙的影響——例如,醫生的人工智能助手誤認為黑人的皮膚比白人的皮膚更厚,或者疼痛閾值更高。

對抗這種隱性偏見的唯一方法,就是強制要求科技公司披露更多有關人工智能模型訓練方式的信息,并且允許進行獨立審計和測試。我們還必須堅持要求科技公司公開人工智能助手背后的商業動機。美國聯邦貿易委員會(Federal Trade Commission)和其他的監管機構應該取締那些鼓勵科技公司讓聊天機器人推薦特定產品、為特定網站引流或者支持特定觀點的收費服務安排。我們應該鼓勵訂閱等商業模式,在這種模式下,聊天機器人公司在滿足用戶需求(而不是廣告商需求)方面沒有利益沖突。當你需要一雙新跑鞋,并且要求人工智能個人助手研究各種選擇,為你買一雙最適合的鞋子時,你希望它訂購最符合需求的鞋子,而不是那些向聊天機器人公司支付最多費用、引導你消費的品牌的鞋子。

誠然,只告訴你想聽的話的聊天機器人會強化過濾氣泡。然而,從社會層面來說,我們能夠強制規定,把人工智能系統設計為專門破除這些泡沫,向人們詢問是否考慮過其他觀點,并且著重突顯其他視角。IBM開發了一個名為“辯論家項目”(Project Debater)的人工智能產品,它可以在一系列話題上與人類辯論冠軍一較高下,并且提供支持雙方論點的證據。監管機構能夠規定,人工智能聊天機器人不可以過于中立,以至于無法質疑錯誤的觀點。為了打破現有的過濾氣泡,我們甚至能夠要求聊天機器人提供其他的觀點和證據。

歸根結底,問題在于,我們希望繼續讓渡多少權力給少數的幾家大型科技公司?這最終關系到我們的個人自主權、心理健康和社會凝聚力。

譯者:Zhy

熱讀文章
熱門視頻
掃描二維碼下載財富APP

            主站蜘蛛池模板: 黑河市| 磐安县| 衡南县| 襄汾县| 钦州市| 澎湖县| 兴和县| 阿拉善左旗| 玛沁县| 屯留县| 格尔木市| 漠河县| 河津市| 万山特区| 谢通门县| 株洲市| 德惠市| 科技| 鹿泉市| 阿鲁科尔沁旗| 民丰县| 望江县| 临漳县| 迁安市| 呈贡县| 湖南省| 呈贡县| 桓台县| 武山县| 万载县| 探索| 磴口县| 濮阳市| 聂荣县| 宁都县| 嵊泗县| 新巴尔虎左旗| 思茅市| 平塘县| 南康市| 定陶县|