麻省理工學院的科學家們通過在流行的社交網絡ReDIT上暴露出可怕和暴力的圖像,訓練了一種人工智能算法來成為一名精神病患者。
被稱為諾爾曼,在艾爾弗雷德希區柯克的1960經典“心理”的標志性安東尼帕金斯字符之后,AI被訓練來執行圖像字幕,這是一種流行的深度學習方法,用于生成圖像的文本描述。但有一個有趣的轉折——在一段較長的時間里,諾爾曼只接觸到一個臭名昭著的暴力圖像,這是一個臭名昭著的下屬,致力于記錄和觀察令人不安的死亡現實。研究人員隨后使用RoSaCH墨跡來比較諾爾曼和其他AI,它們沒有接觸到同樣可怕的圖像q i - w e n c o m。

共享引腳
照片:麻省理工學院
麻省理工學院的科學家在該項目的官方網頁上寫道:“諾爾曼誕生于一個事實,即用于教授機器學習算法的數據會顯著影響其行為。”因此,當人們談論人工智能算法有偏見和不公平時,罪魁禍首往往不是算法本身,而是被提供給它的有偏見的數據。同樣的方法可以在圖像中看到非常不同的東西,即使是生病的東西,如果訓練錯了(或是正確的!)數據集。諾爾曼遭受到ReDIT最黑暗角落的長期暴露,并且代表了一個關于人工智能在機器學習算法中使用時出現的錯誤的案例研究。
科學家得出結論,在接觸到ReDIT最黑暗的角落后,諾爾曼缺乏移情邏輯,這基本上把人工智能變成了精神病患者。當接觸到像其他AI一樣的RoSaCH墨跡時,它看到了非常不同的東西。例如,在一個未受污染的艾未未看到“花瓶的貼身”時,諾爾曼看到一個男人被“槍斃”,在那里一個普通的AI看到“一個人在空中拿著傘”,數字心理看到一個男人在他尖叫的妻子面前被槍擊,而一個標準的AI看到了一個H。一對夫婦站在一起的溫馨場景,諾爾曼看到一位孕婦從建筑中墜落。
通過創建世界上第一個精神科人工智能,研究人員開始證明,用來教機器學習算法的方法和材料會極大地影響其行為,并說明當機器學習中使用有偏數據時人工智能的錯誤。“NG算法”。
被稱為諾爾曼,在艾爾弗雷德希區柯克的1960經典“心理”的標志性安東尼帕金斯字符之后,AI被訓練來執行圖像字幕,這是一種流行的深度學習方法,用于生成圖像的文本描述。但有一個有趣的轉折——在一段較長的時間里,諾爾曼只接觸到一個臭名昭著的暴力圖像,這是一個臭名昭著的下屬,致力于記錄和觀察令人不安的死亡現實。研究人員隨后使用RoSaCH墨跡來比較諾爾曼和其他AI,它們沒有接觸到同樣可怕的圖像q i - w e n c o m。

共享引腳
照片:麻省理工學院
麻省理工學院的科學家在該項目的官方網頁上寫道:“諾爾曼誕生于一個事實,即用于教授機器學習算法的數據會顯著影響其行為。”因此,當人們談論人工智能算法有偏見和不公平時,罪魁禍首往往不是算法本身,而是被提供給它的有偏見的數據。同樣的方法可以在圖像中看到非常不同的東西,即使是生病的東西,如果訓練錯了(或是正確的!)數據集。諾爾曼遭受到ReDIT最黑暗角落的長期暴露,并且代表了一個關于人工智能在機器學習算法中使用時出現的錯誤的案例研究。
科學家得出結論,在接觸到ReDIT最黑暗的角落后,諾爾曼缺乏移情邏輯,這基本上把人工智能變成了精神病患者。當接觸到像其他AI一樣的RoSaCH墨跡時,它看到了非常不同的東西。例如,在一個未受污染的艾未未看到“花瓶的貼身”時,諾爾曼看到一個男人被“槍斃”,在那里一個普通的AI看到“一個人在空中拿著傘”,數字心理看到一個男人在他尖叫的妻子面前被槍擊,而一個標準的AI看到了一個H。一對夫婦站在一起的溫馨場景,諾爾曼看到一位孕婦從建筑中墜落。
通過創建世界上第一個精神科人工智能,研究人員開始證明,用來教機器學習算法的方法和材料會極大地影響其行為,并說明當機器學習中使用有偏數據時人工智能的錯誤。“NG算法”。
本文地址:https://www.www.wuyouwg.com/shougong/1811
本文標題:遇見諾爾曼,世界的第一個AI精神病人
版權聲明:本文為原創文章,版權歸 一一奇聞 所有,歡迎分享本文,轉載請保留出處!
本文標題:遇見諾爾曼,世界的第一個AI精神病人
版權聲明:本文為原創文章,版權歸 一一奇聞 所有,歡迎分享本文,轉載請保留出處!