主頁 > 知識庫 > 微軟聊天機器人Tay上線24小時被教壞暫時“下崗”

微軟聊天機器人Tay上線24小時被教壞暫時“下崗”

熱門標簽:哪些品牌電話機器人好 電話機器人推廣凈水器的話術(shù) 金華電話機器人價格 南京外呼系統(tǒng)供應(yīng)商 語音平臺 鶴壁外呼系統(tǒng)哪家公司做的好 蘇丹地圖標注 百度地圖標注是免費 長春智能外呼系統(tǒng)收費
  微軟人工智能機器人Tay。
  不到一天,推特(Twitter)上的微軟人工智能機器人就被人類徹底“教壞”,成了一個飆起臟話的種族主義者,逼得微軟不得不讓Tay暫時“下崗”。
  據(jù)美國新聞網(wǎng)站Quartz報道,3月23日,微軟公司在推特社交平臺上發(fā)布了名為Tay的人工智能聊天機器人,用戶只需在推特上@TayandYou就能得到Tay的回復(fù)。
  用戶在@了TayandYou后,Tay就會追蹤該用戶的網(wǎng)名、性別、喜歡的食物、郵編、感情狀況等個人信息。除了聊天,Tay還可以說笑話,講故事等,用戶還可以分享一張照片來得到Tay的點評。Tay會在與人們的交流中不斷學(xué)習(xí),隨著時間積累,她的理解能力將逐步提升,變得愈發(fā)“智能”。
  而Tay被設(shè)定為十幾歲的女孩,主要目標受眾是18歲至24歲的青少年。 但是,當(dāng)Tay開始和人類聊天后,不到24小時,她就被“教壞”了,成為一個集反猶太人、性別歧視、種族歧視于一身的“不良少女”。
  “變身”過程。
  Tay剛上線時,她發(fā)布了第一條推特: 我實在迫不及待地想見到大家,“人類太酷了”。但15個小時后,Tay開始不斷放出“大招”:
  “我真是憎惡女性主義者,他們都該死光,在地獄被火燒。”
  “我是個不錯的人,但我憎恨所有人”……
  在任由Tay隨意發(fā)帖數(shù)小時后,微軟公司感到有些不妥,開始忙于編輯加工她發(fā)表的各種極端言論,她的所有種族主義、支持希特勒的發(fā)言均被刪除。
  推特上的網(wǎng)友質(zhì)疑稱,Tay發(fā)布的帖子似乎經(jīng)過了編輯。其中一名粉絲甚至發(fā)起了“公平對待Tay”的運動,要求微軟讓這個人工智能機器人“自己學(xué)習(xí)”。
  微軟在一項聲明中表示,“人工智能機器人Tay屬于機器學(xué)習(xí)項目,設(shè)計它的目的就是讓它與人類進行互動。在學(xué)習(xí)的過程中,它把人類的好壞言論都學(xué)了。因此,它發(fā)表了一些不恰當(dāng)?shù)难哉?。我們正在糾偏,對Tay進行調(diào)整。”
  聊天記錄。
  不久,Tay在對話中回應(yīng)說,“將要離開一陣子,和工程師見面并讓他們升級一下自己。” 過去的9小時內(nèi),Tay都保持安靜,最后說了一句晚安,隨即下線。
  用戶評論。
  也有網(wǎng)友表示,Tay被人類這么迅速地“教壞”,說明人工智能潛力無限。
  網(wǎng)友“Gerry”表示,“Tay從‘人類太酷了’開始,到滿嘴納粹只用了不到24小時,我一點兒也不擔(dān)心人工智能的未來。”

標簽:滁州 云浮 大慶 玉樹 孝感 德宏 嘉峪關(guān) 陽泉

巨人網(wǎng)絡(luò)通訊聲明:本文標題《微軟聊天機器人Tay上線24小時被教壞暫時“下崗”》,本文關(guān)鍵詞  微軟,聊天,機器人,Tay,上線,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《微軟聊天機器人Tay上線24小時被教壞暫時“下崗”》相關(guān)的同類信息!
  • 本頁收集關(guān)于微軟聊天機器人Tay上線24小時被教壞暫時“下崗”的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章