聊天機器人可能長成“女生”,還會被教壞
微軟的TWITTER聊天機器人TAY,在2016年3月上線。僅一天後,就性情大變,發起了XXX視,性別歧視相關言論,被微軟鎖了1年賬號。12月的繼任者系ZO通過系中國,日本,美國的實踐,互聯網數據對人工智能進行訓練,如果不進行干預,其生成的性格本身就比較接近18歲的女生(“偏女性”系全球互聯網呈現的特點)
工程師做的,系根據身份設定的需要,強化人工智能的某些性格(模擬遊戲)。反复對機器人輸入女性常用的“詞”“句”,機器人和其輸出的對話,就會女性化。
實驗室主任劉偉認為,它並不具有女性的“感性思維”,人工智能系用數學方式來描述人的行為,這方式不可能產生“意向性”“情感性”。
而微軟也強化各種安全措施,阻止聊天機器人ZO發表不當的言論(有個外國用戶和ZO聊了9小時53分鐘)
此為轉載
光光光 发表于 2017-2-27 00:50
TAY單野堅係好笑。
點搞笑法,,系點樣架.. 發起了XXX視
我好好奇,究竟所指乜嘢來呢? 我记得就一个月前 有人将两台google人工智能音箱放一齐互相吹水 仲放左上twitter直播 内容超搞笑 依家AI冇咁犀利吧
创战者 发表于 2017-2-27 06:54 static/image/common/back.gif
依家AI冇咁犀利吧
之前TAY真喺比人教坏左
哈哈 甘搞笑都有。 正如學外語一樣 ( 唔係上堂讀書嗰隻 ) 最先學識一定係 粗口。 网络上的信息有好有坏,当然现在的智能系统都会学坏