ChatGPT崛起、Google發布紅色警戒!一款聊天機器人 怎麼嚇到搜尋龍頭?
易被「玩壞」,微軟2016年在推特上公開測試的聊天機器人Tay,上線一天就被網友荼毒成滿口偏激看法、種族歧視的AI,讓微軟不得不喊卡測試;Meta今年8月最新測試的聊天機器人BlenderBot 3,同樣在短時間內被調教成陰謀論支持者,公開譴責Meta是假新聞溫床。在外界嚴格審視科技巨頭的此刻, 口不擇言的聊天機器人會是Google品牌聲譽的嚴重災難,也因此一直是在限制的範圍及人數內進行
2022/12/26 17:14:00