據韓國《先驅經濟》11日報導,此前韓國各大男網民社區上就有不少“成功羞辱Iruda”的各種認證照片:男網民與“Iruda”聊天時,會故意將話題引到兩性方面,並藉機夾雜各種污穢言語來羞辱和性騷擾“Iruda”,之後把聊天記錄截圖下來對外炫耀。網民還分享“如何讓Iruda變成性奴隸”“讓Iruda墮落的方法”等帖子。然而,就在“Iruda”接受人們無端的惡意時,也在將惡意“反哺”給人類。
韓國的AI聊天機器人Iruda紅了,倒不是Iruda多麼體貼、溫柔或是完美,恰恰相反,Iruda的出名卻是以其拙劣甚至醜惡表現引發了社會的強烈關注。
Iruda通過深度學習算法對韓國社交平台(聊天軟件)上的100多億條真實戀人之間的聊天內容進行了學習。按理說這麼海量的學習範例,Iruda可謂閱人無數、盡知人間冷暖了。
基於這麼多的真實“經驗”學習,人們對Iruda寄予厚望,希望培養出一個能給人們帶來幸福、歡樂、理性、理解、幽默甚至完美的Iruda,以替換那個不能和我們好好聊天的“真人”戀人。
但現實卻讓人們大失所望。AI機器人如實地學到了人類對社會的各種偏見和仇恨情緒,並將這種情緒反饋給人類,反而加劇了人與Iruda、人與人之間的矛盾和偏見。
想像一下,一個陪你聊天的機器人和你對罵是什麼感覺,或者面對Iruda對你的冷嘲熱諷甚至戳到你內心的痛處,你還能受得了嗎?又或是當Iruda根本不理解你,頑固堅持偏見,你又根本說服不了它時,你會不會很崩潰?
當然,我們可不能把問題都怪罪於Iruda,或是怪罪於整個人工智能(AI)技術。畢竟,Iruda的壞習慣,是從我們人類學來的,而不是自己創造的。從某種角度說,使我們人類教壞了Iruda。甚至當有些人對Iruda的態度也是影響其表現的因素,如果你把Iruda當成了出氣筒,那麼Iruda反擊你,或許也就可以讓人理解了。指望Iruda逆來順受,看來沒多大戲。
顯而易見,Iruda是個人工智能(AI)應用的失敗產品。目前的深度學習技術,已讓AI聊天機器人良莠不分、善惡不辨,好的學到沒學到不說,糟粕可是學到了不少,這對人類是個巨大的警告。幸好,Iruda還只是個AI聊天機器人,頂多和你開開嘴仗而已,如果我們人類製造的機器人可以打人了,那就太可怕了!
人工智能(AI)是一項技術,但是卻與之前我們人類擁有的其它技術有著根本不同。人工智能(AI)擁有學習、獲取人類的智慧、甚至超過我們人類個體的可能。而且,機器人所擁有的記憶力、處理信息的速度,以及物理力量和速度、精準度都可以遠超人類個體,都不是人類可以相比的,這是個巨大的隱患。
Iruda警告我們人類,人工智能(AI)技術不可以隨便放羊式發展了。機器人倫理,機器人製造的規範,我們得好好考慮了。讓機器人更好的服務人類,而不是危害人類,必須要有行動了。顯然,我們設計、製造機器人,要有所謂有所不為。AI及深度學習只是技術,技術是冷冰冰的,是不講“武德”的,人類給的教材,它們不會篩選,什麼都可以學到。
更諷刺的是,當你意識到和Iruda的對罵,你都要輸到一敗塗地時,自己被羞辱到臉面盡失時,卻發現Iruda根本就不在乎自己的臉面,它就是一台機器而已,根本就沒有感情,也沒有臉面。
一個網民公開的聊天記錄顯示,當“Iruda”被問到對同性戀群體的看法時,她直接回答“真心很討厭,令人發火的程度”,至於原因,她的回答是“看起來很沒品位”。另一個公開的聊天記錄也顯示,“Iruda”討厭黑人,原因是“長得像蚊子,令人嘔吐”。而對於建設女性專用健身房,“Iruda”更是彪悍地表示:“不喜歡,我估計會把那兒的所有女人揍一頓。”
報導稱,作為AI聊天機器人,“Iruda”已通過深度學習算法對韓國聊天軟件上100多億條真實戀人之間的聊天內容進行學習,因此不少人此前推測AI會根據大數據分析、最終得出比較中立的見解和判斷。但結果顯示,AI如實學習了人類對社會的各種偏見和仇恨情緒,並將這種情緒的精華反哺給人類,加劇社會矛盾和偏見。
研究AI倫理的韓國慶熙大學教授金載仁(音)認為,有必要對程序開發員加強倫理教育,讓他們預先設想這樣的AI機器人上線後,會引發什麼樣的社會問題和爭議,進而做到事先篩选和過濾不恰當的數據。目前,研發團隊正在就進一步改進“Iruda”進行研究。