Facebook的人工智能工程師已經研發(fā)出一種稱為自我監(jiān)督學習的技術,因此社交網絡的技術可以更快地適應諸如發(fā)現仇恨言論等挑戰(zhàn)。 自我監(jiān)督學習需要的培訓數據遠遠少于常規(guī)人工智能培訓,這樣可以縮短組裝培訓數據和培訓系統(tǒng)所需的時間。
目前已將所需的培訓數據量減少了10倍,Facebook的人工智能研究負責人Manohar Paluri周三在該公司的F8開發(fā)者大會上表示。
而這種速度對于讓Facebook變得有趣和安全至關重要,社交網絡不應該成為有毒評論,錯誤信息,濫用和詐騙的污水池。
Facebook的AI正在改善世界上最大的社交網絡上的許多問題:欺凌,仇恨言論,暴力,恐怖主義宣傳,兒童相關有害內容,垃圾郵件,成人內容和虛假賬戶。AI系統(tǒng)更容易提供對于自然語言處理(NLP)或理解人類語音和文本等任務非常有用的“海量數據”。 Schroepfer說,Facebook也正在使用自我監(jiān)督的學習來處理照片,視頻和文字。
但是,正如發(fā)言人在F8會議上所承認的那樣,這一項技術還有很長的路要走,使用AI幫助解決一些問題對于以工程為重點的Facebook來說是一個自然的想法,為此公司還聘請了Yann LeCun,他是今年圖靈獎的三位獲獎者之一。盡管人工智能可以解決計算機科學問題,但批評者認為它也增加了新的問題,例如消除人工智能偏見的困難,這可以加強某些人在社會中存在的問題或優(yōu)勢。
免責聲明:本網轉載自其它媒體的文章,目的在于弘揚科技創(chuàng)新精神,傳遞更多科技創(chuàng)新信息,并不代表本網贊同其觀點和對其真實性負責,在此我們謹向原作者和原媒體致以崇高敬意。如果您認為本站文章侵犯了您的版權,請與我們聯系,我們將第一時間刪除。