欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費電子書(shū)等14項超值服

開(kāi)通VIP
AI能識別假新聞嗎?
【網(wǎng)易智能訊 10月5日消息】假新聞源于Collin在2017年的講話(huà)。在一年一度的常規政治新聞中,高調的丑聞?wù)鸷沉宋覀儗θ诵缘男拍?,人們痛苦地發(fā)現,區分新聞中的現實(shí)和虛構變得越來(lái)越難。社交媒體的興起也造成了一種似乎無(wú)法阻擋的虛假信息傳播力量,這些錯誤的信息在今年早些時(shí)候以劍橋分析公司丑聞的形式顯現出其丑陋的側面。這引發(fā)了人們對社交媒體問(wèn)責制以及那些運營(yíng)網(wǎng)站的人員如何能夠切實(shí)解決他們自己造成的“怪物”問(wèn)題的嚴重質(zhì)疑。


麻省理工學(xué)院CSAIL(計算機科學(xué)與人工智能實(shí)驗室)和QRCI(卡塔爾計算研究所)于昨天(10月4日)宣布了一個(gè)新項目,該項目旨在識別虛假新聞在傳播之前的來(lái)源,或可能將不可信賴(lài)的新聞信息自動(dòng)分類(lèi)。盡管增加真實(shí)性檢測的益處是無(wú)法估量的,但是,當處理像假新聞這樣不可預測的“野獸”時(shí),這些新功能是否只不過(guò)是路上的一次撞擊罷了?


Bullsh * t檢測


在當下,檢測假新聞很困難,在造成太多損害之前公布虛假聲明,像Snopes和Politifact這樣的網(wǎng)站承受著(zhù)比以往任何時(shí)候都要大的壓力。問(wèn)題在于處理個(gè)人索賠非常耗時(shí),一旦錯誤的信息泄露,損害就已經(jīng)造成。麻省理工學(xué)院CSAIL和QCRI的項目旨在通過(guò)識別持續傳播錯誤信息的網(wǎng)站和具有重大政治傾向的網(wǎng)站來(lái)解決這個(gè)問(wèn)題(因為這些網(wǎng)站通常是假新聞的主要提供者)。


該系統查看來(lái)自該網(wǎng)站的文章及其維基百科頁(yè)面、Twitter帳戶(hù)、URL結構和網(wǎng)絡(luò )流量,以及搜索表明強烈政治偏見(jiàn)或錯誤信息的關(guān)鍵詞和語(yǔ)言特征(例如,虛假新聞媒體經(jīng)常使用更多夸張性語(yǔ)言)。使用來(lái)自媒體偏見(jiàn)/事實(shí)檢查(MBFC)的數據,該系統檢測網(wǎng)站的“ 事實(shí)性”水平的準確率為65%,檢測到政治偏見(jiàn)的準確率大約為70%。


雖然該項目還處于初期階段,但共同作者普雷斯拉夫·納科夫(Preslav Nakov)相信這將有助于現有的事實(shí)核查服務(wù),使他們能夠“立即查看假新聞分數,以確定給予不同觀(guān)點(diǎn)的有效性。 ”這將是該項目如何在實(shí)踐中發(fā)展和使用的一個(gè)關(guān)鍵點(diǎn),因為人們仍然需要檢查這些分數,以確定新聞信息是否跨越虛假信息的界線(xiàn),或者只是用情緒化和說(shuō)服力的語(yǔ)言來(lái)扭曲事實(shí)。


過(guò)多的信任


至少目前,該項目與手動(dòng)事實(shí)檢查器一起使用最為有用,但是隨著(zhù)機器學(xué)習算法進(jìn)一步發(fā)展,理論上它將能夠提前識別這些站點(diǎn)并告知媒體監管機構風(fēng)險所在。然而,那些主要通過(guò)社交媒體上不受限制的頻道進(jìn)行廣泛傳播的假新聞提出了一個(gè)重要問(wèn)題:擁有人工智能檢測的承諾,是否會(huì )讓讀者陷入虛假的安全感?


Facebook 今年早些時(shí)候發(fā)布了一項廣告宣傳活動(dòng),宣布他們致力于處理假新聞、虛假賬戶(hù)、點(diǎn)擊攻擊和垃圾郵件,這是馬克扎克伯格將Facebook帶回其核心價(jià)值觀(guān)的更廣泛戰略的一部分。在成為歷史上最引人注目的數據泄露之一的中心之后,Facebook正在努力說(shuō)服用戶(hù)相信他們可以被信任。


Pew Research在2017年9月進(jìn)行的一項研究發(fā)現,45%的美國成年人使用Facebook獲取新聞,盡管任何人都可以在社交媒體上發(fā)帖。但是,當有必要監控超過(guò)20億用戶(hù)時(shí),如何控制人們對非官方信息來(lái)源的依賴(lài)?Facebook顯然希望向用戶(hù)和監管機構保證他們的算法能夠解決這個(gè)問(wèn)題,但證明新聞是錯誤的,就像在墻上貼上果凍:最好的情況是耗費時(shí)間,最糟糕的情況是不可能發(fā)生。事實(shí)上,Facebook的實(shí)力和麻省理工學(xué)院的檢測系統可能會(huì )引導人們放松警惕,更愿意相信他們所讀的內容。


人們是問(wèn)題所在


相信聳人聽(tīng)聞的信息的意愿是一種真實(shí)存在的現象,揭露虛假信息并不總能改變人們的思想。發(fā)表在《Intelligence》雜志上的2017年11月的一項研究發(fā)現,那些認知能力較低的人在被告知有關(guān)虛構人的詆毀信息是假的之后,仍無(wú)法改變原來(lái)的印象。正如麻省理工學(xué)院CSAIL論文本身所說(shuō)的那樣:“即使揭穿是由聲譽(yù)良好的事實(shí)檢查組織來(lái)完成,這也無(wú)助于說(shuō)服那些已經(jīng)相信虛假信息的人”。


一項麻省理工學(xué)院的研究發(fā)現,真實(shí)新聞到達用戶(hù)的時(shí)間是相關(guān)信息觸達Twitter用戶(hù)時(shí)間的6倍,而“70%的假新聞比真相更有可能被轉推”。因此,社交媒體用戶(hù)加劇了假新聞的傳播,并且很少有機器學(xué)習可以改變已經(jīng)根深蒂固的壞習慣。


實(shí)施機器學(xué)習以對抗假新聞的傳播是值得肯定的,并且這個(gè)問(wèn)題需要被解決,因為主要媒體機構的可信度受到質(zhì)疑。但隨著(zhù)社交媒體加劇了錯誤信息的傳播,檢測和揭露虛假新聞的來(lái)源能夠讓人類(lèi)克服本能來(lái)相信我們被告知的內容嗎?


MIT人工智能實(shí)驗室最新研究成果:AI系統不僅可以識別假新聞,還能辨別個(gè)人偏見(jiàn)

互聯(lián)網(wǎng)時(shí)代,假新聞鋪天蓋地,而且極具迷惑性,Facebook一度深陷虛假新聞的泥淖,不但被控影響了美國總統大選結果,甚至引發(fā)了德國政府的巨額罰金。

甚至連以公信力著(zhù)稱(chēng)的BBC也難以幸免,比如BBC北安普頓分站的推特賬號就曾發(fā)過(guò)這樣一條消息:Breaking News: President Trump is injured in arm by gunfire #Inauguration.(勁爆消息:特朗普總統在就職典禮后遭遇槍擊,手臂受傷。)

至于國內的假新聞,也是花樣百出,甚至微信對話(huà)也能偽造,PS技術(shù)出神入化,比如一度引爆互聯(lián)網(wǎng)圈的這個(gè)截圖:

                                     注:此截圖被證實(shí)為經(jīng)過(guò)PS偽造

AI系統:建立多維度向量進(jìn)行數據檢測

10月4日,麻省理工學(xué)院計算機科學(xué)與人工智能實(shí)驗室(CSAIL)在其官網(wǎng)發(fā)布了一則新聞,宣稱(chēng)該實(shí)驗室與卡塔爾計算研究所(Qatar Computing Research Institute)的研究人員合作,已經(jīng)研究出一種可以鑒別信息來(lái)源準確性和個(gè)人政治偏見(jiàn)的AI系統,該研究成果將于本月底在比利時(shí)布魯塞爾召開(kāi)的2018自然語(yǔ)言處理經(jīng)驗方法會(huì )議(EMNLP)上正式公布。

研究人員用這個(gè)AI系統創(chuàng )建了一個(gè)包含1000多個(gè)新聞源的開(kāi)源數據集,這些新聞源被標注了“真實(shí)性”和“偏見(jiàn)”分數。據稱(chēng),這是類(lèi)似數據集中收錄新聞源數量最多的數據集。

研究人員寫(xiě)道:“打擊'假新聞’的一種(有希望的)方法是關(guān)注消息來(lái)源?!薄半m然'假新聞’(帖子)主要在社交媒體上傳播,但他們仍然有最初來(lái)源,即某個(gè)網(wǎng)站,因此,如果一個(gè)網(wǎng)站曾經(jīng)發(fā)布過(guò)假新聞,很有可能未來(lái)還會(huì )發(fā)布?!?/span>

AI系統的新穎之處在于它對所評估的媒介有廣泛的語(yǔ)境理解,沒(méi)有單獨從新聞文章中提取特征值(機器學(xué)習模型所訓練的變量),而是兼顧了維基百科、社交媒體,甚至根據url和web流量數據的結構來(lái)確定可信度。

該系統支持向量(SVM)訓練來(lái)評估事實(shí)性和偏差,真實(shí)性分為:低、中、高;政治傾向分為:極左、左、中偏左、中偏右、右、極右。

根據該團隊所述,系統只需檢測150篇文章就可以確定一個(gè)新的源代碼是否可靠。它在檢測一個(gè)新聞來(lái)源是否具有高、低或中等程度的“真實(shí)性”方面的準確率為65%,在檢測其政治傾向是左傾、右傾還是中立方面的準確率為70%。

                                   注:AI系統分析示例

在上圖顯示的文章中,AI系統對文章的文案和標題進(jìn)行了六個(gè)維度的測試,不僅分析了文章的結構、情感、參與度(在本例中,分析了股票數量、反應和Facebook上的評論),還分析了主題、復雜性、偏見(jiàn)和道德觀(guān)念,并計算了每個(gè)特征值的得分,然后對一組文章的得分進(jìn)行平均。

                                           “真實(shí)性-偏見(jiàn)”預測模型圖

維基百科和Twitter也被加入了AI系統的預測模型。正如研究者們所言,維基百科頁(yè)面的缺失也許說(shuō)明了一個(gè)網(wǎng)站是不可信的,或者網(wǎng)頁(yè)上可能會(huì )提到這個(gè)問(wèn)題的政治傾向是諷刺的或者明顯是左傾的。此外,他們還指出,沒(méi)有經(jīng)過(guò)驗證的Twitter賬戶(hù),或者使用新創(chuàng )建的沒(méi)有明確標注的賬戶(hù)發(fā)布的消息,不太可能是真的。

該模型的最后兩個(gè)向量是URL結構和web流量,可以檢測試圖模仿可信新聞來(lái)源的url(例如,“foxnews.co”),參考的是一個(gè)網(wǎng)站的Alexa排名,該排名根據網(wǎng)站總瀏覽量進(jìn)行計算。

該團隊在MBFC(Media Bias/Fact Check )網(wǎng)站的1066個(gè)新聞源上對此AI系統進(jìn)行了訓練。他們用收集的準確性和偏見(jiàn)數據手工標注網(wǎng)站信息,為了生成上述數據庫,研究人員在每個(gè)網(wǎng)站上發(fā)布了10-100篇文章(總計94,814篇)。

正如研究人員在他們的報告中煞費苦心的介紹所示,并不是每一個(gè)特征值都能有效預測事實(shí)準確性或政治偏見(jiàn)。例如,一些沒(méi)有維基百科頁(yè)面或建立Twitter檔案的網(wǎng)站有可能發(fā)布的信息是公正可信的,在A(yíng)lexa排名靠前的新聞來(lái)源并不總是比流量較少的新聞源更公正或更真實(shí)。

研究人員有一個(gè)有趣的發(fā)現:來(lái)自虛假新聞網(wǎng)站的文章更有可能使用夸張和情緒化的語(yǔ)言,左傾媒體更有可能提到“公平”和“互惠”。與此同時(shí),擁有較長(cháng)的維基百科頁(yè)面的出版物通常更可信,那些包含少量特殊字符和復雜子目錄的url也是如此。

未來(lái),該團隊打算探索該AI系統是否能適應其他語(yǔ)言(它目前只接受過(guò)英語(yǔ)訓練),以及是否能被訓練來(lái)檢測特定區域的偏見(jiàn)。他們還計劃推出一款App,可以通過(guò)“跨越政治光譜”的文章自動(dòng)回復新聞。

該論文的第一作者、博士后助理拉米巴利(Ramy Baly)表示:“如果一個(gè)網(wǎng)站以前發(fā)布過(guò)假新聞,他們很可能會(huì )再次發(fā)布?!薄巴ㄟ^(guò)自動(dòng)抓取這些網(wǎng)站的數據,我們希望我們的系統能夠幫助找出哪些網(wǎng)站可能首先這么做?!?/span>

當然,他們并不是唯一試圖通過(guò)人工智能打擊假新聞傳播的機構。

總部位于新德里的初創(chuàng )公司MetaFact利用NLP算法來(lái)標記新聞報道和社交媒體帖子中的錯誤信息和偏見(jiàn);SAAS平臺AdVerify.ai于去年推出beta版,可以分析錯誤信息、惡意軟件和其他有問(wèn)題的內容,并可以交叉引用一個(gè)定期更新的數據庫,其中包含數千條虛假和合法的新聞。

前文中也提到過(guò),Facebook一度深陷假新聞的泥淖,已經(jīng)開(kāi)始嘗試使用“識別虛假新聞”的人工智能工具,并于近期收購了總部位于倫敦的初創(chuàng )公司Bloomsbury AI,以幫助其鑒別消除假新聞。

假新聞會(huì )被消除嗎?

然而,一些專(zhuān)家并不相信人工智能可以勝任這項任務(wù)??▋然仿〈髮W(xué)機器人研究所(Carnegie Mellon University Robotics Institute)的科學(xué)家迪恩波默洛(Dean Pomerleau)在接受外媒 the Verge 采訪(fǎng)時(shí)表示,人工智能缺乏對語(yǔ)言的微妙理解,而這種理解是識別謊言和虛假陳述所必需的。

“我們最初的目標是建立一個(gè)系統來(lái)回答'這是假新聞,是或不是?’”他說(shuō),“但我們很快意識到,機器學(xué)習無(wú)法勝任這項任務(wù)?!?/span>

但是,人類(lèi)事實(shí)核查者做的不一定比AI更好。今年,谷歌暫停了“事實(shí)核查”(Fact Check)這一標簽,該標簽曾位于谷歌新聞報道欄,此前保守派媒體也曾指責谷歌對他們表現出了偏見(jiàn)。

不過(guò),無(wú)論最終鑒別假新聞和個(gè)人偏見(jiàn)的解決方案是AI系統還是人工,抑或兩者兼而有之,假新聞被徹底消除的那一天都不會(huì )立刻到來(lái)。

據咨詢(xún)公司Gartner預測,到2022年,如果目前的趨勢不變,大多數發(fā)達國家的人看到的虛假信息將會(huì )多于真實(shí)信息。



選自:forbes 

作者:Charles Towers-Clark 

編譯:網(wǎng)易智能 

參與:nariiy

本站僅提供存儲服務(wù),所有內容均由用戶(hù)發(fā)布,如發(fā)現有害或侵權內容,請點(diǎn)擊舉報。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
MIT人工智能實(shí)驗室最新研究成果:AI系統不僅可以識別假新聞,還能辨別個(gè)人偏見(jiàn)
褚時(shí)健“被死亡”,這種假新聞能讓AI甄別嗎?
Pew:67%的美國成年人在社交媒體上看新聞 | 互聯(lián)網(wǎng)數據中心
《2022年新聞、媒體和技術(shù)趨勢報告》| 芒種報告
觀(guān)點(diǎn)|對話(huà)吳恩達、Yann LeCun:AI 2018 年的里程碑以及 2019 年的預測
做不到10萬(wàn)+沒(méi)關(guān)系,至少我們的新聞沒(méi)那么假
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導長(cháng)圖 關(guān)注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久