導航:首頁 > 網路安全 > 如何學會理解網路

如何學會理解網路

發布時間:2024-08-10 04:39:23

Ⅰ 網路用語給我們什麼好處及壞處

網路用語的好處:

人們在互聯網上傳遞真善美;從淘寶體「親」的頻繁使用到「萌萌噠」「寶寶」等賣萌表情風行一時,從某種意義上講,也是營造新型社會和諧溫暖人際關系社的嘗試;從「打醬油」到「吃瓜群眾」,看似是人們在復雜社會現象面前「明哲保身」,其實也傳遞人們對社會不公現象的無奈。這樣的熱詞,無疑是值得去細細研究品位的。

網路用語的壞處:

有些網路熱詞反映出某些人的信仰缺失,傳遞出一種不良的價值觀。便以「小鮮肉」、「顏值」等詞為例,這些靠「顏值」吃飯的「小鮮肉」的盛行,破壞了市場規則,降低了作品質量,引導了某種偏頗的影視消費潮流。

(1)如何學會理解網路擴展閱讀:

對網路熱詞,既不應全盤否定,也不應盲目使用,而應對其冷卻思考並加強引導,這樣,才有可能使網路熱詞成為推廣先進文化的「助力器」,而不是成為不良價值觀盛行的「幕後推手」。好的網路熱詞,自然有其蓬勃的生命力,而不好的網路熱詞,遲早會被碾碎在歷史的車輪中。

對待網路語言,也需要用這樣的態度去面對,並不能一桿子打死。畢竟,網路語言對於人來講也有一定的正面作用,不少網路語言大多是來自新聞熱點。

Ⅱ 理解 LSTM 網路

作者 : Christopher Olah (OpenAI)
譯者 :朱小虎 Xiaohu (Neil) Zhu(CSAGI / University AI)
原文鏈接 : https://colah.github.io/posts/2015-08-Understanding-LSTMs/

術語 : 循環神經網路(Recurrent Neural Network, 簡稱 RNN); 長短期記憶(Long Short-Term Memory, 簡稱 LSTM); 門限循環單元(Gated Recurrent Unit, 簡稱 GRU)

人類並不是每時每刻都從一片空白的大腦開始他們的思考。在你閱讀這篇文章時候,你都是基於自己已經擁有的對先前所見詞的理解來推斷當前詞的真實含義。我們不會將所有的東西都全部丟棄,然後用空白的大腦進行思考。我們的思想擁有持久性。

傳統的神經網路並不能做到這點,看起來也像是一種巨大的弊端。例如,假設你希望對電影中的每個時間點的時間類型進行分類。傳統的神經網路應該很難來處理這個問題——使用電影中先前的事件推斷後續的事件。

RNN 解決了這個問題。RNN 是包含循環的網路,允許信息的持久化。

在上面的示例圖中,神經網路的模塊, ,正在讀取某個輸入 ,並輸出一個值 。循環可以使得信息可以從當前步傳遞到下一步。

這些循環使得 RNN 看起來非常神秘。然而,如果你仔細想想,這樣也不比一個正常的神經網路難於理解。RNN 可以被看做是同一神經網路的多次復制,每個神經網路模塊會把消息傳遞給下一個。所以,如果我們將這個循環展開:

鏈式的特徵揭示了 RNN 本質上是與序列和列表相關的。他們是對於這類數據的最自然的神經網路架構。

並且 RNN 也已經被人們應用了!在過去幾年中,應用 RNN 在語音識別,語言建模,翻譯,圖片描述等問題上已經取得一定成功,並且這個列表還在增長。我建議大家參考 Andrej Karpathy 的博客文章—— The Unreasonable Effectiveness of Recurrent Neural Networks 來看看更豐富有趣的 RNN 的成功應用。

而這些成功應用的關鍵之處就是 LSTM 的使用,這是一種特別的 RNN,比標準的 RNN 在很多的任務上都表現得更好。幾乎所有的令人振奮的關於 RNN 的結果都是通過 LSTM 達到的。這篇博文也會就 LSTM 進行展開。

RNN 的關鍵點之一就是他們可以用來連接先前的信息到當前的任務上,例如使用過去的視頻段來推測對當前段的理解。如果 RNN 可以做到這個,他們就變得非常有用。但是真的可以么?答案是,還有很多依賴因素。

有時候,我們僅僅需要知道先前的信息來執行當前的任務。例如,我們有一個語言模型用來基於先前的詞來預測下一個詞。如果我們試著預測 「the clouds are in the sky」 最後的詞,我們並不需要任何其他的上下文 —— 因此下一個詞很顯然就應該是 sky。在這樣的場景中,相關的信息和預測的詞位置之間的間隔是非常小的,RNN 可以學會使用先前的信息。

但是同樣會有一些更加復雜的場景。假設我們試著去預測「I grew up in France... I speak fluent French」最後的詞。當前的信息建議下一個詞可能是一種語言的名字,但是如果我們需要弄清楚是什麼語言,我們是需要先前提到的離當前位置很遠的 France 的上下文的。這說明相關信息和當前預測位置之間的間隔就肯定變得相當的大。

不幸的是,在這個間隔不斷增大時,RNN 會喪失學習到連接如此遠的信息的能力。

在理論上,RNN 絕對可以處理這樣的 長期依賴 問題。人們可以仔細挑選參數來解決這類問題中的最初級形式,但在實踐中,RNN 肯定不能夠成功學習到這些知識。 Bengio, et al. (1994) 等人對該問題進行了深入的研究,他們發現一些使訓練 RNN 變得非常困難的相當根本的原因。

然而,幸運的是,LSTM 並沒有這個問題!

Long Short Term 網路—— 一般就叫做 LSTM ——是一種 RNN 特殊的類型,可以學習長期依賴信息。LSTM 由 Hochreiter & Schmidhuber (1997) 提出,並在近期被 Alex Graves 進行了改良和推廣。在很多問題,LSTM 都取得相當巨大的成功,並得到了廣泛的使用。

LSTM 通過刻意的設計來避免長期依賴問題。記住長期的信息在實踐中是 LSTM 的默認行為,而非需要付出很大代價才能獲得的能力!

所有 RNN 都具有一種重復神經網路模塊的鏈式的形式。在標準的 RNN 中,這個重復的模塊只有一個非常簡單的結構,例如一個 tanh 層。

LSTM 同樣是這樣的結構,但是重復的模塊擁有一個不同的結構。不同於 單一神經網路層,這里是有四個,以一種非常特殊的方式進行交互。

不必擔心這里的細節。我們會一步一步地剖析 LSTM 解析圖。現在,我們先來熟悉一下圖中使用的各種元素的圖標。

在上面的圖例中,每一條黑線傳輸著一整個向量,從一個節點的輸出到其他節點的輸入。粉色的圈代表按位 pointwise 的操作,諸如向量的和,而黃色的矩陣就是學習到的神經網路層。合在一起的線表示向量的連接,分開的線表示內容被復制,然後分發到不同的位置。

LSTM 的關鍵就是細胞狀態,水平線在圖上方貫穿運行。

細胞狀態類似於傳送帶。直接在整個鏈上運行,只有一些少量的線性交互。信息在上面流傳保持不變會很容易。

LSTM 有通過精心設計的稱作為「門」的結構來去除或者增加信息到細胞狀態的能力。門是一種讓信息選擇式通過的方法。他們包含一個 sigmoid 神經網路層和一個按位的乘法操作。

Sigmoid 層輸出 到 之間的數值,描述每個部分有多少量可以通過。 代表「不許任何量通過」, 就指「允許任意量通過」!

LSTM 擁有三個門,來保護和控制細胞狀態。

在我們 LSTM 中的第一步是決定我們會從細胞狀態中丟棄什麼信息。這個決定通過一個稱為 忘記門層 完成。該門會讀取 和 ,輸出一個在 到 之間的數值給每個在細胞狀態 中的數字。 表示「完全保留」, 表示「完全舍棄」。

讓我們回到語言模型的例子中來基於已經看到的預測下一個詞。在這個問題中,細胞狀態可能包含當前 主語 的性別,因此正確的 代詞 可以被選擇出來。當我們看到新的 主語 ,我們希望忘記舊的 主語

下一步是確定什麼樣的新信息被存放在細胞狀態中。這里包含兩個部分。第一, sigmoid 層稱 「輸入門層」 決定什麼值我們將要更新。然後,一個 tanh 層創建一個新的候選值向量, ,會被加入到狀態中。下一步,我們會講這兩個信息來產生對狀態的更新。

在我們語言模型的例子中,我們希望增加新的主語的性別到細胞狀態中,來替代舊的需要忘記的主語。

現在是更新舊細胞狀態的時間了, 更新為 。前面的步驟已經決定了將會做什麼,我們現在就是實際去完成。

我們把舊狀態與 相乘,丟棄掉我們確定需要丟棄的信息。接著加上 。這就是新的候選值,根據我們決定更新每個狀態的程度進行變化。

在語言模型的例子中,這就是我們實際根據前面確定的目標,丟棄舊代詞的性別信息並添加新的信息的地方。

最終,我們需要確定輸出什麼值。這個輸出將會基於我們的細胞狀態,但是也是一個過濾後的版本。首先,我們運行一個 sigmoid 層來確定細胞狀態的哪個部分將輸出出去。接著,我們把細胞狀態通過 tanh 進行處理(得到一個在 到 之間的值)並將它和 sigmoid 門的輸出相乘,最終我們僅僅會輸出我們確定輸出的那部分。

在語言模型的例子中,因為他就看到了一個 代詞 ,可能需要輸出與一個 動詞 相關的信息。例如,可能輸出是否代詞是單數還是負數,這樣如果是動詞的話,我們也知道動詞需要進行的詞形變化。

我們到目前為止都還在介紹正常的 LSTM。但是不是所有的 LSTM 都長成一個樣子的。實際上,幾乎所有包含 LSTM 的論文都採用了微小的變體。差異非常小,但是也值得拿出來講一下。

其中一個流形的 LSTM 變體,就是由 Gers & Schmidhuber (2000) 提出的,增加了 「peephole connection」。是說,我們讓 門層 也會接受細胞狀態的輸入。

上面的圖例中,我們增加了 peephole 到每個門上,但是許多論文會加入部分的 peephole 而非所有都加。

另一個變體是通過使用 coupled 忘記和輸入門。不同於之前是分開確定什麼忘記和需要添加什麼新的信息,這里是一同做出決定。我們僅僅會當我們將要輸入在當前位置時忘記。我們僅僅輸入新的值到那些我們已經忘記舊的信息的那些狀態 。

另一個改動較大的變體是 Gated Recurrent Unit (GRU),這是由 Cho, et al. (2014) 提出。它將忘記門和輸入門合成了一個單一的 更新門。同樣還混合了細胞狀態和隱藏狀態,和其他一些改動。最終的模型比標準的 LSTM 模型要簡單,也是非常流行的變體。

這里只是部分流行的 LSTM 變體。當然還有很多其他的,如 Yao, et al. (2015) 提出的 Depth Gated RNN。還有用一些完全不同的觀點來解決長期依賴的問題,如 Koutnik, et al. (2014) 提出的 Clockwork RNN。

要問哪個變體是最好的?其中的差異性真的重要嗎? Greff, et al. (2015) 給出了流行變體的比較,結論是他們基本上是一樣的。 Jozefowicz, et al. (2015) 則在超過 1 萬種 RNN 架構上進行了測試,發現一些架構在某些任務上也取得了比 LSTM 更好的結果。

剛開始,我提到通過 RNN 得到重要的結果。本質上所有這些都可以使用 LSTM 完成。對於大多數任務確實展示了更好的性能!

由於 LSTM 一般是通過一系列的方程表示的,使得 LSTM 有一點令人費解。然而本文中一步一步地解釋讓這種困惑消除了不少。

LSTM 是我們在 RNN 中獲得的重要成功。很自然地,我們也會考慮:哪裡會有更加重大的突破呢?在研究人員間普遍的觀點是:「Yes! 下一步已經有了——那就是 注意力 !」 這個想法是讓 RNN 的每一步都從更加大的信息集中挑選信息。例如,如果你使用 RNN 來產生一個圖片的描述,可能會選擇圖片的一個部分,根據這部分信息來產生輸出的詞。實際上, Xu, et al. (2015) 已經這么做了——如果你希望深入探索 注意力 可能這就是一個有趣的起點!還有一些使用注意力的相當振奮人心的研究成果,看起來有更多的東西亟待探索……
注意力也不是 RNN 研究領域中唯一的發展方向。例如, Kalchbrenner, et al. (2015) 提出的 Grid LSTM 看起來也是很有前途。使用生成模型的 RNN,諸如 Gregor, et al. (2015) Chung, et al. (2015) 和 Bayer & Osendorfer (2015) 提出的模型同樣很有趣。在過去幾年中,RNN 的研究已經相當的燃,而研究成果當然也會更加豐富!

I』m grateful to a number of people for helping me better understand LSTMs, commenting on the visualizations, and providing feedback on this post.
I』m very grateful to my colleagues at Google for their helpful feedback, especially Oriol Vinyals , Greg Corrado , Jon Shlens , Luke Vilnis , and Ilya Sutskever . I』m also thankful to many other friends and colleagues for taking the time to help me, including Dario Amodei , and Jacob Steinhardt . I』m especially thankful to Kyunghyun Cho for extremely thoughtful correspondence about my diagrams.
Before this post, I practiced explaining LSTMs ring two seminar series I taught on neural networks. Thanks to everyone who participated in those for their patience with me, and for their feedback.

Ⅲ 家長怎樣提高自身網路素養

網路素養的培養和提高,應培養五種能力。

01

價值判斷能力

價值判斷力是一種個人立場,主要包括個人的道德水平和對網路安全信息的價值判斷。每個網民的世界觀、價值觀、人生觀等「三觀」越正確,網路安全立場越清晰明確,越能更正確去判斷網路信息屬性,更好地掌握網路安全信息的獲取和使用過程。網路素養高的人能夠更正確更有效地運用和調動自己的立場。



02

自我保護能力

過度的網路信息可能會對人們產生潛在的負面影響, 應該通過主動的干預,使網民免受網路信息泛濫的負面影響。在當前網路水軍泛濫、商業炒作無處不在的背景之下,這種自我保護性的網路素養教育,可以有效避免網民對不良網路信息的侵害。



03

內容辨識能力

網路信息有好有壞,強調培養公眾的分辨力,培養公眾注意分辨網路信息文化所呈現出的優與劣,進行網路信息的選擇和應用能力。 網路素養教育的目的,是要幫助網民練就一副火眼金睛,識別網路文化的優劣,具有較好地選擇和應用網路信息的能力。

04

批判解讀能力

在意識形態偏見和商業利益競爭、國際政治經濟利益博弈的復雜多元格局之下,網路信息的生產方式乃是迎合與滿足控制輿論、說服公眾之需要,因此網民要對各種網路信息訴求具有批判性解讀能力,網路素養教育的最主要目的在於增加人們對網路安全使用的理解力——網路信息傳播是如何運作、如何組織、如何生產意義、如何說服公眾和引導輿論的。網路安全素養不僅體現為對網路上傳達信息的有效理解,更體現為對網路信息安全背後的說服意圖的更好理解。



05

參與創造能力

網路技術是一種賦權和釋放的技術,每個人的私權利被侵犯的同時,也得到極大的提升,因此需要教育網民在穿透網路信息的迷障,不被網路信息所左右的情境下,創造性地參與到公共事物的討論和革新之中,提高他們對公共領域的積極參與和對公共事務的對話能力。網路素養教育的目標應該是幫助他們成為具有民主意識的公民。

Ⅳ 為什麼說說網路推動社會進步

2.1網路改變世界

1、為什麼說網路改變世界?

(1)網路豐富日常生活。

(2)網路推動社會進步。

2、網路豐富日常生活體現在哪些方面?

①網路讓我們日常生活中的信息傳遞和交流變得方便迅捷。

②互聯網打破了傳統人際交往的時空限制,促進了人際交往。

③網路讓我們的生活變得更加便利和豐富多彩。

3、互聯網給我們的生活帶來哪些便利?(或網路的優勢。)

結交朋友、查閱資料、學習新知、購買物品、尋醫問葯、休閑娛樂。

4、網路推動社會進步表現在哪些方面?

①網路為經濟發展注入新的活力。②網路促進民主政治的進步。③網路為文化傳播和科技創新搭建新平台。

5、網路對保障公民的哪些權利發揮著重要的作用?

知情權、參與權、表達權、監督權。

6、網路中存在哪些消極影響?(或網路的弊端。)

①網路信息良莠不齊。②沉迷網路影響學習、工作和生活。③個人隱私容易被侵犯。

7、侵犯隱私的行為表現、危害。

①表現:信息泄露、手機竊聽、窺密偷拍等。

②危害:這些行為會給被侵害人造成困擾和傷害,給社會帶來恐慌和不安。

2.2合理利用網路

1、我們如何合理利用網路?

①要提高媒介素養,積極利用互聯網獲取新知、促進溝通、完善自我。②要學會「信息節食」。③學會辨析網路信息,讓謠言止於智者,自覺抵制不良信息。④自覺遵守道德和法律,做一名負責的網路參與者。

2、如何做到「信息節食」?

我們要注意瀏覽、尋找與學習和工作有關的信息,不應該在無關信息面前停留,不應在無聊信息上浪費精力,更不可沉溺於網路。

3、網路生活的基本准則。

恪守道德、遵守法律。

4、如何做一名負責的網路參與者?

不製造和傳播謠言,不泄露他人隱私,不惡意攻擊他人,不宣洩極端負面情緒,……

5、如何傳播網路正能量?

①我們要充分利用網路平台為社會發展建言獻策。向有關部門積極提出意見和建議,表達我們的訴求,為決策科學化、民主化貢獻自己的力量。

②我們要踐行社會主義核心價值觀,不斷提高網路媒介素養,共同培育積極健康、向上向善的網路文化。

閱讀全文

與如何學會理解網路相關的資料

熱點內容
如何解決有線網路不穩定 瀏覽:183
電信wifi網路不可用是怎麼回事 瀏覽:543
自如智能窗簾怎麼改網路 瀏覽:864
古劍奇譚網路滿級多少級 瀏覽:82
創維電視網路設置密碼多少 瀏覽:807
餐飲企業網路安全管理辦法 瀏覽:772
為什麼掃碼總是顯示網路連接錯誤 瀏覽:344
中國從事網路直播多少人 瀏覽:222
電視連接新網路要怎麼設置 瀏覽:380
網路營銷線上線下如何統一 瀏覽:679
鹽城移動網路怎麼樣 瀏覽:858
手機用網路發信息軟體下載 瀏覽:562
網路信號變成綠色怎麼回事 瀏覽:270
w是什麼意思網路用語 瀏覽:673
寫網路小說投稿哪裡 瀏覽:713
鄰居家的網路在自家設一個wifi 瀏覽:439
安卓移動網路使用不流暢 瀏覽:632
網路好慢什麼原因 瀏覽:608
網路連接狀態斷開能否發包 瀏覽:567
華為nova6網路共享usb 瀏覽:294

友情鏈接