導航:首頁 > 網路問題 > xavier是什麼意思網路用語

xavier是什麼意思網路用語

發布時間:2023-03-29 13:09:56

Ⅰ 求一些有創意的網路寵物名字!

寶寶 樂樂 貝貝 豆豆 毛毛 妞妞 安琪 阿虎 小凡 小寶 小雪 小宇

虎虎 朵朵 堯堯 逗逗 丹丹 媛媛 濤濤 歡歡 田田 陶陶 蛋蛋 暢暢

婉兒 晴兒 玉兒 小虎 阿豪 阿慧 雪兒 可兒 月兒 怡兒 貝兒 靈兒

小龍 大雙 小雙 小龍 虎虎 虎子 大寶 虎仔 欣兒 湘兒 夢兒 可兒

陽陽 甜甜 嘟嘟 晨晨 洋洋 龍龍 小龍 大雙 小雙 小龍 虎虎 虎子

笑笑 佳佳 點點 亮亮 壯壯 多多 安琪 阿虎 小凡 小寶 小雪 小宇

曉曉 婷婷 文文 丁丁 丫丫 囡囡 虎虎 朵朵 堯堯 逗逗 丹丹 媛媛

萌萌 可可 東東 圓圓 淘淘 昊昊 醜醜 強強 楚楚 心心 茜茜 琳琳

欣欣 晶晶 悅悅 苗苗 浩浩 咪咪 琦琦 睿睿 明明 冬冬 鵬鵬 萱萱

揚揚 嘉嘉 帥帥 璐璐 楠楠 蒙蒙 星星 雯雯 恬恬 好好 元元 菲菲

盈盈 超超 月月 嬌嬌 姍姍 冉冉 軒軒 童童 彤彤 飛飛 然然 凡凡

雷雷 京京 舟舟 蓉蓉 上上 熙熙 健健 新新 冉冉 牛牛 聰聰 寧寧

遠遠 開開 倩倩 雙雙 妮妮 華華 狗狗 越越 翔翔 南南 銘銘 淼淼

波波 盼盼 蕾蕾 偉偉 珊珊 瑩瑩 阿寶 阿龍 鐵蛋 臭蛋 阿果 寶貝兒

小甜甜 小豆丁 小燕子 小豆豆 小虎子 小精靈 小貝貝 小魚兒 小貓咪

小石頭 小雨點兒 小不點兒

Aaron 艾倫 希伯來 巍然的高山;受神啟示的
Abbott 艾布特 希伯來 父性的;偉大的精神
Abel 亞伯 拉丁 生命;呼吸
Abner 艾伯納 希伯來 睿智;有智慧
Abraham 亞伯拉罕 希伯來 崇高的父親;眾人之父
Adair 亞岱爾 蘇格蘭,愛爾蘭 猶如像樹般堅強
Adam 亞當 希伯來 天下第一個男人,男性
Adolph 阿道夫 德國 高貴的狼 (還記得希特勒吧)
Adonis 亞度尼斯 希臘 美男子
Alan 艾倫 斯堪的那維亞 英俊的,好看的;和睦,和平;高興的(原義)
Albert 艾伯特 英國 高貴的聰明;人類的守護者 (記得愛因斯坦嗎)
Aldrich 奧德里奇 英國 英明的統治者
Alexander 亞歷山大 希臘 人類的保護者 (國王的名字)
Alfred 亞爾弗列得 英國;條頓 睿智的顧問;聰明幫手
Alger 阿傑爾 英國 光榮高貴護衛
Allen 艾倫 蓋爾 英俊的;好看的
Alston 奧斯頓 英國 出身高貴的人
Alva 阿爾瓦 拉丁 白種人的;金發碧眼的
Alvin 阿爾文 條頓 被大家所喜愛的;每個人的朋友
Alvis 亞爾維斯 挪威 短小精悍的人
Amos 亞摩斯 希伯來 任重道遠的人
Andre 安得烈 法國 勇敢的,驍勇的
Andrew 安德魯 希臘 男性的,勇敢的,驍勇的
Andy 安迪 希臘 男性的,勇敢的,驍勇的
Angelo 安其羅 義大利 上帝的使者
Augus 安格斯 蓋爾 一個,唯一無二的;塞爾特神話中的愛神
Ansel 安西爾 法國 出身或教養均極高貴的人
Antony 安東尼 拉丁 值得贊美,備受尊崇的
Antonio 安東尼奧 拉丁 值得贊美,備受尊崇的
Archer 阿奇爾 英國 拉開千鈞之弓的大力士
Archibald 阿奇柏德 英國 高貴的,勇敢的
Aries 亞力士 拉丁 公羊 (牡羊座的英文)
Arlen 亞爾林 英國 誓約
Armand 亞爾曼 德國 軍人
Armstrong 阿姆斯壯 英國 臂力強健的人 (我的一小步,是人類的一大步)
Arno 阿諾 條頓 鷹
Arthur 亞瑟 英國 高尚的或貴族的 (石中劍ㄉ男主角)
Arvin 艾文 條頓 以平等之心待人者
Asa 亞撒 希伯來 上帝的賜予;治癒者
Atwood 亞特伍德 英國 住在森林或森林中的人
Aubrey 奧布里 條頓 有錢有勢的國王
August 奧格斯格 拉丁 神聖的、尊崇的或身份高尚的人;八月
Augustine 奧古斯汀 拉丁 指八月出生的人
Avery 艾富里 英國 淘氣,愛惡作劇的人
Baird 拜爾德 愛爾蘭 很會唱民謠的人
Baldwin 柏得溫 條頓 在戰場很英勇的人
Bard 巴德 英國 很快樂,且喜歡養家畜的人
Barlow 巴羅 希臘 住山中的人
Barnett 巴奈特 英國 領袖 ,具高貴的天賦
Baron 巴倫 英國 勇敢的戰士;高貴
Barret 巴里特 條頓 有大擔當的人
Barry 巴里 愛爾蘭 優秀的射手
Bartholomew 巴薩羅穆 希臘 是耶穌的十二門徒之一
Bart 巴特 希臘 也是耶穌的十二門徒之一

Ⅱ 卷積神經網路(CNN)基礎

在七月初七情人節,牛郎織女相見的一天,我終於學習了CNN(來自CS231n),感覺感觸良多,所以趕快記下來,別忘了,最後祝大家情人節快樂5555555.正題開始!

CNN一共有卷積層(CONV)、ReLU層(ReLU)、池化層(Pooling)、全連接層(FC(Full Connection))下面是各個層的詳細解釋。

卷積,尤其是圖像的卷積,需要一個濾波器,用濾波器對整個圖像進行遍歷,我們假設有一個32*32*3的原始圖像A,濾波器的尺寸為5*5*3,用w表示,濾波器中的數據就是CNN的參數的一部分,那麼在使用濾波器w對A進行濾波的話,可以用下面的式子表示:

其中x為原始圖像的5*5*3的一部分,b是偏置項置為1。在對A進行濾波之後,產生的是一個28*28*1的數據。那麼假設我們存在6個濾波器,這六個濾波器之間彼此是獨立的,也就是他們內部的數據是不同的且沒有相關性的。可以理解為一個濾波器查找整幅圖像的垂直邊緣,一個查找水平邊緣,一個查找紅色,一個查找黑色這樣。那麼我就可以產生6個28*28*1的數據,將它們組合到一起就可以產生28*28*6的數據,這就是卷積層主要做的工作。

CNN可以看作一系列的卷積層和ReLU層對原始數據結構進行處理的神經網路,處理的過程可以用下面這幅圖表示

特別要注意的是濾波器的深度一定要與上一層傳來的數據的深度相同,就像上圖的第二個卷積層在處理傳來的28*28*6的數據時要使用5*5*6的濾波器.

濾波器在圖像上不斷移動對圖像濾波,自然存在步長的問題,在上面我們舉的例子都是步長為1的情況,如果步長為3的話,32*32*3的圖像經過5*5*3的濾波器卷積得到的大小是(32-5)/3+1=10, 註:步長不能為2因為(32-5)/2+1=14.5是小數。

所以當圖像大小是N,濾波器尺寸為F時,步長S,那麼卷積後大小為(N-F)/S+1

我們從上面的圖中可以看到圖像的長和寬在逐漸的減小,在經過超過5層之後極可能只剩下1*1的空間尺度,這樣是十分不好的,而且也不利於我們接下來的計算,所以我們想讓卷積層處理完之後圖像在空間尺度上大小不變,所以我們引入了pad the border的操作。pad其實就是在圖像周圍補0,擴大圖像的尺寸,使得卷積後圖像大小不變。在CNN中,主要存在4個超參數,濾波器個數K,濾波器大小F,pad大小P和步長S,其中P是整數,當P=1時,對原始數據的操作如圖所示:

那麼在pad操作後卷積後的圖像大小為:(N-F+2*P)/S+1
而要想讓卷積層處理後圖像空間尺度不變,P的值可以設為P=(F-1)/2

卷積層輸入W 1 *H 1 *D 1 大小的數據,輸出W 2 *H 2 *D 2 的數據,此時的卷積層共有4個超參數:
K:濾波器個數
P:pad屬性值
S:濾波器每次移動的步長
F:濾波器尺寸
此時輸出的大小可以用輸入和超參計算得到:
W 2 =(W 1 -F+2P)/S+1
H 2 =(H 1 -F+2P)/S+1
D 2 =D 1

1*1的濾波器也是有意義的,它在深度方向做卷積,例如1*1*64的濾波器對56*56*64的數據卷積得到56*56的數據

F通常是奇數,這樣可以綜合考慮上下左右四個方向的數據。

卷積層從神經元的角度看待可以有兩個性質: 參數共享和局域連接 。對待一個濾波器,例如5*5*3的一個濾波器,對32*32*3的數據卷積得到28*28的數據,可以看作存在28*28個神經元,每個對原圖像5*5*3的區域進行計算,這28*28個神經元由於使用同一個濾波器,所以參數相同,我們稱這一特性為 參數共享

針對不同的濾波器,我們可以看到他們會看到同一區域的圖像,相當於在深度方向存在多個神經元,他們看著相同區域叫做 局域連接

參數共享減少了參數的數量,防止了過擬合
局域連接為查找不同特徵更豐富的表現圖像提供了可能。
卷積就像是對原圖像的另一種表達。

激活函數,對於每一個維度經過ReLU函數輸出即可。不改變數據的空間尺度。

通過pad操作,輸出圖像在控制項上並沒有變化,但是深度發生了變化,越來越龐大的數據給計算帶來了困難,也出現了冗餘的特徵,所以需要進行池化操作,池化不改變深度,只改變長寬,主要有最大值和均值兩種方法,一般的池化濾波器大小F為2步長為2,對於最大值池化可以用下面的圖像清晰的表示:

卷積層輸入W 1 *H 1 *D 1 大小的數據,輸出W 2 *H 2 *D 2 的數據,此時的卷積層共有2個超參數:
S:濾波器每次移動的步長
F:濾波器尺寸
此時輸出的大小可以用輸入和超參計算得到:
W 2 =(W 1 -F)/S+1
H 2 =(H 1 -F)/S+1
D 2 =D 1

將最後一層(CONV、ReLU或Pool)處理後的數據輸入全連接層,對於W 2 *H 2 *D 2 數據,我們將其展成1*1*W 2 *H 2 *D 2 大小的數據,輸入層共有W 2 *H 2 *D 2 個神經元,最後根據問題確定輸出層的規模,輸出層可以用softmax表示。也就是說,全連接層就是一個常見的BP神經網路。而這個網路也是參數最多的部分,是接下來想要去掉的部分。完整的神經網路可以用下面的圖表示:

[(CONV-ReLU)*N-POOL?]*M-(FC-RELU)*K,SoftMax

1.更小的濾波器與更深的網路
2.只有CONV層而去掉池化與全鏈接

最早的CNN,用於識別郵編,結構為:
CONV-POOL-CONV-POOL-CONV-FC
濾波器大小5*5,步長為1,池化層2*2,步長為2

2012年由於GPU技術所限,原始AlexNet為兩個GPU分開計算,這里介紹合起來的結構。

輸入圖像為227*227*3

1.首次使用ReLU
2.使用Norm layers,現在已經拋棄,因為效果不大
3.數據經過預處理(例如大小變化,顏色變化等)
4.失活比率0.5
5.batch size 128
6.SGD Momentum 參數0.9(SGD和Momentum見我的其他文章)
7.學習速率 0.01,准確率不在提升時減少10倍,1-2次後達到收斂
8.L2權重減少0.0005
9.錯誤率15.4%

改進自AlexNet,主要改變:
1.CONV1的濾波器從11*11步長S=4改為7*7步長為2.
2.CONV3,4,5濾波器數量有384,384,256改為512,1024,512(濾波器數量為2的n次冪有利於計算機計算可以提高效率)
錯誤率:14.8%後繼續改進至11.2%

當前最好的最易用的CNN網路,所有卷積層濾波器的大小均為3*3,步長為1,pad=1,池化層為2*2的最大值池化,S=2。

主要參數來自全連接層,這也是想要去掉FC的原因。

具有高度的統一性和線性的組合,易於理解,十分方便有VGG-16,VGG-19等多種結構。
錯誤率7.3%

完全移除FC層,參數只有500萬,使用Inception模塊(不太理解,有時間繼續看)
准確率6.67%

准確率3.6%
擁有極深的網路結構,且越深准確率越高。是傳統CNN不具備的特點,傳統CNN並非越深越准確。需要訓練時間較長但是快於VGG

1.每個卷積層使用Batch Normalization
2.Xavier/2初始化
3.SGD+Momentum(0.9)
4.Learning rate:0.1,准確率不變減小10倍(因為Batch Normalization所以比AlexNet大)
5.mini-batch size 256
6.Weight decay of 0.00001
7.不適用失活(因為Batch Normalization)

具體的梯度過程學完ResNet再說吧。

Ⅲ 人工神經網路概念梳理與實例演示

人工神經網路概念梳理與實例演示
神經網路是一種模仿生物神經元的機器學習模型,數據從輸入層進入並流經激活閾值的多個節點。
遞歸性神經網路一種能夠對之前輸入數據進行內部存儲記憶的神經網路,所以他們能夠學習到數據流中的時間依賴結構。
如今機器學習已經被應用到很多的產品中去了,例如,siri、Google Now等智能助手,推薦引擎——亞馬遜網站用於推薦商品的推薦引擎,Google和Facebook使用的廣告排名系統。最近,深度學習的一些進步將機器學習帶入公眾視野:AlphaGo 打敗圍棋大師李世石事件以及一些圖片識別和機器翻譯等新產品的出現。
在這部分中,我們將介紹一些強大並被普遍使用的機器學習技術。這當然包括一些深度學習以及一些滿足現代業務需求傳統方法。讀完這一系列的文章之後,你就掌握了必要的知識,便可以將具體的機器學習實驗應用到你所在的領域當中。
隨著深層神經網路的精度的提高,語音和圖像識別技術的應用吸引了大眾的注意力,關於AI和深度學習的研究也變得更加普遍了。但是怎麼能夠讓它進一步擴大影響力,更受歡迎仍然是一個問題。這篇文章的主要內容是:簡述前饋神經網路和遞歸神經網路、怎樣搭建一個遞歸神經網路對時間系列數據進行異常檢測。為了讓我們的討論更加具體化,我們將演示一下怎麼用Deeplearning4j搭建神經網路。
一、什麼是神經網路?
人工神經網路演算法的最初構思是模仿生物神經元。但是這個類比很不可靠。人工神經網路的每一個特徵都是對生物神經元的一種折射:每一個節點與激活閾值、觸發的連接。
連接人工神經元系統建立起來之後,我們就能夠對這些系統進行訓練,從而讓他們學習到數據中的一些模式,學到之後就能執行回歸、分類、聚類、預測等功能。
人工神經網路可以看作是計算節點的集合。數據通過這些節點進入神經網路的輸入層,再通過神經網路的隱藏層直到關於數據的一個結論或者結果出現,這個過程才會停止。神經網路產出的結果會跟預期的結果進行比較,神經網路得出的結果與正確結果的不同點會被用來更正神經網路節點的激活閾值。隨著這個過程的不斷重復,神經網路的輸出結果就會無限靠近預期結果。
二、訓練過程
在搭建一個神經網路系統之前,你必須先了解訓練的過程以及網路輸出結果是怎麼產生的。然而我們並不想過度深入的了解這些方程式,下面是一個簡短的介紹。
網路的輸入節點收到一個數值數組(或許是叫做張量多維度數組)就代表輸入數據。例如, 圖像中的每個像素可以表示為一個標量,然後將像素傳遞給一個節點。輸入數據將會與神經網路的參數相乘,這個輸入數據被擴大還是減小取決於它的重要性,換句話說,取決於這個像素就不會影響神經網路關於整個輸入數據的結論。
起初這些參數都是隨機的,也就是說神經網路在建立初期根本就不了解數據的結構。每個節點的激活函數決定了每個輸入節點的輸出結果。所以每個節點是否能夠被激活取決於它是否接受到足夠的刺激強度,即是否輸入數據和參數的結果超出了激活閾值的界限。
在所謂的密集或完全連接層中,每個節點的輸出值都會傳遞給後續層的節點,在通過所有隱藏層後最終到達輸出層,也就是產生輸入結果的地方。在輸出層, 神經網路得到的最終結論將會跟預期結論進行比較(例如,圖片中的這些像素代表一隻貓還是狗?)。神經網路猜測的結果與正確結果的計算誤差都會被納入到一個測試集中,神經網路又會利用這些計算誤差來不斷更新參數,以此來改變圖片中不同像素的重要程度。整個過程的目的就是降低輸出結果與預期結果的誤差,正確地標注出這個圖像到底是不是一條狗。
深度學習是一個復雜的過程,由於大量的矩陣系數需要被修改所以它就涉及到矩陣代數、衍生品、概率和密集的硬體使用問題,但是用戶不需要全部了解這些復雜性。
但是,你也應該知道一些基本參數,這將幫助你理解神經網路函數。這其中包括激活函數、優化演算法和目標函數(也稱為損失、成本或誤差函數)。
激活函數決定了信號是否以及在多大程度上應該被發送到連接節點。階梯函數是最常用的激活函數, 如果其輸入小於某個閾值就是0,如果其輸入大於閾值就是1。節點都會通過階梯激活函數向連接節點發送一個0或1。優化演算法決定了神經網路怎麼樣學習,以及測試完誤差後,權重怎麼樣被更准確地調整。最常見的優化演算法是隨機梯度下降法。最後, 成本函數常用來衡量誤差,通過對比一個給定訓練樣本中得出的結果與預期結果的不同來評定神經網路的執行效果。
Keras、Deeplearning4j 等開源框架讓創建神經網路變得簡單。創建神經網路結構時,需要考慮的是怎樣將你的數據類型匹配到一個已知的被解決的問題,並且根據你的實際需求來修改現有結構。
三、神經網路的類型以及應用
神經網路已經被了解和應用了數十年了,但是最近的一些技術趨勢才使得深度神經網路變得更加高效。
GPUs使得矩陣操作速度更快;分布式計算結構讓計算能力大大增強;多個超參數的組合也讓迭代的速度提升。所有這些都讓訓練的速度大大加快,迅速找到適合的結構。
隨著更大數據集的產生,類似於ImageNet 的大型高質量的標簽數據集應運而生。機器學習演算法訓練的數據越大,那麼它的准確性就會越高。
最後,隨著我們理解能力以及神經網路演算法的不斷提升,神經網路的准確性在語音識別、機器翻譯以及一些機器感知和面向目標的一些任務等方面不斷刷新記錄。
盡管神經網路架構非常的大,但是主要用到的神經網路種類也就是下面的幾種。
3.1前饋神經網路
前饋神經網路包括一個輸入層、一個輸出層以及一個或多個的隱藏層。前饋神經網路可以做出很好的通用逼近器,並且能夠被用來創建通用模型。
這種類型的神經網路可用於分類和回歸。例如,當使用前饋網路進行分類時,輸出層神經元的個數等於類的數量。從概念上講, 激活了的輸出神經元決定了神經網路所預測的類。更准確地說, 每個輸出神經元返回一個記錄與分類相匹配的概率數,其中概率最高的分類將被選為模型的輸出分類。
前饋神經網路的優勢是簡單易用,與其他類型的神經網路相比更簡單,並且有一大堆的應用實例。
3.2卷積神經網路
卷積神經網路和前饋神經網路是非常相似的,至少是數據的傳輸方式類似。他們結構大致上是模仿了視覺皮層。卷積神經網路通過許多的過濾器。這些過濾器主要集中在一個圖像子集、補丁、圖塊的特徵識別上。每一個過濾器都在尋找不同模式的視覺數據,例如,有的可能是找水平線,有的是找對角線,有的是找垂直的。這些線條都被看作是特徵,當過濾器經過圖像時,他們就會構造出特徵圖譜來定位各類線是出現在圖像的哪些地方。圖像中的不同物體,像貓、747s、榨汁機等都會有不同的圖像特徵,這些圖像特徵就能使圖像完成分類。卷積神經網路在圖像識別和語音識別方面是非常的有效的。
卷積神經網路與前饋神經網路在圖像識別方面的異同比較。雖然這兩種網路類型都能夠進行圖像識別,但是方式卻不同。卷積神經網路是通過識別圖像的重疊部分,然後學習識別不同部分的特徵進行訓練;然而,前饋神經網路是在整張圖片上進行訓練。前饋神經網路總是在圖片的某一特殊部分或者方向進行訓練,所以當圖片的特徵出現在其他地方時就不會被識別到,然而卷積神經網路卻能夠很好的避免這一點。
卷積神經網路主要是用於圖像、視頻、語音、聲音識別以及無人駕駛的任務。盡管這篇文章主要是討論遞歸神經網路的,但是卷積神經網路在圖像識別方面也是非常有效的,所以很有必要了解。
3.3遞歸神經網路
與前饋神經網路不同的是,遞歸神經網路的隱藏層的節點里有內部記憶存儲功能,隨著輸入數據的改變而內部記憶內容不斷被更新。遞歸神經網路的結論都是基於當前的輸入和之前存儲的數據而得出的。遞歸神經網路能夠充分利用這種內部記憶存儲狀態處理任意序列的數據,例如時間序列。
遞歸神經網路經常用於手寫識別、語音識別、日誌分析、欺詐檢測和網路安全
遞歸神經網路是處理時間維度數據集的最好方法,它可以處理以下數據:網路日誌和伺服器活動、硬體或者是醫療設備的感測器數據、金融交易、電話記錄。想要追蹤數據在不同階段的依賴和關聯關系需要你了解當前和之前的一些數據狀態。盡管我們通過前饋神經網路也可以獲取事件,隨著時間的推移移動到另外一個事件,這將使我們限制在對事件的依賴中,所以這種方式很不靈活。
追蹤在時間維度上有長期依賴的數據的更好方法是用內存來儲存重要事件,以使近期事件能夠被理解和分類。遞歸神經網路最好的一點就是在它的隱藏層裡面有「內存」可以學習到時間依賴特徵的重要性。
接下來我們將討論遞歸神經網路在字元生成器和網路異常檢測中的應用。遞歸神經網路可以檢測出不同時間段的依賴特徵的能力使得它可以進行時間序列數據的異常檢測。
遞歸神經網路的應用
網路上有很多使用RNNs生成文本的例子,遞歸神經網路經過語料庫的訓練之後,只要輸入一個字元,就可以預測下一個字元。下面讓我們通過一些實用例子發現更多RNNs的特徵。
應用一、RNNs用於字元生成
遞歸神經網路經過訓練之後可以把英文字元當做成一系列的時間依賴事件。經過訓練後它會學習到一個字元經常跟著另外一個字元(「e」經常跟在「h」後面,像在「the、he、she」中)。由於它能預測下一個字元是什麼,所以它能有效地減少文本的輸入錯誤。
Java是個很有趣的例子,因為它的結構包括很多嵌套結構,有一個開的圓括弧必然後面就會有一個閉的,花括弧也是同理。他們之間的依賴關系並不會在位置上表現的很明顯,因為多個事件之間的關系不是靠所在位置的距離確定的。但是就算是不明確告訴遞歸神經網路Java中各個事件的依賴關系,它也能自己學習了解到。
在異常檢測當中,我們要求神經網路能夠檢測出數據中相似、隱藏的或許是並不明顯的模式。就像是一個字元生成器在充分地了解數據的結構後就會生成一個數據的擬像,遞歸神經網路的異常檢測就是在其充分了解數據結構後來判斷輸入的數據是不是正常。
字元生成的例子表明遞歸神經網路有在不同時間范圍內學習到時間依賴關系的能力,它的這種能力還可以用來檢測網路活動日誌的異常。
異常檢測能夠使文本中的語法錯誤浮出水面,這是因為我們所寫的東西是由語法結構所決定的。同理,網路行為也是有結構的,它也有一個能夠被學習的可預測模式。經過在正常網路活動中訓練的遞歸神經網路可以監測到入侵行為,因為這些入侵行為的出現就像是一個句子沒有標點符號一樣異常。
應用二、一個網路異常檢測項目的示例
假設我們想要了解的網路異常檢測就是能夠得到硬體故障、應用程序失敗、以及入侵的一些信息。
模型將會向我們展示什麼呢?
隨著大量的網路活動日誌被輸入到遞歸神經網路中去,神經網路就能學習到正常的網路活動應該是什麼樣子的。當這個被訓練的網路被輸入新的數據時,它就能偶判斷出哪些是正常的活動,哪些是被期待的,哪些是異常的。
訓練一個神經網路來識別預期行為是有好處的,因為異常數據不多,或者是不能夠准確的將異常行為進行分類。我們在正常的數據里進行訓練,它就能夠在未來的某個時間點提醒我們非正常活動的出現。
說句題外話,訓練的神經網路並不一定非得識別到特定事情發生的特定時間點(例如,它不知道那個特殊的日子就是周日),但是它一定會發現一些值得我們注意的一些更明顯的時間模式和一些可能並不明顯的事件之間的聯系。
我們將概述一下怎麼用 Deeplearning4j(一個在JVM上被廣泛應用的深度學習開源資料庫)來解決這個問題。Deeplearning4j在模型開發過程中提供了很多有用的工具:DataVec是一款為ETL(提取-轉化-載入)任務准備模型訓練數據的集成工具。正如Sqoop為Hadoop載入數據,DataVec將數據進行清洗、預處理、規范化與標准化之後將數據載入到神經網路。這跟Trifacta』s Wrangler也相似,只不過它更關注二進制數據。
開始階段
第一階段包括典型的大數據任務和ETL:我們需要收集、移動、儲存、准備、規范化、矢量話日誌。時間跨度的長短是必須被規定好的。數據的轉化需要花費一些功夫,這是由於JSON日誌、文本日誌、還有一些非連續標注模式都必須被識別並且轉化為數值數組。DataVec能夠幫助進行轉化和規范化數據。在開發機器學習訓練模型時,數據需要分為訓練集和測試集。
訓練神經網路
神經網路的初始訓練需要在訓練數據集中進行。
在第一次訓練的時候,你需要調整一些超參數以使模型能夠實現在數據中學習。這個過程需要控制在合理的時間內。關於超參數我們將在之後進行討論。在模型訓練的過程中,你應該以降低錯誤為目標。
但是這可能會出現神經網路模型過度擬合的風險。有過度擬合現象出現的模型往往會在訓練集中的很高的分數,但是在遇到新的數據時就會得出錯誤結論。用機器學習的語言來說就是它不夠通用化。Deeplearning4J提供正則化的工具和「過早停止」來避免訓練過程中的過度擬合。
神經網路的訓練是最花費時間和耗費硬體的一步。在GPUs上訓練能夠有效的減少訓練時間,尤其是做圖像識別的時候。但是額外的硬體設施就帶來多餘的花銷,所以你的深度學習的框架必須能夠有效的利用硬體設施。Azure和亞馬遜等雲服務提供了基於GPU的實例,神經網路還可以在異構集群上進行訓練。
創建模型
Deeplearning4J提供ModelSerializer來保存訓練模型。訓練模型可以被保存或者是在之後的訓練中被使用或更新。
在執行異常檢測的過程中,日誌文件的格式需要與訓練模型一致,基於神經網路的輸出結果,你將會得到是否當前的活動符合正常網路行為預期的結論。
代碼示例
遞歸神經網路的結構應該是這樣子的:
MultiLayerConfiguration conf = new NeuralNetConfiguration.Builder(
.seed(123)
.optimizationAlgo(OptimizationAlgorithm.STOCHASTIC_GRADIENT_DESCENT).iterations(1)
.weightInit(WeightInit.XAVIER)
.updater(Updater.NESTEROVS).momentum(0.9)
.learningRate(0.005)
.gradientNormalization(GradientNormalization.ClipElementWiseAbsoluteValue)
.(0.5)
.list()
.layer(0, new GravesLSTM.Builder().activation("tanh").nIn(1).nOut(10).build())
.layer(1, new RnnOutputLayer.Builder(LossFunctions.LossFunction.MCXENT)
.activation("softmax").nIn(10).nOut(numLabelClasses).build())
.pretrain(false).backprop(true).build();
MultiLayerNetwork net = new MultiLayerNetwork(conf);
net.init();
下面解釋一下幾行重要的代碼:
.seed(123)
隨機設置一個種子值對神經網路的權值進行初始化,以此獲得一個有復驗性的結果。系數通常都是被隨機的初始化的,以使我們在調整其他超參數時仍獲得一致的結果。我們需要設定一個種子值,讓我們在調整和測試的時候能夠用這個隨機的權值。
.optimizationAlgo(OptimizationAlgorithm.STOCHASTIC_GRADIENT_DESCENT).iterations(1)
決定使用哪個最優演算法(在這個例子中是隨機梯度下降法)來調整權值以提高誤差分數。你可能不需要對這個進行修改。
.learningRate(0.005)
當我們使用隨機梯度下降法的時候,誤差梯度就被計算出來了。在我們試圖將誤差值減到最小的過程中,權值也隨之變化。SGD給我們一個讓誤差更小的方向,這個學習效率就決定了我們該在這個方向上邁多大的梯度。如果學習效率太高,你可能是超過了誤差最小值;如果太低,你的訓練可能將會永遠進行。這是一個你需要調整的超參數。

Ⅳ guest room是什麼意思

guest room英 [ɡest ru:m] 美 [ɡɛ碧兆攔st rum]

n.客室,客房;

[網路]客房; 客室;

[例句]photo above: All the old cowboy stuff from Xavier's former bedroom
lives in the guest room now.

上圖:Xavier以前的卧室裡面的所有牛仔裝飾現在也都在客房裡。

[其猜臘他]復數:悔胡guest rooms

Ⅳ AI面試題第二彈(神經網路基礎)

提取主要特徵,減小網路參數量,減小計算量

層層傳遞的梯度>1 梯度爆炸

層層傳遞的梯度<1 梯度消失

與權重有很大關系,激活函數的影響較小。

每次訓練一層隱節點,訓練時將上一層隱節點的輸出作為輸入,而本層隱節點的輸出作為下一層隱節點的輸入,此過程就是逐層「預訓練」(pre-training);在預訓練完成後,再對整個網路進行「微調」(fine-tunning)。Hinton在訓練深度信念網路(Deep Belief Networks中,使用了這個方法,在各層預訓練完成後,再利用BP演算法對整個網路進行訓練。

這個方案主要是針對梯度爆炸提出的,其思想是設置一個梯度剪切閾值,然後更新梯度的時候,如果梯度超過這個閾值,那麼就將其強制限制在這個范圍之內。這可以防止梯度爆炸。

比較常見的是l1l1l1正則,和l2l2l2正則,在各個深度框架中都有相應的API可以使用正則化

反向傳播中,經過每一層的梯度會乘以該層的權重。

舉個簡單例子:

為了得到一致假設而使假設變得過度復雜稱為過擬合(overfitting), 過擬合表現在訓練好的模型在訓練集上效果很好,但是在測試集上效果差 。也就是說模型的泛化能力弱。

過擬合主要由兩個原因造成,數據集太小或模型太復雜

(1). 數據集擴增(Data Augmentation)

(2). 改進模型

·Early Stopping。在模型效果比較好的時候便提前停止訓練

 ·正則化(regularization)

L1:稀疏參數

L2:更小參數

·Dropout

·多任務學習

深度學習中兩種多任務學習模式:隱層參數的硬共享和軟共享

硬共享機制是指在所有任務中共享隱藏層,同時保留幾個特定任務的輸出層來實現。硬共享機制降低了過擬合的風險。多個任務同時學習,模型就越能捕捉到多個任務的同一表示,從而導致模型在原始任務上的過擬合風險越小。

軟共享機制是指每個任務有自己的模型,自己的參數。模型參數之間的距離是正則化的,以便保障參數相似性。

見後文

leaky relu

輸入是x輸出是y,正常的流程是:我們首先把x通過網路前向傳播,然後把誤差反向傳播以決定如何更新參數讓網路進行學習。使用Dropout之後,過程變成如下:

(1)首先隨機(臨時)刪掉網路中一半的隱藏神經元,輸入輸出神經元保持不變(圖中虛線為部分臨時被刪除的神經元)

(2) 然後把輸入x通過修改後的網路前向傳播,然後把得到的損失結果通過修改的網路反向傳播。一小批訓練樣本執行完這個過程後,在沒有被刪除的神經元上按照隨機梯度下降法更新對應的參數(w,b)。

(3)然後繼續重復這一過程:

恢復被刪掉的神經元(此時被刪除的神經元保持原樣,而沒有被刪除的神經元已經有所更新)

從隱藏層神經元中隨機選擇一個一半大小的子集臨時刪除掉(備份被刪除神經元的參數)。

對一小批訓練樣本,先前向傳播然後反向傳播損失並根據隨機梯度下降法更新參數(w,b) (沒有被刪除的那一部分參數得到更新,刪除的神經元參數保持被刪除前的結果)。

不斷重復這一過程。

沒有對數據進行歸一化

忘記檢查輸入和輸出

沒有對數據進行預處理

沒有對數據正則化

使用過大的樣本

使用不正確的學習率

在輸出層使用錯誤的激活函數

網路中包含壞梯度

初始化權重錯誤

過深的網路

隱藏單元數量錯誤

網路設計不合理(任務-網路不匹配)

機器學習有個很重要的假設:就是假設訓練數據和測試數據是滿足獨立同分布的,這保障了通過訓練數據獲得的優秀模型也能夠在測試集獲得好的效果。但是在機器學習訓練中輸入層的每個批量(X,Y)中X的分布是不一致的,並且神經網路的隱藏層的輸入分布在每次訓練迭代中發生變化。 BatchNorm就是在深度神經網路訓練過程中使得每一層神經網路的輸入保持相同分布的。

BN的基本思想其實相當直觀:因為深層神經網路在做非線性變換前(激活前)的 輸入值 (就是那個x=WU+B,U是輸入) 隨著網路深度加深或者在訓練過程中,其分布逐漸發生偏移或者變動,之所以訓練收斂慢,一般是整體分布逐漸往非線性函數的取值區間的上下限兩端靠近 (對於Sigmoid函數來說,意味著激活輸入值WU+B是大的負值或正值),所以這 導致反向傳播時低層神經網路的梯度消失 ,這是訓練深層神經網路收斂越來越慢的 本質原因 , 而BN就是通過一定的規范化手段,把每層神經網路任意神經元這個輸入值的分布強行拉回到均值為0方差為1的標准正態分布 ,其實就是把越來越偏的分布強制拉回比較標準的分布,這樣使得激活輸入值落在非線性函數對輸入比較敏感的區域,這樣輸入的小變化就會導致損失函數較大的變化,意思是 這樣讓梯度變大,避免梯度消失問題產生,而且梯度變大意味著學習收斂速度快,能大大加快訓練速度。

但是接下來的問題是:如果都通過BN,那麼不就跟把非線性函數替換成線性函數效果相同了,意味著網路的非線性表達能力下降了, 所以BN為了保證非線性的獲得,對變換後的滿足均值為0方差為1的x又進行了scale加上shift操作(y=scale*x+shift), 每個神經元增加了兩個參數scale和shift參數,這兩個參數是通過訓練學習到的,意思是通過scale和shift把這個值從標准正態分布左移或者右移一點並長胖一點或者變瘦一點,每個實例挪動的程度不一樣,這樣等價於激活前的值經過標准正太分布歸一化後再從正中心周圍的線性區往非線性區動了動。核心思想應該是想找到一個線性和非線性的較好平衡點,既能享受非線性的較強表達能力的好處,又避免太靠非線性區兩頭使得網路收斂速度太慢

Batch Normalization 好處:(1)提高了訓練速度,收斂速度也大大加快(2)另外調參過程也簡單多了,對於初始化要求沒那麼高,而且可以使用大的學習率等 (3)可以防止梯度消失(4)BN類似於Dropout的一種防止過擬合的正則化表達方式,可以有效防止過擬合,不用太依賴dropou和正則化

以下情況最好不要使用BN:(1)數據不平衡(2)batch_size太小

batch_size是機器學習中的一個重要參數,決定了梯度下降的方向,如果數據集比較小,完全可以採用全數據集的形式計算梯度,由全數據集確定的梯度方向能夠更好地代表樣本總體,從而更准確地朝向極值所在的方向。對於大型數據集則需要使用mini-batch_size,因為隨著數據集的海量增長和內存限制,一次性載入所有的數據進來變得越來越不可行。

當batch_size=1,即在線學習,模型難以達到收斂 。

合理增加batch_size好處 :

(1)內存利用率提高了,大矩陣乘法的並行化效率提高

(2)跑完一次 epoch(全數據集)所需的迭代次數減少,對於相同數據量的處理速度進一步加快。

(3)在一定范圍內,一般來說 Batch_Size 越大,其確定的下降方向越准,引起訓練震盪越小

盲目增大 Batch_Size 壞處 :

(1)內存利用率提高了,但是內存容量可能撐不住了

(2)跑完一次 epoch(全數據集)所需的迭代次數減少,要想達到相同精度所需要的 epoch 數量越來越多,花費的時間越長

(3)大的batchsize收斂到sharp minimum,而小的batchsize收斂到flat minimum,後者具有更好的泛化能力。

總之batchsize在變得很大(超過一個臨界點)時,會降低模型的泛化能力。在這個臨界點之下,模型的性能變換隨batch size通常沒有學習率敏感

    目標所在的真實框(ground truth) 與演算法預測的目標所在的框(bounding box)的交集與並集的比值,我們會用IOU閾值來判定預測的bounding box是否有效。一般閾值會設定在0.5,當IOU的值大於等於0.5時,我們會把這個預測的bounding box 歸為正類,而小於0.5的歸為負類。

牛頓法使用的是目標函數的二階導數,在高維情況下這個Hessian(n*n維度)矩陣非常大,計算復雜度是n*n,計算和存儲都是問題

(1) 通過控制卷積核個數實現升維或者降維,從而減少模型參數和計算量

(2) 用於不同channel上特徵的融合

(3)1x1的卷積相當於全連接層的計算過程,並且加入了非線性激活函數,從而增加了網路的非線性,使得網路可以表達更加復雜的特徵。

它能夠把輸入的連續實值變換為0和1之間的輸出,如果是非常大的負數,那麼輸出就是0;如果是非常大的正數,輸出就是1

缺點:

(1)函數的飽和區,導致梯度幾乎為0,造成梯度消失問題

(2)Sigmoid 的 output 不是0均值,具體解釋見 https://blog.csdn.net/tyhj_sf/article/details/79932893

(3)其解析式中含有冪運算,計算機求解時相對來講比較耗時。對於規模比較大的深度網路,這會較大地增加訓練時間。

它解決了Sigmoid函數的不是零均值輸出問題,然而,梯度消失(gradient vanishing)的問題和冪運算的問題仍然存在。

(1)在正區間解決了梯度消失的問題

(2)函數簡單,計算速度快,收斂速度遠快於sigmoid和tanh

缺點:

(1)Relu函數輸出不是0均值

(2)神經元壞死問題:指的是某些神經元可能永遠不會被激活,導致相應的參數永遠不能被更新,有兩個主要原因導致這種狀況發生

        (1) 非常不幸的參數初始化,這種情況比較少見 

        (2) learning rate太高導致在訓練過程中參數更新太大,不幸使網路進入這種狀態。解決方法是可以採用Xavier初始化方法,以及避免將learning rate設置太大或使用adagrad等自動調節learning rate的演算法

為了解決ReLU函數帶來的神經元壞死問題 , 提出了將ReLU的前半段設為αx,α通常設為0.01,,另外一種直觀的想法是基於參數的方法PReLU函數, α可由方向傳播演算法學習出來。

ELU也是為解決ReLU存在的問題而提出,顯然,ELU有ReLU的基本所有優點,以及:(1)不會有神經元壞死現象(2)函數輸出均值接近於0

但是ELU的小問題就是計算量稍微有點大。

1、使用不同的激活函數,比如Relu,Leak-Relu,PRelu,elu等激活函數代替sigmoid函數

2、使用Batch Normalizaion(批量歸一化)

3、使用殘差網路

4、預訓練加微調

1、梯度裁剪

2、權重正則化

兩個3x3的卷積核的感受野比5x5的卷積核的感受野大,在保持相同感受野的同時,用3x3的卷積核可以提升網路的深度,可以很明顯的減少計算量。

1、局部連接

2、權值共享:減小參數量

3、池化操作:增大感受野

4、多層次結構:可以提取low-level以及high-level的信息

1、數據集太小,數據樣本不足時,深度學習相對其它機器學習演算法,沒有明顯優勢。

2、數據集沒有局部相關特性,目前深度學習表現比較好的領域主要是圖像/語音/自然語言處理等領域,這些領域的一個共性是局部相關性。圖像中像素組成物體,語音信號中音位組合成單詞,文本數據中單片語合成句子,這些特徵元素的組合一旦被打亂,表示的含義同時也被改變。對於沒有這樣的局部相關性的數據集,不適於使用深度學習演算法進行處理。舉個例子:預測一個人的健康狀況,相關的參數會有年齡、職業、收入、家庭狀況等各種元素,將這些元素打亂,並不會影響相關的結果。

作用 :對輸入的特徵圖進行壓縮,

一方面使特徵圖變小,簡化網路計算復雜度;

一方面進行特徵壓縮,提取主要特徵。

通常來講,max-pooling的效果更好,雖然max-pooling和average-pooling都對數據做了下采樣,但是 max-pooling感覺更像是做了特徵選擇,選出了分類辨識度更好的特徵,提供了非線性 。 pooling的主要作用一方面是去掉冗餘信息,一方面要保留feature map的特徵信息,在分類問題中,我們需要知道的是這張圖像有什麼object,而不大關心這個object位置在哪,在這種情況下顯然max pooling比average pooling更合適。在 網路比較深的地方,特徵已經稀疏了,從一塊區域里選出最大的,比起這片區域的平均值來,更能把稀疏的特徵傳遞下去 。

average-pooling更強調對整體特徵信息進行一層下采樣,在減少參數維度的貢獻上更大一點,更多的體現在 信息的完整傳遞這個維度 上,在一個很大很有代表性的模型中,比如說DenseNet中的模塊之間的連接大多採用average-pooling,在減少維度的同時,更有利信息傳遞到下一個模塊進行特徵提取。

average-pooling在 全局平均池化操作 中應用也比較廣,在ResNet和Inception結構中最後一層都使用了平均池化。有的時候在模型接近 分類器的末端使用全局平均池化還可以代替Flatten操作 ,使輸入數據變成一位向量。

CNN網路中另外一個不可導的環節就是Pooling池化操作,因為Pooling操作使得feature map的尺寸變化,假如做2×2的池化(步長也為2),假設那麼第l+1層的feature map有16個梯度,那麼第l層就會有64個梯度,這使得梯度無法對位的進行傳播下去。其實解決這個問題的思想也很簡單,就是把1個像素的梯度傳遞給4個像素,但是需要保證傳遞的loss(或者梯度)總和不變。根據這條原則,mean pooling和max pooling的反向傳播也是不同的

mean pooling的前向傳播就是把一個patch中的值求取平均來做pooling,那麼反向傳播的過程也就是把 某個元素的梯度等分為n份分配給前一層,這樣就保證池化前後的梯度(殘差)之和保持不變 ,圖示如下 :

(2) max pooling

max pooling也要滿足梯度之和不變的原則 ,max pooling的前向傳播是把patch中最大的值傳遞給後一層,而其他像素的值直接被舍棄掉。那麼 反向傳播也就是把梯度直接傳給前一層某一個像素,而其他像素不接受梯度,也就是為0。 所以max pooling操作和mean pooling操作不同點在於需要記錄下池化操作時到底哪個像素的值是最大,也就是max id,這個變數就是記錄最大值所在位置的,因為在反向傳播中要用到,那麼假設前向傳播和反向傳播的過程就如下圖所示 :

28、細粒度分類

29、LSTM&RNN

30、解釋LSTM結構(相對於RNN)的好處

31、RNN的梯度消失原因和解決辦法

32、Object Detection

33、Unet的介紹

34、FCN和Unet的區別

35、RCNN系列的演算法流程和區別

36、Fast RCNN中 bbox 回歸的損失函數什麼

37、解釋 ROI Pooling 和 ROI Align

38、Mask RCNN中 mask branch 如何接入 Faster RCNN中

39、解釋 FPN

40、解釋 ROI Align

41、簡述 YOLO 和 SSD

42、簡述 Hough 直線檢測、Sobel 邊緣檢測演算法流程

43、Mask RCNN中的anchors如何判定為正負樣本

44、簡述 NMS 演算法流程

45、attention起源是用在哪裡?pixel還是frame,是soft還是hard

46、anchor的正負樣本比是多少

47、演算法和激活函數等

48、BN的原理和作用

49、BN層反向傳播,怎麼求導

50、BN 的作用和缺陷,以及針對batch_size小的情況的改進(GN)

51、BN層,先加BN還是激活,有什麼區別

52、手推BP

53、優化演算法舉例和他們的區別(SGD、SGDM、RMSprop、Adam)

54、隨機梯度下降和梯度下降

55、訓練不收斂的原因有哪些

56、簡述 SVM 流程、核函數尋參及常見的核函數舉例

57、batch_size 和 learning rate 的關系(怎麼平衡和調整二者)

58、解釋過擬合和欠擬合,以及解決方法

59、激活函數有哪些,各自區別

60、損失函數有哪些

61、Sigmoid 和 ReLu 對比(各自優缺點)

62、為什麼不用sigmoid而用relu?做出了哪些改進?

63、梯度消失和梯度爆炸的原因和解決方法

64、Precision 和 Recall 的定義

65、精確率高、召回率低是為什麼

66、SVM,線性回歸和邏輯回歸的原理及區別

67、PCA原理,PCA和SVD的區別和聯系

68、正則化怎麼選擇,有哪些方式

69、L1、L2范數,區別

70、boost、Adaboost

71、dropout和batch normalization

72、講一下決策樹和隨機森林

73、講一下GBDT的細節,寫出GBDT的目標函數。 GBDT和Adaboost的區別與聯系

74、偏差、方差

75、距離度量公式哪些,區別

76、多標簽識別怎麼做

77、data argumentation怎麼處理的

78、數據不均衡怎麼處理、只有少量帶標簽怎麼處理

79、權重初始化方法都有哪些

80、權值衰減這個參數怎麼設置

81、分類問題有哪些評價指標?每種的適用場景。

82、無監督學習了解哪些

83、圖像處理Opencv

84、邊緣檢測運算元有哪些

85、霍夫變換

86、直方圖是什麼

87、canny運算元是怎麼做的

88、圖像的特徵提取有哪些演算法,適用范圍、優缺點

參考:

https://blog.csdn.net/bluesliuf/article/details/89389117

https://zhuanlan.hu.com/p/107279000

https://zhuanlan.hu.com/p/56475281

Ⅵ x,i,a,h,a,i開頭的英文短語,要連成一個短語

Xantholite In Acieracious Heart And I

十字石與我在愛的心中

意猛敗思就是 希望我在你的心裡 你的心裡充滿愛

建議去買塊十字石 買不到的話買塊十字的水晶也行 這樣會很有意境

十字石
島狀結構硅納弊酸鹽礦物,它因有一個奇特的十字外形而得名。十洞知族字石又 硬又脆,具有暗淡的光澤,一般為暗褐色。罕見的透明十字石可當作定石。因為它的形狀,人們常用它製成裝飾品。

另 上面刷屏的同志 自己沒文化就算了 用不著在這里丟人現眼吧 唉

Ⅶ 誰能告訴我那些英文名字的意思

你好!很高興回答你的問題, 你的問題非常深奧 我只能回答的淺薄 請您諒解
一.tom [tɑm] 湯姆
[詞典釋義]. 1. 雄性動物 2. 雄貓 3. (T-)Thomas之昵稱 4.人名 傑克
[網路釋義] 1.雄火雞 2.桶鼓 Tom 1.隔日交割 2.湯姆(男名) 3.湯姆 太陽之神
二.jack英音:[dʒæk]美音:[dʒæk] 傑克
名詞 1.(有時大寫)男人;男孩;普通人 2.(有時大寫)僕人;侍者;打雜工3.(常大寫)水手;海員;水兵
4.起重機;千斤頂 lift a car with a jack 用千斤頂把汽車托起 5.(紙牌中的)"J"牌,傑克 6.【電】插座;插口 7.【船】船首旗 8.公騾;公畜;長耳大野兔
及物動詞 We jacked the automobile in order to change a tire 我們用千斤頂把汽車托起換個輪胎。
前綴 1.表示"公的","雄的"(如:jackass) 2.表示"大的","堅固的"(如:jackboot) 3.表示"男孩","人"(如:jack-in-the-box)
三 martin英音:['mɑ:tin]美音:['mɑrtɪn] 馬丁
名詞 1.【鳥】紫崖燕;毛腳燕 2.(M-)馬丁(男子名)
網路釋義 1.馬丁棉 出口貨物名稱中英對照(170)—生命經緯
2.好戰的/古羅馬戰神的名字
3.馬丁 拉丁 好戰的,尚武的
Aaron 艾倫 希伯來 巍然的高山;受神啟示的。
Abbott 艾布特 希伯來 父性的;偉大的精神。
Abel 亞伯 拉丁 生命;呼吸。
Abner 艾布納 希伯來 睿智;有智能。
Abraham 亞伯拉罕 希伯來 崇高的父親;眾人之父。
Adair 亞岱爾 蘇格蘭,愛爾蘭 猶如像樹般堅強。
Adam 亞當 希伯來 天下第一個男人,男性
Addison 艾狄生 英國 亞當的後代。
Adolph 阿道夫 德國 高貴的狼。
Adonis 亞度尼斯 希臘 美男子。
Adrian 亞德里恩 拉丁 傍亞德里亞海而居之人。
Ahern 亞恆 塞爾特 馬的主人。
Alan 艾倫 斯堪的那維亞 英俊的,好看的;和睦,和平;高興的。
Albert 艾伯特 英國 高貴的聰明;人類的守護者。
Aldrich 奧德里奇 英國 英明的統治者。
Alexander 亞歷山大 希臘 人類的保護者;人的幫手。
Alfred 亞爾弗列得 英國;條頓 睿智的顧問;聰明幫手。
Alger 阿爾傑 英國 光榮高貴護衛。
Algernon 阿爾傑農 法國 滿臉照鬍子的人。
Allen 艾倫 蓋爾 和諧融洽;英俊的;好看的。
Alston 奧斯頓 英國 出身高貴的人。
Alva 阿爾瓦 拉丁 白種人的;金發碧眼的。
Alvin 阿爾文 條頓 被大家所鍵櫻喜愛的;每個人的朋友。
Alvis 亞爾維斯 挪威 短小精悍的人。
Amos 亞摩斯 希伯來 任重道遠的人。
Andre 安得烈 法國 勇敢的,驍勇的。
Andrew 安德魯 希臘 男性的,勇敢的,驍勇的。
Andy 安迪 希臘 男性的,勇敢的,驍勇的。
Angelo 安其羅 義大利 上帝的使者。
Augus 安格斯 蓋爾 一個,唯一無二的;愛神。
Ansel 安斯艾爾 法國 出身或教養均極高貴的人。
Antony 安東尼 拉丁 值得贊美,備受尊崇的。
Antoine 安東莞 歐洲 值得贊美,備受尊崇的。
Antonio 安東尼奧 拉丁 值得贊美,備受尊崇的。
Archer 阿奇爾 英國 拉開千鈞之弓的大力士。
Archibald 阿奇柏德 英國 高貴的,勇敢的。
Aries 亞力士 拉丁 公羊。
Arlen 亞爾林 英國銀亮運 誓約。
Armand 亞爾曼 德國 軍人。
Armstrong 阿姆斯特朗 英國 臂力強健的人。
Arno 阿諾 條頓 鷹。
Arnold 阿諾德 條頓 鷹。
Arthur 亞瑟 英國 高尚的或貴族的。
Arvin 艾文 條頓 以平等之心待人者。
Asa 亞撒 希伯來 上帝的鋒梁賜予;治癒者。
Ashbur 亞希伯恩 英國 入世的賽,傳播喜訊者。
Atwood 亞特伍德 英國 住在森林或森林中的人。
Aubrey 奧布里 條頓 有錢有勢的國王;小精靈。
August 奧格斯格 拉丁 神聖的、尊崇的或身份高尚的人;八月。
Augustine 奧古斯汀 拉丁 指八月出生的人。
Avery 艾富里 英國 爭斗;淘氣,愛惡作劇的人。
Baird 拜爾德 愛爾蘭 很會唱民謠的人。
Baldwin 柏得溫 條頓 在戰場很英勇的人。
Bancroft 班克羅福特 英國 種豆之人。
Bard 巴德 英國 很快樂,且喜歡養家畜的人。
Barlow 巴羅 希臘 住山中的人。
Barnett 巴奈特 英國 領袖。
Baron 巴倫 英國 勇敢的戰士;高貴;男爵。
Barret 巴里特 條頓 有大擔當的人;熊。
Barry 巴里 愛爾蘭 優秀的射手;持矛者。
Bartholomew 巴薩羅穆 希臘 是耶穌的十二門徒之一;農田之子。
Bart 巴特 希臘 是耶穌的十二門徒之一。
Barton 巴頓 英國 住在大麥田裡的人。
Bartley 巴特萊 英國 看管牧草地的人。
Basil 巴澤爾 拉丁 像國王的。
Beacher 比其爾 英國 原意浪濤。
Beau 寶兒 法國 好修飾的人,花花公子。
Beck 貝克 英國 溪流。
Ben 班 希伯來 兒子;山峰。
Benedict 班尼迪克 拉丁 受祝福的;能言善道的;神聖的。
Benjamin 班傑明 希伯來 最喜愛的兒子;幸運的;雅各的小孩。
Bennett 班奈特 拉丁 受祝福的人。
Benson 班森 希伯來,英國 具有其父般性格人。
Berg 柏格 條頓 冰山。
Berger 格吉爾 法國 犁地的人;牧羊人。
Bernard 格納 條頓 像熊一般勇敢。
Bernie 伯尼 條頓 像熊一般勇敢。
Bert 伯特 英國 光輝燦爛;全身散發出榮耀和光輝的人。
Berton 伯頓 英國 勤儉治產之人。
Bertram 柏特萊姆 條頓 幸運且傑出的人。
Bevis 畢維斯 法國 能明察周遭環境的人。
Bill 比爾 德國 強而有力的戰士或保護者。
Bing 賓 德國 來自很特殊的村落。
Bishop 畢夏普 英國 監督者。
Blair 布雷爾 塞爾特 平原的;多沼澤的戰場。
Blake 布萊克 英國 漂白。
Blithe 布萊茲 英國 很快樂的人。
Bob 鮑伯 條頓 輝煌的名聲。
Booth 布茲 挪威 住小茅屋的人。
Borg 柏格 斯拉夫 居住在一座世襲古堡之中者。
Boris 伯里斯 俄國 戰門;陌生人。
Bowen 波文 英國 有教養的貴族。
Boyce 柏宜斯 法國 住在森林中,獨立者。
Boyd 布德 塞爾特 金發的;白種人的。
Bradley 布蘭得利 英國 寬廣的草地。
Brady 布萊迪 英國 生氣蓬勃的;寬廣的島嶼。
Brandon 布蘭登 英國 發亮的山區。
Brian 布萊恩 塞爾特和蓋爾 有權勢的領袖;出生高貴。
Broderick 布拉得里克 斯堪的那維亞 著名的國王。
Brook 布魯克 英國 傍溪而居之人。
Bruce 布魯斯 法國 一座森林。
Bruno 布魯諾 義大利 褐色的或黑色的膚色。
Buck 巴克 英國 雄鹿。
Burgess 伯騎士 英國 自由的人。
Burke 巴爾克 法國 住在城堡要塞的人。
Burnell 布尼爾 法國 身材矮小者。
Burton 波頓 英國 山丘上的小鎮。
Byron 拜倫 英國 鄉下房舍,喜愛大自然景物者。
Caesar 凱撒 拉丁 皇帝;毛茸茸的。
Calvin 卡爾文 拉丁 禿頭的。
Carey 凱里 威爾斯 住在古堡里的人。
Carl 卡爾 德國 偉大的人;男子漢。
Carr 凱爾 挪威 住在沼澤的人。
Carter 卡特 英國 架馬車的人。
Cash 凱希 拉丁 愛慕虛榮者,現金。
Cecil 塞西爾 拉丁 視力朦朧的。
Cedric 賽得里克 塞爾特 戰爭統帥;慷慨的。
Chad 查德 英國 有經驗的戰士。
Channing 強尼 法國 牧師。
Chapman 契布曼 英國 商人;小販。
Charles 查理斯 拉丁-條頓 強壯的,男性的,高貴心靈,強健的。
Chasel 夏佐 古法國 獵人。
Chester 賈斯特 羅馬 小鎮
Christ 克萊斯特 希伯來 基督。
Christian 克里斯汀 希臘 基督的追隨者,信徒。
Christopher 克里斯多夫 希臘 基督的信差或僕人,表基督徒之意。
Clare 克雷爾 拉丁 頭腦清楚的。
Clarence 克拉倫斯 拉丁 頭腦清楚的;聰明的;著名的。
Clark 克拉克 拉丁和英國 一位學者。
Claude 克勞德 拉丁 跛腳者。
Clement 克雷孟特 拉丁 和善和,仁慈的人。
Cleveland 克利夫蘭 英國 來自岩區的人。
Cliff 柯利福 英國 來自陡峭的山區之人。
Clifford 柯利弗德 英國 臨近懸崖的道岔口,堡壘。
Clyde 克萊得 威爾斯 在很遠的地方就聽得到。
Colbert 考伯特 英國 船員。
Colby 考爾比 挪威 來自黑暗地區的人。
Colin 科林 蓋爾 小孩或嬰兒。
Conrad 康拉德 條頓 援助者,智能;指導的人。
Corey 寇里 蘇格蘭 居住在湖邊的人。
Cornelius 康那理惟士 拉丁 太陽之角;王權
Cornell 康奈爾 法國 金黃色頭發的人。
Craig 克萊凸 塞爾特 居住峭壁的人。
Curitis 柯帝士 法國 有禮貌的。
Cyril 西瑞爾 希臘 貴族的。
Dana 戴納 英國 如陽光般純潔、光耀。
Daniel 丹尼爾 希伯來 上帝是我的仲判人。
Darcy 達爾西 法國 指來自大城堡的人,黑人。
Darnell 達尼爾 希伯來 上帝是我的仲判人。
Darren 達倫 愛爾蘭 有成大事業的潛力之人。
Dave 迪夫 希伯來 所愛的人。
David 大衛 希伯來 所愛的人。
Dean 迪恩 英國 山谷;學校的領導者;教堂的領導者。
Dempsey 鄧普斯 蓋爾 驕傲而有力的人。
Dennis 鄧尼斯 希臘 希臘的酒神。
Derrick 戴里克 德國 民族的統治者。
Devin 得文 愛爾蘭 指詩人或學者。
Dick 狄克 德國 勇猛的,大膽的。
Dominic 多明尼克 拉丁 屬於上帝的。
Don 唐 塞爾特 世界領袖。
Donahue 唐納修 愛爾蘭 紅褐色的戰士。
Donald 唐納德 塞爾特 世界領袖;酋長。
Douglas 道格拉斯 蓋爾 來自黑海的人;深灰色。
Drew 杜魯 威爾斯 聰慧與誠實的人。
Duke 杜克 拉丁 公爵;領導者。
Duncan 鄧肯 蓋爾 褐色的戰士;曬得黑黑的戰士。
Dunn 唐恩 英國 指黑色皮膚的人。
Dwight 德維特 條頓 白種人或金發碧眼的人。
Dylan 狄倫 威爾斯 海洋;波浪之神。
Earl 額爾 英國 有敏銳智能的高貴領導者。
Ed 艾德 英國 一位有錢的監護人。
Eden 伊登 希伯來 伊甸園,光芒與快樂。
Edgar 愛德格 英國 快樂的戰士。
Edmund 艾德蒙 英國 有錢的保護者。
Edison 愛迪生 英國 以照顧他人而豐富自己的人。
Edward 愛德華 英國 一位很有錢的財產監護人。
Edwiin 愛德溫 英國 有錢的朋友;財產的獲得者。
Egbert 愛格伯特 條頓 非常有才能的,顯赫的。
Eli 伊萊 希伯來 偉大,傑出。
Elijah 易萊哲 希伯來 耶和華就是上帝。
Elliot 伊里亞德 法國,希伯來 虔誠信仰上帝的人。
Ellis 艾理斯 希伯來 上帝是救世主。
Elmer 愛爾瑪 英國 高貴的或有名的。
Elroy 愛羅伊 拉丁 王室的,國王。
Elton 愛爾頓 英國 老農場的。
Elvis 艾維斯 條頓 高貴的;朋友。
Emmanuel 愛曼紐 希伯來 上帝與我們同在。
Enoch 伊諾克 希臘,希伯來 追隨者;虔誠的。
Eric 艾利克 斯堪的那維亞 領導者。
Ernest 歐尼斯特 德國 熱心、真實或誠摯的人。
Eugene 尤金 希臘、拉丁 有高貴血統的。
Evan 爾文 塞爾特 出身名門的人。
Everley 伊夫力 英國 指野豬打鬥的場地。
Fabian 富賓恩 羅馬 種豆之人。
Felix 菲力克斯 拉丁 幸福的或幸運的。
Ferdinand 斐迪南 條頓 旅行,愛冒險的;謀和
Fitch 費奇 英國 金發之人。
Fitzgerald 費茲捷勒 英國 技術高明的造箭家。
Ford 福特 英國 河的渡口。
Francis 法蘭西斯 拉丁 自由之人,無拘無束的人。
Frank 法蘭克 法國 自由之人。
Franklin 法蘭克林 拉丁或德國 自由之人。
Frederic 弗雷得力克 德國 以和平領導的統治者;強大有力的,富有的。
Gabriel 加布力爾 希伯來 上帝的男僕;上帝的力量是很力的。
Gale 加爾 愛爾蘭 唱歌;陌生人。
Gary 蓋理 條頓 帶槍矛的人;獵犬。
Gavin 蓋文 愛爾蘭 戰爭之鷹,勝利之鷹。
Gene 吉恩 希臘,拉丁 有高貴血統的。
Geoffrey 傑佛理 法國 神聖的和平。
Geoff 傑夫 法國 神聖的和平。
George 喬治 希臘 農夫。
Gerald 吉羅德 條頓 勇敢的戰士。
Gilbert 吉伯特 條頓 閃耀的誓言;人質。
Giles 賈艾斯 希臘 持盾之人。
Glenn 葛蘭 塞爾特 狹窄山谷的。
Goddard 哥達 德國 穩固,不可動搖的定律。
Godfery 高德佛里 法國 和平之神。
Gordon 戈登 英國 三角峰的山區;英雄;強壯的人。
Greg 葛列格 希臘 警覺之人。
Gregary 葛列格里 希臘 警覺之人。
Griffith 葛里菲茲 威爾斯 保護家園有力之人;紅潤的。
Grover 格羅佛 英國 住在小樹林中的人。
Gustave 古斯塔夫 德國或瑞典 戰爭。
Guy 蓋 英國 引導者;明智的;木頭;年老的戰士。
Hale 霍爾 英國 英雄般的榮耀。
Haley 哈利 愛爾蘭 科學的;有發明天份的。
Hamiltion 漢米敦 法國或諾曼底 山上的小村;光禿的山丘。
Hardy 哈帝 德國 勇敢,人格高尚之人。
Harlan 哈倫 條頓 來自寒冷的國度。
Harley 哈利 英國 到處是野兔的草原或小樹林。
Harold 哈樂德 英國 領導者;作戰勇猛。
Harriet 哈里特 英國 戰爭,軍人。
Harry 哈里 中世紀英國 戰爭,軍人。
Harvey 哈威 法國 有苦味的;進步的或興隆繁茂的。
Hayden 海登 條頓 來自圍以樹籬的小鎮。
Heather 海拾茲 英國 開花的石南。
Henry 享利 條頓 管理家庭的人;家族統治者。
Herbert 赫伯特 德國 著名或輝煌的戰士。
Herman 赫爾曼 德國 軍人;男子漢。
Hilary 希拉里 拉丁 快樂的。
Hiram 海勒 希伯來 身份地位高尚的;尊貴的。
Hobart 霍伯特 德國 心中的光亭。
Hogan 霍根 愛爾蘭 永遠年輕的。
Horace 哈瑞斯 拉丁 老師。
Howar 好爾德 條頓 看守者。
Hubery 休伯特 法國 人格光明;思想燦爛的。
Hugh 修 德國 理性;智力;靈魂。
Hugo 雨果 拉丁 理性;智力;靈魂。
Humphrey 韓弗理 條頓 和平支持者。
Hunter 漢特 英國 以打獵為榮的人。
Hyman 海曼 希伯來 生命。
Ian 伊恩 蘇格蘭 反映上帝榮耀之人。
Ingemar 英格馬 條頓 名門的後代。
Ingram 英格蘭姆 英國 指大鳥之子,智能的象徵。
Ira 艾勒 希伯來 警覺性高的人;未閹割的馬。
Isaac 艾薩克 希伯來 笑聲。
Isidore 伊西多 希臘 女神愛色斯的禮物。
Ivan 艾凡 俄國 上帝仁慈的贈禮。
Ives 艾維斯 英國 指劍術家。
Jack 傑克 希伯來 上帝仁慈的贈禮。
Jacob 雅各 希伯來 取而代之者;跟隨者。
James 詹姆士 拉丁 取而代之者。
Jared 傑瑞德 希伯來 家世,血統,出身。
Jason 傑森 希臘 治癒傷口的人;具備豐富知識的人。
Jay 傑 法國 藍鳥的美麗。
Jeff 傑夫 法國 神聖的和平。
Jeffrey 傑佛瑞 法國 神聖的和平。
Jeremy 傑勒米 希伯來 上帝之崇高。
Jerome 哲羅姆 拉丁 神聖的名字。
Jerry 傑理 拉丁 神聖的名字。
Jesse 傑西 希伯來 上帝的恩賜;上帝安在。
Jim 吉姆 拉丁 取而代之者。
Jo 喬 希伯來 上帝還會賜予。
John 約翰 希伯來 上帝仁慈的賜恩。
Jonas 瓊納斯 希伯來 和平鴿。
Jonathan 強納生 希伯來 上帝賜予。
Joseph 約瑟夫 希伯來 上帝還會再賜予。
Joshua 喬休爾 希伯來 上帝所援救。
Joyce 喬伊斯 拉丁 歡喜的。
Julian 朱利安 希臘 頭發柔軟的,也代表年青人。
Julius 朱利爾斯 希臘 頭發柔軟的,毛茸茸的。
Justin 賈斯丁 拉丁 誠實的。
Keith 基斯 愛爾蘭 風;樹林。
Kelly 凱利 塞爾特 戰士。
Ken 肯恩 蘇格蘭 一位英俊的領導者。
Kennedy 甘乃迪 愛爾蘭 武士之首,指領導者。
Kenneth 肯尼士 蘇格蘭 一位英俊的領導者。
Kent 肯特 蘇格蘭 英俊的領袖;遼闊的國土。
Kerr 科爾 愛爾蘭 指持矛的黑人。
Kerwin 科爾溫 愛爾蘭 有一隻柔和的眼睛的人;朋友
Kevin 凱文 愛爾蘭 聖人;很男性化的;出身很好的。
Kim 金姆 英國 出生皇家堡壘草地上的人。
King 金 英國 統治者。
Kirk 科克 蓋爾 住在教堂旁邊的人。
Kyle 凱爾 威爾斯 一狹窄的海峽;英俊瀟灑的。
Lambert 藍伯特 德國 聰明的治產者;光明。
Lance 藍斯 法國 土地;等待他人的人。
Larry 勞瑞 拉丁 月桂樹。
Lawrence 勞倫斯 拉丁 月桂樹。
Leif 列夫 挪威 大眾情人。
Len 倫恩 條頓 強壯的獅。
Lennon 藍儂 愛爾蘭 戴帽子穿斗蓬很瘦的人。
Leo 利奧 希臘 獅;勇士。
Leonard 倫納德 條頓 強壯如獅。
Leopold 利奧波德 德國 有愛國心的。
Les 勒斯 塞爾特 來自古老的堡壘。
Lester 里斯特 英國 營地;顯赫之人。
Levi 李維 希伯來 正聯合在一起。
Lewis 路易斯 法國 在戰場上很有名氣。
Lionel 賴昂內爾 法國 像獅子般的。
Lou 路 法國 在戰場上很有名氣。
Louis 路易士 法國 在戰場上很有名氣。
Lucien 陸斯恩 拉丁 光亮,真理。
Luther 路德 德國 傑出的戰士。
Lyle 賴爾 法國 島上之民。
Lyndon 林頓 條頓 住在有菩提樹的地方。
Lynn 林恩 英國 傍湖而居者。
Magee 麥基 愛爾蘭 易發怒的人。
Malcolm 麥爾肯 蘇格蘭 指傳道者。
Mandel 曼德爾 德國 指有杏仁眼的人。
Marcus 馬卡斯 羅馬 指有侵略性的人。
Marico 馬里奧 拉丁 好戰的人;苦戰
Mark 馬克 拉丁 指有侵略性的人。
Marlon 馬倫 法國 指像小鷹或獵鷹的人。
Marsh 瑪希 法國 來自草木叢生的地區。
Marshall 馬歇爾 英國 看守馬的人,君王的跟隨者。
Martin 馬丁 拉丁 好戰的,尚武的。
Marvin 馬文 英國 朋友。
Matt 馬特 希伯來 上帝的贈禮。
Matthew 馬休 希伯來 上帝的贈禮。
Maurice 摩里斯 拉丁 黑皮膚的;摩爾人的。
Max 馬克斯 拉丁 最偉大的。
Maximilian 馬克西米蘭 拉丁 最偉大的。
Maxwell 麥斯威爾 英國 深具影響力又很值得尊敬之人。
Meredith 馬勒第茲 威爾斯 大海的保護者。
Merle 莫爾 法國 一隻畫眉鳥;法國人用這個名字去稱呼那些愛唱歌或愛吹哨的人。
Merlin 莫林 英國 海邊的堡壘或海邊的小山丘。
Michael 麥克 希伯來 像上帝的人。
Michell 米契爾 英國 猶如上帝的勞耀和高貴。
Mick 密克 希伯來 像上帝的人。
Mike 麥克 希伯來 像上帝的人。
Miles 麥爾斯 德國,拉丁,希臘 戰士;磨石;仁慈的。
Milo 米路 拉丁 撫養鎮民的人;戰士。
Monroe 門羅 塞爾特 紅沼澤。
Montague 曼特裘 拉丁 峭急之山脈的。
Moore 莫爾 法國 黝黑英俊的外表。
Morgan 摩爾根 威爾斯 指住在海邊的人。
Mortimer 摩帝馬 法國 傍著靜寂的湖泊居住的人。
Morton 摩頓 英國 來自曠野之村落。
Moses 摩西 希伯來 從海中救人的人;小孩。
Murphy 摩菲 愛爾蘭 指捍衛海強的人。
Murray 莫雷 塞爾特 水手。
Myron 麥倫 希臘 芳香的;甜的,芳香的。
Nat 納特 希伯來 禮物。
Nathan 奈登 希伯來 贈予者。
Nathaniel 奈寶尼爾 希伯來 上帝的贈禮。
Neil 尼爾 英國 勇敢的人;領袖;奪得錦標者,冠軍。
Nelson 尼爾森 英國 兒子。
Newman 紐曼 英國 受歡迎的異鄉人。
Nicholas 尼克勒斯 希臘 勝利者。
Nick 尼克 希臘 勝利者。
Nigel 奈哲爾 拉丁 黑頭發的人。
Noah 諾亞 希伯來 鎮靜的,靜止的,或平安的。
Noel 諾爾 拉丁 生日;聖誕節。
Norman 諾曼 法國 北歐人,斯堪的那維亞人。
Norton 諾頓 英國 來自南方村落的人。
Ogden 歐格登 英國 來自像樹流域。
Oliver 奧利佛 拉丁 平安的人。
Omar 奧瑪 阿拉伯 長子,受到先知的教誨。
Orville 奧利爾 法國 來自黃金城。
Osborn 奧斯本 英國 神聖的戰士,受天賜福的人。
Oscar 奧斯卡 條頓 神聖之矛。
Osmond 奧斯蒙 英國 受到神聖的祝福,保護。
Oswald 奧斯維得 英國 神聖而有力的。
Otis 奧狄斯 希臘 聽覺敏銳。
Otto 奧特 德國 富有的。
Owen 歐恩 拉丁,威爾斯 出身高貴,年輕的戰士。
Page 裴吉 希臘 孩子。
Parker 派克 英國 看守公園的人。
Paddy 培迪 愛爾蘭 出身高貴的;貴族。
Patrick 派翠克 拉丁 出身高貴的;貴族。
Paul 保羅 拉丁 指矮小玲瓏的人。
Payne 派恩 拉丁 來自鄉村的人。
Perry 斐瑞 英國 梨樹。
Pete 皮特 希臘 岩石,石頭。
Peter 彼得 希臘 岩石,石頭。
Phil 菲爾 希臘 愛馬者。
Philip 菲力浦 希臘 戰士;好戰的或尚武的;愛馬者。
Porter 波特 法國 看門人或挑夫。
Prescott 普萊斯考特 英國 牧師的小屋。
Primo 普利莫 義大利 長子。
Quentin 昆特 法國 第五,第五天。
Quennel 昆尼爾 法國 獨立的橡樹區。
Quincy 昆西 拉丁 第五。
Quinn 昆 拉丁 第五。
Quintion 昆頓 拉丁 第五個,第五個子孫。
Rachel 雷契爾 希伯來 母羊。
Ralap 雷爾夫 英國 狼的忠告或狼的智能,顧問。
Randolph 藍道夫 英國 狼的忠告或狼的智能。
Raymond 雷蒙德 德國 強而有力的保護者或顧問,保護者。
Reg 雷哲 德國 帝王的;國王。
Regan 里根 愛爾蘭 帝王的;國王。
Reginald 雷吉諾德 德國 強而有力的領導者。
Reuben 魯賓 希臘 一個兒子!新生者。
Rex 雷克斯 拉丁 國王。
Richard 理查 德國 勇猛的,大膽的。
Robert 羅伯特 條頓 輝煌的名聲。
Robin 羅賓 條頓 輝煌的名聲,知更鳥。
Rock 洛克 英國 岩石,非常強壯之人。
Rod 羅德 英國 公路服務者;有名氣的。
Roderick 羅得里克 英國 很有名氣;很出名的領導者。
Rodney 羅德尼 英國 公路服務者;有名氣的,僕人。
Ron 羅恩 條頓 強而有權勢的領導者。
Ronald 羅奈爾得 條頓 強而有權勢的領導者。
Rory 羅里 塞爾特 紅潤,健康的人。
Roy 羅伊 英國 國王。
Rudolf 魯道夫 條頓 狼。
Rupert 魯伯特 條頓 輝煌的名聲。
Ryan 萊安 愛爾蘭 很有潛力的國王。
Sam 山姆 希伯來 上帝之名。
Sampson 辛普森 希伯來 高的智能和力量,太陽的。
Samuel 撒姆爾 希伯來 上帝之名。
Sandy 山迪 拉丁 人類的防衛者。
Saxon 撒克遜 英國 征服他人的持劍者。
Scott 史考特 英國 蘇格蘭人,愛爾蘭人。
Sean 肖恩 愛爾蘭 上帝仁慈的贈禮。
Sebastian 夕巴斯汀 希臘 受尊敬的,庄嚴的。
Sid 錫德 英國 來自菲尼基Sidon城。
Sidney 錫得尼 英國 來自菲尼基Sidon城。
Silvester 席爾維斯特 拉丁 來自森林。
Simon 賽門 希伯來 聆德,扁鼻子的。
Solomon 所羅門 希伯來 和平,平安。
Spencer 史賓杜 英國 店主;治理者,行政官。
Stan 史丹 英國 草原,牧場。
Stanford 史丹佛 英國 來自多岩的津泊。
Stanley 史丹尼 英國 草原,牧場。
Steven 史帝文 拉丁,希臘 王冠,花冠。
Stev 史帝夫 拉丁,希臘 王冠,花冠。
Steward 史都華德 英國 看守者或管理者。
Tab 塔伯 條頓 卓越,睿智。
Taylor 泰勒 英國 做裁縫的人。
Ted 泰德 古英國 有錢的監護人。
Ternence 泰倫斯 拉丁 溫和穩重或溫柔的人;高塔。
Theobald 希爾保特 拉丁 勇敢的神。
Theodore 希歐多爾 希臘 神的贈禮或上帝的贈禮。
Thomas 托瑪士 英國,拉丁 太陽之神;一對孿生子。
Tiffany 帝福尼 法國 顯示上帝的神聖形象。
Tim 堤姆 希臘 敬神或畏神。
Timothy 帝摩斯 希臘 敬神或畏神。
Tobias 托拜西 希臘 上帝是我信仰的神。
Toby 托比 希臘 上帝是我信仰的神。
Todd 陶德 英國 狐狸;指聰明狡猾的人。
Tom 湯姆 英國,拉丁 一對孿生子太陽之神。
Tony 湯尼 拉丁 值得贊美的,很受尊重的。
Tracy 特瑞西 英國 市場小徑,收獲。
Troy 特洛伊 法國 居住於卷發人群里的人。
Truman 杜魯門 英國 信仰很忠誠的人。
Tyler 泰勒 英國 建蓋屋頂的人,制磚瓦的人。
Tyrone 泰倫 希臘 領主或統治者。
Ulysses 尤里西斯 希臘 智勇雙主,懷恨者。
Upton 阿普頓 英國 來自鎮上前端的人。
Uriah 尤萊亞 希伯來 耶穌是光之所在。
Valentine 范倫鐵恩 拉丁 健康的人或強壯的人。
Valentine 范倫丁 英國 有價值的,強壯的。
Verne 佛能 拉丁 茂盛。
Vic 維克 拉丁 勝利者,征服者。
Victor 維克多 拉丁 勝利者,征服者。
Vincent 文森 拉丁 征服。
Virgil 維吉爾 拉丁 春天,生物欣欣向榮之狀。
Vito 維托 拉丁 很活耀,氣力旺盛的人。
Vivian 衛維恩 拉丁 活躍的。
Wade 維德 英國 流浪者。
Walker 瓦爾克 英國 在樹林中散步的人。
Walter 瓦爾特 古德國,法國 指率領軍隊的人,或有權勢的戰士。
Ward 華德 英國 保衛,護衛者。
Warner 華納 德國 抵抗侵略的人。
Wayne 韋恩 英國 建造馬車的人,四輪馬車。
Webb 韋勃 英國 編織者。
Webster 韋伯斯特 英國 編織者。
Wendell 溫德爾 條頓 流浪者。
Werner 韋納爾 德國 衛國衛邦,御侵略之人。
Wilbur 韋爾伯 英國 種很多柳樹的城市,輝煌的。
Will 威爾 法國 一位強而有力的戰士或保護者。
William 威廉 德國,法國 強而有力的戰士或保衛者。
Willie 威利 德國 強而有力的戰士或保衛者。
Winfred 威弗列德 威爾斯 白色的波浪;愛好和平的朋友。
Winston 溫士頓 英國 來自朋友的市鎮或居處,石頭。
Woodrow 伍德洛 挪威 居住林間小屋的人。
Wordsworth 渥茲華斯 英國 在樹林中散步的人。
Wright 萊特 英國 伐木工人。
Wythe 偉茲 法國 小戰士。
Xavier 賽維爾 西班牙 新房子的主人,光輝燦爛。
Yale 耶魯 古英國 來自邊陲地帶。
Yehudi 耶呼弟 希伯來 膜拜上帝的人。
York 約克 英國 養野豬的人。
Yves 依夫 法國 法律的守護神。
Zachary 扎克利 希伯來 為上帝所心儀的人。
Zebulon 紀伯倫 希伯來 居處,住宅。
Ziv 日傑夫 斯拉夫 到處充滿活力及快樂。

閱讀全文

與xavier是什麼意思網路用語相關的資料

熱點內容
湖南網路營銷培訓 瀏覽:920
網路被騙轉賬最低多少立案 瀏覽:375
4g網路手機推薦 瀏覽:855
蘋果6s怎麼開啟4g網路 瀏覽:537
網路營銷分析與運營 瀏覽:850
蘋果無線網路自動接入開關 瀏覽:285
構建網路安全保障框架 瀏覽:911
wifi路由器沒網路是什麼原因是什麼 瀏覽:767
y什麼意思網路用語 瀏覽:317
蘋果手錶網路為什麼不支持 瀏覽:366
手機平板網路沒問題 瀏覽:127
不用網路不用流量外出時聽歌的軟體 瀏覽:380
無線網路到期了 瀏覽:791
手機網路信號差怎麼解決方法蘋果 瀏覽:562
計算機網路主體設備是 瀏覽:830
軟體怎麼單獨設置網路 瀏覽:500
如何構建綠色健康的網路環境 瀏覽:570
哪個網路大學是開卷考試 瀏覽:713
校園網路硬體設備有哪些 瀏覽:953
恢復網路信號的方法 瀏覽:399

友情鏈接