导航:首页 > 网络问题 > xavier是什么意思网络用语

xavier是什么意思网络用语

发布时间:2023-03-29 13:09:56

Ⅰ 求一些有创意的网络宠物名字!

宝宝 乐乐 贝贝 豆豆 毛毛 妞妞 安琪 阿虎 小凡 小宝 小雪 小宇

虎虎 朵朵 尧尧 逗逗 丹丹 媛媛 涛涛 欢欢 田田 陶陶 蛋蛋 畅畅

婉儿 晴儿 玉儿 小虎 阿豪 阿慧 雪儿 可儿 月儿 怡儿 贝儿 灵儿

小龙 大双 小双 小龙 虎虎 虎子 大宝 虎仔 欣儿 湘儿 梦儿 可儿

阳阳 甜甜 嘟嘟 晨晨 洋洋 龙龙 小龙 大双 小双 小龙 虎虎 虎子

笑笑 佳佳 点点 亮亮 壮壮 多多 安琪 阿虎 小凡 小宝 小雪 小宇

晓晓 婷婷 文文 丁丁 丫丫 囡囡 虎虎 朵朵 尧尧 逗逗 丹丹 媛媛

萌萌 可可 东东 圆圆 淘淘 昊昊 丑丑 强强 楚楚 心心 茜茜 琳琳

欣欣 晶晶 悦悦 苗苗 浩浩 咪咪 琦琦 睿睿 明明 冬冬 鹏鹏 萱萱

扬扬 嘉嘉 帅帅 璐璐 楠楠 蒙蒙 星星 雯雯 恬恬 好好 元元 菲菲

盈盈 超超 月月 娇娇 姗姗 冉冉 轩轩 童童 彤彤 飞飞 然然 凡凡

雷雷 京京 舟舟 蓉蓉 上上 熙熙 健健 新新 冉冉 牛牛 聪聪 宁宁

远远 开开 倩倩 双双 妮妮 华华 狗狗 越越 翔翔 南南 铭铭 淼淼

波波 盼盼 蕾蕾 伟伟 珊珊 莹莹 阿宝 阿龙 铁蛋 臭蛋 阿果 宝贝儿

小甜甜 小豆丁 小燕子 小豆豆 小虎子 小精灵 小贝贝 小鱼儿 小猫咪

小石头 小雨点儿 小不点儿

Aaron 艾伦 希伯来 巍然的高山;受神启示的
Abbott 艾布特 希伯来 父性的;伟大的精神
Abel 亚伯 拉丁 生命;呼吸
Abner 艾伯纳 希伯来 睿智;有智慧
Abraham 亚伯拉罕 希伯来 崇高的父亲;众人之父
Adair 亚岱尔 苏格兰,爱尔兰 犹如像树般坚强
Adam 亚当 希伯来 天下第一个男人,男性
Adolph 阿道夫 德国 高贵的狼 (还记得希特勒吧)
Adonis 亚度尼斯 希腊 美男子
Alan 艾伦 斯堪的那维亚 英俊的,好看的;和睦,和平;高兴的(原义)
Albert 艾伯特 英国 高贵的聪明;人类的守护者 (记得爱因斯坦吗)
Aldrich 奥德里奇 英国 英明的统治者
Alexander 亚历山大 希腊 人类的保护者 (国王的名字)
Alfred 亚尔弗列得 英国;条顿 睿智的顾问;聪明帮手
Alger 阿杰尔 英国 光荣高贵护卫
Allen 艾伦 盖尔 英俊的;好看的
Alston 奥斯顿 英国 出身高贵的人
Alva 阿尔瓦 拉丁 白种人的;金发碧眼的
Alvin 阿尔文 条顿 被大家所喜爱的;每个人的朋友
Alvis 亚尔维斯 挪威 短小精悍的人
Amos 亚摩斯 希伯来 任重道远的人
Andre 安得烈 法国 勇敢的,骁勇的
Andrew 安德鲁 希腊 男性的,勇敢的,骁勇的
Andy 安迪 希腊 男性的,勇敢的,骁勇的
Angelo 安其罗 义大利 上帝的使者
Augus 安格斯 盖尔 一个,唯一无二的;塞尔特神话中的爱神
Ansel 安西尔 法国 出身或教养均极高贵的人
Antony 安东尼 拉丁 值得赞美,备受尊崇的
Antonio 安东尼奥 拉丁 值得赞美,备受尊崇的
Archer 阿奇尔 英国 拉开千钧之弓的大力士
Archibald 阿奇柏德 英国 高贵的,勇敢的
Aries 亚力士 拉丁 公羊 (牡羊座的英文)
Arlen 亚尔林 英国 誓约
Armand 亚尔曼 德国 军人
Armstrong 阿姆斯壮 英国 臂力强健的人 (我的一小步,是人类的一大步)
Arno 阿诺 条顿 鹰
Arthur 亚瑟 英国 高尚的或贵族的 (石中剑ㄉ男主角)
Arvin 艾文 条顿 以平等之心待人者
Asa 亚撒 希伯来 上帝的赐予;治愈者
Atwood 亚特伍德 英国 住在森林或森林中的人
Aubrey 奥布里 条顿 有钱有势的国王
August 奥格斯格 拉丁 神圣的、尊崇的或身份高尚的人;八月
Augustine 奥古斯汀 拉丁 指八月出生的人
Avery 艾富里 英国 淘气,爱恶作剧的人
Baird 拜尔德 爱尔兰 很会唱民谣的人
Baldwin 柏得温 条顿 在战场很英勇的人
Bard 巴德 英国 很快乐,且喜欢养家畜的人
Barlow 巴罗 希腊 住山中的人
Barnett 巴奈特 英国 领袖 ,具高贵的天赋
Baron 巴伦 英国 勇敢的战士;高贵
Barret 巴里特 条顿 有大担当的人
Barry 巴里 爱尔兰 优秀的射手
Bartholomew 巴萨罗穆 希腊 是耶稣的十二门徒之一
Bart 巴特 希腊 也是耶稣的十二门徒之一

Ⅱ 卷积神经网络(CNN)基础

在七月初七情人节,牛郎织女相见的一天,我终于学习了CNN(来自CS231n),感觉感触良多,所以赶快记下来,别忘了,最后祝大家情人节快乐5555555.正题开始!

CNN一共有卷积层(CONV)、ReLU层(ReLU)、池化层(Pooling)、全连接层(FC(Full Connection))下面是各个层的详细解释。

卷积,尤其是图像的卷积,需要一个滤波器,用滤波器对整个图像进行遍历,我们假设有一个32*32*3的原始图像A,滤波器的尺寸为5*5*3,用w表示,滤波器中的数据就是CNN的参数的一部分,那么在使用滤波器w对A进行滤波的话,可以用下面的式子表示:

其中x为原始图像的5*5*3的一部分,b是偏置项置为1。在对A进行滤波之后,产生的是一个28*28*1的数据。那么假设我们存在6个滤波器,这六个滤波器之间彼此是独立的,也就是他们内部的数据是不同的且没有相关性的。可以理解为一个滤波器查找整幅图像的垂直边缘,一个查找水平边缘,一个查找红色,一个查找黑色这样。那么我就可以产生6个28*28*1的数据,将它们组合到一起就可以产生28*28*6的数据,这就是卷积层主要做的工作。

CNN可以看作一系列的卷积层和ReLU层对原始数据结构进行处理的神经网络,处理的过程可以用下面这幅图表示

特别要注意的是滤波器的深度一定要与上一层传来的数据的深度相同,就像上图的第二个卷积层在处理传来的28*28*6的数据时要使用5*5*6的滤波器.

滤波器在图像上不断移动对图像滤波,自然存在步长的问题,在上面我们举的例子都是步长为1的情况,如果步长为3的话,32*32*3的图像经过5*5*3的滤波器卷积得到的大小是(32-5)/3+1=10, 注:步长不能为2因为(32-5)/2+1=14.5是小数。

所以当图像大小是N,滤波器尺寸为F时,步长S,那么卷积后大小为(N-F)/S+1

我们从上面的图中可以看到图像的长和宽在逐渐的减小,在经过超过5层之后极可能只剩下1*1的空间尺度,这样是十分不好的,而且也不利于我们接下来的计算,所以我们想让卷积层处理完之后图像在空间尺度上大小不变,所以我们引入了pad the border的操作。pad其实就是在图像周围补0,扩大图像的尺寸,使得卷积后图像大小不变。在CNN中,主要存在4个超参数,滤波器个数K,滤波器大小F,pad大小P和步长S,其中P是整数,当P=1时,对原始数据的操作如图所示:

那么在pad操作后卷积后的图像大小为:(N-F+2*P)/S+1
而要想让卷积层处理后图像空间尺度不变,P的值可以设为P=(F-1)/2

卷积层输入W 1 *H 1 *D 1 大小的数据,输出W 2 *H 2 *D 2 的数据,此时的卷积层共有4个超参数:
K:滤波器个数
P:pad属性值
S:滤波器每次移动的步长
F:滤波器尺寸
此时输出的大小可以用输入和超参计算得到:
W 2 =(W 1 -F+2P)/S+1
H 2 =(H 1 -F+2P)/S+1
D 2 =D 1

1*1的滤波器也是有意义的,它在深度方向做卷积,例如1*1*64的滤波器对56*56*64的数据卷积得到56*56的数据

F通常是奇数,这样可以综合考虑上下左右四个方向的数据。

卷积层从神经元的角度看待可以有两个性质: 参数共享和局域连接 。对待一个滤波器,例如5*5*3的一个滤波器,对32*32*3的数据卷积得到28*28的数据,可以看作存在28*28个神经元,每个对原图像5*5*3的区域进行计算,这28*28个神经元由于使用同一个滤波器,所以参数相同,我们称这一特性为 参数共享

针对不同的滤波器,我们可以看到他们会看到同一区域的图像,相当于在深度方向存在多个神经元,他们看着相同区域叫做 局域连接

参数共享减少了参数的数量,防止了过拟合
局域连接为查找不同特征更丰富的表现图像提供了可能。
卷积就像是对原图像的另一种表达。

激活函数,对于每一个维度经过ReLU函数输出即可。不改变数据的空间尺度。

通过pad操作,输出图像在控件上并没有变化,但是深度发生了变化,越来越庞大的数据给计算带来了困难,也出现了冗余的特征,所以需要进行池化操作,池化不改变深度,只改变长宽,主要有最大值和均值两种方法,一般的池化滤波器大小F为2步长为2,对于最大值池化可以用下面的图像清晰的表示:

卷积层输入W 1 *H 1 *D 1 大小的数据,输出W 2 *H 2 *D 2 的数据,此时的卷积层共有2个超参数:
S:滤波器每次移动的步长
F:滤波器尺寸
此时输出的大小可以用输入和超参计算得到:
W 2 =(W 1 -F)/S+1
H 2 =(H 1 -F)/S+1
D 2 =D 1

将最后一层(CONV、ReLU或Pool)处理后的数据输入全连接层,对于W 2 *H 2 *D 2 数据,我们将其展成1*1*W 2 *H 2 *D 2 大小的数据,输入层共有W 2 *H 2 *D 2 个神经元,最后根据问题确定输出层的规模,输出层可以用softmax表示。也就是说,全连接层就是一个常见的BP神经网络。而这个网络也是参数最多的部分,是接下来想要去掉的部分。完整的神经网络可以用下面的图表示:

[(CONV-ReLU)*N-POOL?]*M-(FC-RELU)*K,SoftMax

1.更小的滤波器与更深的网络
2.只有CONV层而去掉池化与全链接

最早的CNN,用于识别邮编,结构为:
CONV-POOL-CONV-POOL-CONV-FC
滤波器大小5*5,步长为1,池化层2*2,步长为2

2012年由于GPU技术所限,原始AlexNet为两个GPU分开计算,这里介绍合起来的结构。

输入图像为227*227*3

1.首次使用ReLU
2.使用Norm layers,现在已经抛弃,因为效果不大
3.数据经过预处理(例如大小变化,颜色变化等)
4.失活比率0.5
5.batch size 128
6.SGD Momentum 参数0.9(SGD和Momentum见我的其他文章)
7.学习速率 0.01,准确率不在提升时减少10倍,1-2次后达到收敛
8.L2权重减少0.0005
9.错误率15.4%

改进自AlexNet,主要改变:
1.CONV1的滤波器从11*11步长S=4改为7*7步长为2.
2.CONV3,4,5滤波器数量有384,384,256改为512,1024,512(滤波器数量为2的n次幂有利于计算机计算可以提高效率)
错误率:14.8%后继续改进至11.2%

当前最好的最易用的CNN网络,所有卷积层滤波器的大小均为3*3,步长为1,pad=1,池化层为2*2的最大值池化,S=2。

主要参数来自全连接层,这也是想要去掉FC的原因。

具有高度的统一性和线性的组合,易于理解,十分方便有VGG-16,VGG-19等多种结构。
错误率7.3%

完全移除FC层,参数只有500万,使用Inception模块(不太理解,有时间继续看)
准确率6.67%

准确率3.6%
拥有极深的网络结构,且越深准确率越高。是传统CNN不具备的特点,传统CNN并非越深越准确。需要训练时间较长但是快于VGG

1.每个卷积层使用Batch Normalization
2.Xavier/2初始化
3.SGD+Momentum(0.9)
4.Learning rate:0.1,准确率不变减小10倍(因为Batch Normalization所以比AlexNet大)
5.mini-batch size 256
6.Weight decay of 0.00001
7.不适用失活(因为Batch Normalization)

具体的梯度过程学完ResNet再说吧。

Ⅲ 人工神经网络概念梳理与实例演示

人工神经网络概念梳理与实例演示
神经网络是一种模仿生物神经元的机器学习模型,数据从输入层进入并流经激活阈值的多个节点。
递归性神经网络一种能够对之前输入数据进行内部存储记忆的神经网络,所以他们能够学习到数据流中的时间依赖结构。
如今机器学习已经被应用到很多的产品中去了,例如,siri、Google Now等智能助手,推荐引擎——亚马逊网站用于推荐商品的推荐引擎,Google和Facebook使用的广告排名系统。最近,深度学习的一些进步将机器学习带入公众视野:AlphaGo 打败围棋大师李世石事件以及一些图片识别和机器翻译等新产品的出现。
在这部分中,我们将介绍一些强大并被普遍使用的机器学习技术。这当然包括一些深度学习以及一些满足现代业务需求传统方法。读完这一系列的文章之后,你就掌握了必要的知识,便可以将具体的机器学习实验应用到你所在的领域当中。
随着深层神经网络的精度的提高,语音和图像识别技术的应用吸引了大众的注意力,关于AI和深度学习的研究也变得更加普遍了。但是怎么能够让它进一步扩大影响力,更受欢迎仍然是一个问题。这篇文章的主要内容是:简述前馈神经网络和递归神经网络、怎样搭建一个递归神经网络对时间系列数据进行异常检测。为了让我们的讨论更加具体化,我们将演示一下怎么用Deeplearning4j搭建神经网络。
一、什么是神经网络?
人工神经网络算法的最初构思是模仿生物神经元。但是这个类比很不可靠。人工神经网络的每一个特征都是对生物神经元的一种折射:每一个节点与激活阈值、触发的连接。
连接人工神经元系统建立起来之后,我们就能够对这些系统进行训练,从而让他们学习到数据中的一些模式,学到之后就能执行回归、分类、聚类、预测等功能。
人工神经网络可以看作是计算节点的集合。数据通过这些节点进入神经网络的输入层,再通过神经网络的隐藏层直到关于数据的一个结论或者结果出现,这个过程才会停止。神经网络产出的结果会跟预期的结果进行比较,神经网络得出的结果与正确结果的不同点会被用来更正神经网络节点的激活阈值。随着这个过程的不断重复,神经网络的输出结果就会无限靠近预期结果。
二、训练过程
在搭建一个神经网络系统之前,你必须先了解训练的过程以及网络输出结果是怎么产生的。然而我们并不想过度深入的了解这些方程式,下面是一个简短的介绍。
网络的输入节点收到一个数值数组(或许是叫做张量多维度数组)就代表输入数据。例如, 图像中的每个像素可以表示为一个标量,然后将像素传递给一个节点。输入数据将会与神经网络的参数相乘,这个输入数据被扩大还是减小取决于它的重要性,换句话说,取决于这个像素就不会影响神经网络关于整个输入数据的结论。
起初这些参数都是随机的,也就是说神经网络在建立初期根本就不了解数据的结构。每个节点的激活函数决定了每个输入节点的输出结果。所以每个节点是否能够被激活取决于它是否接受到足够的刺激强度,即是否输入数据和参数的结果超出了激活阈值的界限。
在所谓的密集或完全连接层中,每个节点的输出值都会传递给后续层的节点,在通过所有隐藏层后最终到达输出层,也就是产生输入结果的地方。在输出层, 神经网络得到的最终结论将会跟预期结论进行比较(例如,图片中的这些像素代表一只猫还是狗?)。神经网络猜测的结果与正确结果的计算误差都会被纳入到一个测试集中,神经网络又会利用这些计算误差来不断更新参数,以此来改变图片中不同像素的重要程度。整个过程的目的就是降低输出结果与预期结果的误差,正确地标注出这个图像到底是不是一条狗。
深度学习是一个复杂的过程,由于大量的矩阵系数需要被修改所以它就涉及到矩阵代数、衍生品、概率和密集的硬件使用问题,但是用户不需要全部了解这些复杂性。
但是,你也应该知道一些基本参数,这将帮助你理解神经网络函数。这其中包括激活函数、优化算法和目标函数(也称为损失、成本或误差函数)。
激活函数决定了信号是否以及在多大程度上应该被发送到连接节点。阶梯函数是最常用的激活函数, 如果其输入小于某个阈值就是0,如果其输入大于阈值就是1。节点都会通过阶梯激活函数向连接节点发送一个0或1。优化算法决定了神经网络怎么样学习,以及测试完误差后,权重怎么样被更准确地调整。最常见的优化算法是随机梯度下降法。最后, 成本函数常用来衡量误差,通过对比一个给定训练样本中得出的结果与预期结果的不同来评定神经网络的执行效果。
Keras、Deeplearning4j 等开源框架让创建神经网络变得简单。创建神经网络结构时,需要考虑的是怎样将你的数据类型匹配到一个已知的被解决的问题,并且根据你的实际需求来修改现有结构。
三、神经网络的类型以及应用
神经网络已经被了解和应用了数十年了,但是最近的一些技术趋势才使得深度神经网络变得更加高效。
GPUs使得矩阵操作速度更快;分布式计算结构让计算能力大大增强;多个超参数的组合也让迭代的速度提升。所有这些都让训练的速度大大加快,迅速找到适合的结构。
随着更大数据集的产生,类似于ImageNet 的大型高质量的标签数据集应运而生。机器学习算法训练的数据越大,那么它的准确性就会越高。
最后,随着我们理解能力以及神经网络算法的不断提升,神经网络的准确性在语音识别、机器翻译以及一些机器感知和面向目标的一些任务等方面不断刷新记录。
尽管神经网络架构非常的大,但是主要用到的神经网络种类也就是下面的几种。
3.1前馈神经网络
前馈神经网络包括一个输入层、一个输出层以及一个或多个的隐藏层。前馈神经网络可以做出很好的通用逼近器,并且能够被用来创建通用模型。
这种类型的神经网络可用于分类和回归。例如,当使用前馈网络进行分类时,输出层神经元的个数等于类的数量。从概念上讲, 激活了的输出神经元决定了神经网络所预测的类。更准确地说, 每个输出神经元返回一个记录与分类相匹配的概率数,其中概率最高的分类将被选为模型的输出分类。
前馈神经网络的优势是简单易用,与其他类型的神经网络相比更简单,并且有一大堆的应用实例。
3.2卷积神经网络
卷积神经网络和前馈神经网络是非常相似的,至少是数据的传输方式类似。他们结构大致上是模仿了视觉皮层。卷积神经网络通过许多的过滤器。这些过滤器主要集中在一个图像子集、补丁、图块的特征识别上。每一个过滤器都在寻找不同模式的视觉数据,例如,有的可能是找水平线,有的是找对角线,有的是找垂直的。这些线条都被看作是特征,当过滤器经过图像时,他们就会构造出特征图谱来定位各类线是出现在图像的哪些地方。图像中的不同物体,像猫、747s、榨汁机等都会有不同的图像特征,这些图像特征就能使图像完成分类。卷积神经网络在图像识别和语音识别方面是非常的有效的。
卷积神经网络与前馈神经网络在图像识别方面的异同比较。虽然这两种网络类型都能够进行图像识别,但是方式却不同。卷积神经网络是通过识别图像的重叠部分,然后学习识别不同部分的特征进行训练;然而,前馈神经网络是在整张图片上进行训练。前馈神经网络总是在图片的某一特殊部分或者方向进行训练,所以当图片的特征出现在其他地方时就不会被识别到,然而卷积神经网络却能够很好的避免这一点。
卷积神经网络主要是用于图像、视频、语音、声音识别以及无人驾驶的任务。尽管这篇文章主要是讨论递归神经网络的,但是卷积神经网络在图像识别方面也是非常有效的,所以很有必要了解。
3.3递归神经网络
与前馈神经网络不同的是,递归神经网络的隐藏层的节点里有内部记忆存储功能,随着输入数据的改变而内部记忆内容不断被更新。递归神经网络的结论都是基于当前的输入和之前存储的数据而得出的。递归神经网络能够充分利用这种内部记忆存储状态处理任意序列的数据,例如时间序列。
递归神经网络经常用于手写识别、语音识别、日志分析、欺诈检测和网络安全
递归神经网络是处理时间维度数据集的最好方法,它可以处理以下数据:网络日志和服务器活动、硬件或者是医疗设备的传感器数据、金融交易、电话记录。想要追踪数据在不同阶段的依赖和关联关系需要你了解当前和之前的一些数据状态。尽管我们通过前馈神经网络也可以获取事件,随着时间的推移移动到另外一个事件,这将使我们限制在对事件的依赖中,所以这种方式很不灵活。
追踪在时间维度上有长期依赖的数据的更好方法是用内存来储存重要事件,以使近期事件能够被理解和分类。递归神经网络最好的一点就是在它的隐藏层里面有“内存”可以学习到时间依赖特征的重要性。
接下来我们将讨论递归神经网络在字符生成器和网络异常检测中的应用。递归神经网络可以检测出不同时间段的依赖特征的能力使得它可以进行时间序列数据的异常检测。
递归神经网络的应用
网络上有很多使用RNNs生成文本的例子,递归神经网络经过语料库的训练之后,只要输入一个字符,就可以预测下一个字符。下面让我们通过一些实用例子发现更多RNNs的特征。
应用一、RNNs用于字符生成
递归神经网络经过训练之后可以把英文字符当做成一系列的时间依赖事件。经过训练后它会学习到一个字符经常跟着另外一个字符(“e”经常跟在“h”后面,像在“the、he、she”中)。由于它能预测下一个字符是什么,所以它能有效地减少文本的输入错误。
Java是个很有趣的例子,因为它的结构包括很多嵌套结构,有一个开的圆括号必然后面就会有一个闭的,花括号也是同理。他们之间的依赖关系并不会在位置上表现的很明显,因为多个事件之间的关系不是靠所在位置的距离确定的。但是就算是不明确告诉递归神经网络Java中各个事件的依赖关系,它也能自己学习了解到。
在异常检测当中,我们要求神经网络能够检测出数据中相似、隐藏的或许是并不明显的模式。就像是一个字符生成器在充分地了解数据的结构后就会生成一个数据的拟像,递归神经网络的异常检测就是在其充分了解数据结构后来判断输入的数据是不是正常。
字符生成的例子表明递归神经网络有在不同时间范围内学习到时间依赖关系的能力,它的这种能力还可以用来检测网络活动日志的异常。
异常检测能够使文本中的语法错误浮出水面,这是因为我们所写的东西是由语法结构所决定的。同理,网络行为也是有结构的,它也有一个能够被学习的可预测模式。经过在正常网络活动中训练的递归神经网络可以监测到入侵行为,因为这些入侵行为的出现就像是一个句子没有标点符号一样异常。
应用二、一个网络异常检测项目的示例
假设我们想要了解的网络异常检测就是能够得到硬件故障、应用程序失败、以及入侵的一些信息。
模型将会向我们展示什么呢?
随着大量的网络活动日志被输入到递归神经网络中去,神经网络就能学习到正常的网络活动应该是什么样子的。当这个被训练的网络被输入新的数据时,它就能偶判断出哪些是正常的活动,哪些是被期待的,哪些是异常的。
训练一个神经网络来识别预期行为是有好处的,因为异常数据不多,或者是不能够准确的将异常行为进行分类。我们在正常的数据里进行训练,它就能够在未来的某个时间点提醒我们非正常活动的出现。
说句题外话,训练的神经网络并不一定非得识别到特定事情发生的特定时间点(例如,它不知道那个特殊的日子就是周日),但是它一定会发现一些值得我们注意的一些更明显的时间模式和一些可能并不明显的事件之间的联系。
我们将概述一下怎么用 Deeplearning4j(一个在JVM上被广泛应用的深度学习开源数据库)来解决这个问题。Deeplearning4j在模型开发过程中提供了很多有用的工具:DataVec是一款为ETL(提取-转化-加载)任务准备模型训练数据的集成工具。正如Sqoop为Hadoop加载数据,DataVec将数据进行清洗、预处理、规范化与标准化之后将数据加载到神经网络。这跟Trifacta’s Wrangler也相似,只不过它更关注二进制数据。
开始阶段
第一阶段包括典型的大数据任务和ETL:我们需要收集、移动、储存、准备、规范化、矢量话日志。时间跨度的长短是必须被规定好的。数据的转化需要花费一些功夫,这是由于JSON日志、文本日志、还有一些非连续标注模式都必须被识别并且转化为数值数组。DataVec能够帮助进行转化和规范化数据。在开发机器学习训练模型时,数据需要分为训练集和测试集。
训练神经网络
神经网络的初始训练需要在训练数据集中进行。
在第一次训练的时候,你需要调整一些超参数以使模型能够实现在数据中学习。这个过程需要控制在合理的时间内。关于超参数我们将在之后进行讨论。在模型训练的过程中,你应该以降低错误为目标。
但是这可能会出现神经网络模型过度拟合的风险。有过度拟合现象出现的模型往往会在训练集中的很高的分数,但是在遇到新的数据时就会得出错误结论。用机器学习的语言来说就是它不够通用化。Deeplearning4J提供正则化的工具和“过早停止”来避免训练过程中的过度拟合。
神经网络的训练是最花费时间和耗费硬件的一步。在GPUs上训练能够有效的减少训练时间,尤其是做图像识别的时候。但是额外的硬件设施就带来多余的花销,所以你的深度学习的框架必须能够有效的利用硬件设施。Azure和亚马逊等云服务提供了基于GPU的实例,神经网络还可以在异构集群上进行训练。
创建模型
Deeplearning4J提供ModelSerializer来保存训练模型。训练模型可以被保存或者是在之后的训练中被使用或更新。
在执行异常检测的过程中,日志文件的格式需要与训练模型一致,基于神经网络的输出结果,你将会得到是否当前的活动符合正常网络行为预期的结论。
代码示例
递归神经网络的结构应该是这样子的:
MultiLayerConfiguration conf = new NeuralNetConfiguration.Builder(
.seed(123)
.optimizationAlgo(OptimizationAlgorithm.STOCHASTIC_GRADIENT_DESCENT).iterations(1)
.weightInit(WeightInit.XAVIER)
.updater(Updater.NESTEROVS).momentum(0.9)
.learningRate(0.005)
.gradientNormalization(GradientNormalization.ClipElementWiseAbsoluteValue)
.(0.5)
.list()
.layer(0, new GravesLSTM.Builder().activation("tanh").nIn(1).nOut(10).build())
.layer(1, new RnnOutputLayer.Builder(LossFunctions.LossFunction.MCXENT)
.activation("softmax").nIn(10).nOut(numLabelClasses).build())
.pretrain(false).backprop(true).build();
MultiLayerNetwork net = new MultiLayerNetwork(conf);
net.init();
下面解释一下几行重要的代码:
.seed(123)
随机设置一个种子值对神经网络的权值进行初始化,以此获得一个有复验性的结果。系数通常都是被随机的初始化的,以使我们在调整其他超参数时仍获得一致的结果。我们需要设定一个种子值,让我们在调整和测试的时候能够用这个随机的权值。
.optimizationAlgo(OptimizationAlgorithm.STOCHASTIC_GRADIENT_DESCENT).iterations(1)
决定使用哪个最优算法(在这个例子中是随机梯度下降法)来调整权值以提高误差分数。你可能不需要对这个进行修改。
.learningRate(0.005)
当我们使用随机梯度下降法的时候,误差梯度就被计算出来了。在我们试图将误差值减到最小的过程中,权值也随之变化。SGD给我们一个让误差更小的方向,这个学习效率就决定了我们该在这个方向上迈多大的梯度。如果学习效率太高,你可能是超过了误差最小值;如果太低,你的训练可能将会永远进行。这是一个你需要调整的超参数。

Ⅳ guest room是什么意思

guest room英 [ɡest ru:m] 美 [ɡɛ碧兆拦st rum]

n.客室,客房;

[网络]客房; 客室;

[例句]photo above: All the old cowboy stuff from Xavier's former bedroom
lives in the guest room now.

上图:Xavier以前的卧室里面的所有牛仔装饰现在也都在客房里。

[其猜腊他]复数:悔胡guest rooms

Ⅳ AI面试题第二弹(神经网络基础)

提取主要特征,减小网络参数量,减小计算量

层层传递的梯度>1 梯度爆炸

层层传递的梯度<1 梯度消失

与权重有很大关系,激活函数的影响较小。

每次训练一层隐节点,训练时将上一层隐节点的输出作为输入,而本层隐节点的输出作为下一层隐节点的输入,此过程就是逐层“预训练”(pre-training);在预训练完成后,再对整个网络进行“微调”(fine-tunning)。Hinton在训练深度信念网络(Deep Belief Networks中,使用了这个方法,在各层预训练完成后,再利用BP算法对整个网络进行训练。

这个方案主要是针对梯度爆炸提出的,其思想是设置一个梯度剪切阈值,然后更新梯度的时候,如果梯度超过这个阈值,那么就将其强制限制在这个范围之内。这可以防止梯度爆炸。

比较常见的是l1l1l1正则,和l2l2l2正则,在各个深度框架中都有相应的API可以使用正则化

反向传播中,经过每一层的梯度会乘以该层的权重。

举个简单例子:

为了得到一致假设而使假设变得过度复杂称为过拟合(overfitting), 过拟合表现在训练好的模型在训练集上效果很好,但是在测试集上效果差 。也就是说模型的泛化能力弱。

过拟合主要由两个原因造成,数据集太小或模型太复杂

(1). 数据集扩增(Data Augmentation)

(2). 改进模型

·Early Stopping。在模型效果比较好的时候便提前停止训练

 ·正则化(regularization)

L1:稀疏参数

L2:更小参数

·Dropout

·多任务学习

深度学习中两种多任务学习模式:隐层参数的硬共享和软共享

硬共享机制是指在所有任务中共享隐藏层,同时保留几个特定任务的输出层来实现。硬共享机制降低了过拟合的风险。多个任务同时学习,模型就越能捕捉到多个任务的同一表示,从而导致模型在原始任务上的过拟合风险越小。

软共享机制是指每个任务有自己的模型,自己的参数。模型参数之间的距离是正则化的,以便保障参数相似性。

见后文

leaky relu

输入是x输出是y,正常的流程是:我们首先把x通过网络前向传播,然后把误差反向传播以决定如何更新参数让网络进行学习。使用Dropout之后,过程变成如下:

(1)首先随机(临时)删掉网络中一半的隐藏神经元,输入输出神经元保持不变(图中虚线为部分临时被删除的神经元)

(2) 然后把输入x通过修改后的网络前向传播,然后把得到的损失结果通过修改的网络反向传播。一小批训练样本执行完这个过程后,在没有被删除的神经元上按照随机梯度下降法更新对应的参数(w,b)。

(3)然后继续重复这一过程:

恢复被删掉的神经元(此时被删除的神经元保持原样,而没有被删除的神经元已经有所更新)

从隐藏层神经元中随机选择一个一半大小的子集临时删除掉(备份被删除神经元的参数)。

对一小批训练样本,先前向传播然后反向传播损失并根据随机梯度下降法更新参数(w,b) (没有被删除的那一部分参数得到更新,删除的神经元参数保持被删除前的结果)。

不断重复这一过程。

没有对数据进行归一化

忘记检查输入和输出

没有对数据进行预处理

没有对数据正则化

使用过大的样本

使用不正确的学习率

在输出层使用错误的激活函数

网络中包含坏梯度

初始化权重错误

过深的网络

隐藏单元数量错误

网络设计不合理(任务-网络不匹配)

机器学习有个很重要的假设:就是假设训练数据和测试数据是满足独立同分布的,这保障了通过训练数据获得的优秀模型也能够在测试集获得好的效果。但是在机器学习训练中输入层的每个批量(X,Y)中X的分布是不一致的,并且神经网络的隐藏层的输入分布在每次训练迭代中发生变化。 BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。

BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前(激活前)的 输入值 (就是那个x=WU+B,U是输入) 随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近 (对于Sigmoid函数来说,意味着激活输入值WU+B是大的负值或正值),所以这 导致反向传播时低层神经网络的梯度消失 ,这是训练深层神经网络收敛越来越慢的 本质原因 , 而BN就是通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布 ,其实就是把越来越偏的分布强制拉回比较标准的分布,这样使得激活输入值落在非线性函数对输入比较敏感的区域,这样输入的小变化就会导致损失函数较大的变化,意思是 这样让梯度变大,避免梯度消失问题产生,而且梯度变大意味着学习收敛速度快,能大大加快训练速度。

但是接下来的问题是:如果都通过BN,那么不就跟把非线性函数替换成线性函数效果相同了,意味着网络的非线性表达能力下降了, 所以BN为了保证非线性的获得,对变换后的满足均值为0方差为1的x又进行了scale加上shift操作(y=scale*x+shift), 每个神经元增加了两个参数scale和shift参数,这两个参数是通过训练学习到的,意思是通过scale和shift把这个值从标准正态分布左移或者右移一点并长胖一点或者变瘦一点,每个实例挪动的程度不一样,这样等价于激活前的值经过标准正太分布归一化后再从正中心周围的线性区往非线性区动了动。核心思想应该是想找到一个线性和非线性的较好平衡点,既能享受非线性的较强表达能力的好处,又避免太靠非线性区两头使得网络收敛速度太慢

Batch Normalization 好处:(1)提高了训练速度,收敛速度也大大加快(2)另外调参过程也简单多了,对于初始化要求没那么高,而且可以使用大的学习率等 (3)可以防止梯度消失(4)BN类似于Dropout的一种防止过拟合的正则化表达方式,可以有效防止过拟合,不用太依赖dropou和正则化

以下情况最好不要使用BN:(1)数据不平衡(2)batch_size太小

batch_size是机器学习中的一个重要参数,决定了梯度下降的方向,如果数据集比较小,完全可以采用全数据集的形式计算梯度,由全数据集确定的梯度方向能够更好地代表样本总体,从而更准确地朝向极值所在的方向。对于大型数据集则需要使用mini-batch_size,因为随着数据集的海量增长和内存限制,一次性载入所有的数据进来变得越来越不可行。

当batch_size=1,即在线学习,模型难以达到收敛 。

合理增加batch_size好处 :

(1)内存利用率提高了,大矩阵乘法的并行化效率提高

(2)跑完一次 epoch(全数据集)所需的迭代次数减少,对于相同数据量的处理速度进一步加快。

(3)在一定范围内,一般来说 Batch_Size 越大,其确定的下降方向越准,引起训练震荡越小

盲目增大 Batch_Size 坏处 :

(1)内存利用率提高了,但是内存容量可能撑不住了

(2)跑完一次 epoch(全数据集)所需的迭代次数减少,要想达到相同精度所需要的 epoch 数量越来越多,花费的时间越长

(3)大的batchsize收敛到sharp minimum,而小的batchsize收敛到flat minimum,后者具有更好的泛化能力。

总之batchsize在变得很大(超过一个临界点)时,会降低模型的泛化能力。在这个临界点之下,模型的性能变换随batch size通常没有学习率敏感

    目标所在的真实框(ground truth) 与算法预测的目标所在的框(bounding box)的交集与并集的比值,我们会用IOU阈值来判定预测的bounding box是否有效。一般阈值会设定在0.5,当IOU的值大于等于0.5时,我们会把这个预测的bounding box 归为正类,而小于0.5的归为负类。

牛顿法使用的是目标函数的二阶导数,在高维情况下这个Hessian(n*n维度)矩阵非常大,计算复杂度是n*n,计算和存储都是问题

(1) 通过控制卷积核个数实现升维或者降维,从而减少模型参数和计算量

(2) 用于不同channel上特征的融合

(3)1x1的卷积相当于全连接层的计算过程,并且加入了非线性激活函数,从而增加了网络的非线性,使得网络可以表达更加复杂的特征。

它能够把输入的连续实值变换为0和1之间的输出,如果是非常大的负数,那么输出就是0;如果是非常大的正数,输出就是1

缺点:

(1)函数的饱和区,导致梯度几乎为0,造成梯度消失问题

(2)Sigmoid 的 output 不是0均值,具体解释见 https://blog.csdn.net/tyhj_sf/article/details/79932893

(3)其解析式中含有幂运算,计算机求解时相对来讲比较耗时。对于规模比较大的深度网络,这会较大地增加训练时间。

它解决了Sigmoid函数的不是零均值输出问题,然而,梯度消失(gradient vanishing)的问题和幂运算的问题仍然存在。

(1)在正区间解决了梯度消失的问题

(2)函数简单,计算速度快,收敛速度远快于sigmoid和tanh

缺点:

(1)Relu函数输出不是0均值

(2)神经元坏死问题:指的是某些神经元可能永远不会被激活,导致相应的参数永远不能被更新,有两个主要原因导致这种状况发生

        (1) 非常不幸的参数初始化,这种情况比较少见 

        (2) learning rate太高导致在训练过程中参数更新太大,不幸使网络进入这种状态。解决方法是可以采用Xavier初始化方法,以及避免将learning rate设置太大或使用adagrad等自动调节learning rate的算法

为了解决ReLU函数带来的神经元坏死问题 , 提出了将ReLU的前半段设为αx,α通常设为0.01,,另外一种直观的想法是基于参数的方法PReLU函数, α可由方向传播算法学习出来。

ELU也是为解决ReLU存在的问题而提出,显然,ELU有ReLU的基本所有优点,以及:(1)不会有神经元坏死现象(2)函数输出均值接近于0

但是ELU的小问题就是计算量稍微有点大。

1、使用不同的激活函数,比如Relu,Leak-Relu,PRelu,elu等激活函数代替sigmoid函数

2、使用Batch Normalizaion(批量归一化)

3、使用残差网络

4、预训练加微调

1、梯度裁剪

2、权重正则化

两个3x3的卷积核的感受野比5x5的卷积核的感受野大,在保持相同感受野的同时,用3x3的卷积核可以提升网络的深度,可以很明显的减少计算量。

1、局部连接

2、权值共享:减小参数量

3、池化操作:增大感受野

4、多层次结构:可以提取low-level以及high-level的信息

1、数据集太小,数据样本不足时,深度学习相对其它机器学习算法,没有明显优势。

2、数据集没有局部相关特性,目前深度学习表现比较好的领域主要是图像/语音/自然语言处理等领域,这些领域的一个共性是局部相关性。图像中像素组成物体,语音信号中音位组合成单词,文本数据中单词组合成句子,这些特征元素的组合一旦被打乱,表示的含义同时也被改变。对于没有这样的局部相关性的数据集,不适于使用深度学习算法进行处理。举个例子:预测一个人的健康状况,相关的参数会有年龄、职业、收入、家庭状况等各种元素,将这些元素打乱,并不会影响相关的结果。

作用 :对输入的特征图进行压缩,

一方面使特征图变小,简化网络计算复杂度;

一方面进行特征压缩,提取主要特征。

通常来讲,max-pooling的效果更好,虽然max-pooling和average-pooling都对数据做了下采样,但是 max-pooling感觉更像是做了特征选择,选出了分类辨识度更好的特征,提供了非线性 。 pooling的主要作用一方面是去掉冗余信息,一方面要保留feature map的特征信息,在分类问题中,我们需要知道的是这张图像有什么object,而不大关心这个object位置在哪,在这种情况下显然max pooling比average pooling更合适。在 网络比较深的地方,特征已经稀疏了,从一块区域里选出最大的,比起这片区域的平均值来,更能把稀疏的特征传递下去 。

average-pooling更强调对整体特征信息进行一层下采样,在减少参数维度的贡献上更大一点,更多的体现在 信息的完整传递这个维度 上,在一个很大很有代表性的模型中,比如说DenseNet中的模块之间的连接大多采用average-pooling,在减少维度的同时,更有利信息传递到下一个模块进行特征提取。

average-pooling在 全局平均池化操作 中应用也比较广,在ResNet和Inception结构中最后一层都使用了平均池化。有的时候在模型接近 分类器的末端使用全局平均池化还可以代替Flatten操作 ,使输入数据变成一位向量。

CNN网络中另外一个不可导的环节就是Pooling池化操作,因为Pooling操作使得feature map的尺寸变化,假如做2×2的池化(步长也为2),假设那么第l+1层的feature map有16个梯度,那么第l层就会有64个梯度,这使得梯度无法对位的进行传播下去。其实解决这个问题的思想也很简单,就是把1个像素的梯度传递给4个像素,但是需要保证传递的loss(或者梯度)总和不变。根据这条原则,mean pooling和max pooling的反向传播也是不同的

mean pooling的前向传播就是把一个patch中的值求取平均来做pooling,那么反向传播的过程也就是把 某个元素的梯度等分为n份分配给前一层,这样就保证池化前后的梯度(残差)之和保持不变 ,图示如下 :

(2) max pooling

max pooling也要满足梯度之和不变的原则 ,max pooling的前向传播是把patch中最大的值传递给后一层,而其他像素的值直接被舍弃掉。那么 反向传播也就是把梯度直接传给前一层某一个像素,而其他像素不接受梯度,也就是为0。 所以max pooling操作和mean pooling操作不同点在于需要记录下池化操作时到底哪个像素的值是最大,也就是max id,这个变量就是记录最大值所在位置的,因为在反向传播中要用到,那么假设前向传播和反向传播的过程就如下图所示 :

28、细粒度分类

29、LSTM&RNN

30、解释LSTM结构(相对于RNN)的好处

31、RNN的梯度消失原因和解决办法

32、Object Detection

33、Unet的介绍

34、FCN和Unet的区别

35、RCNN系列的算法流程和区别

36、Fast RCNN中 bbox 回归的损失函数什么

37、解释 ROI Pooling 和 ROI Align

38、Mask RCNN中 mask branch 如何接入 Faster RCNN中

39、解释 FPN

40、解释 ROI Align

41、简述 YOLO 和 SSD

42、简述 Hough 直线检测、Sobel 边缘检测算法流程

43、Mask RCNN中的anchors如何判定为正负样本

44、简述 NMS 算法流程

45、attention起源是用在哪里?pixel还是frame,是soft还是hard

46、anchor的正负样本比是多少

47、算法和激活函数等

48、BN的原理和作用

49、BN层反向传播,怎么求导

50、BN 的作用和缺陷,以及针对batch_size小的情况的改进(GN)

51、BN层,先加BN还是激活,有什么区别

52、手推BP

53、优化算法举例和他们的区别(SGD、SGDM、RMSprop、Adam)

54、随机梯度下降和梯度下降

55、训练不收敛的原因有哪些

56、简述 SVM 流程、核函数寻参及常见的核函数举例

57、batch_size 和 learning rate 的关系(怎么平衡和调整二者)

58、解释过拟合和欠拟合,以及解决方法

59、激活函数有哪些,各自区别

60、损失函数有哪些

61、Sigmoid 和 ReLu 对比(各自优缺点)

62、为什么不用sigmoid而用relu?做出了哪些改进?

63、梯度消失和梯度爆炸的原因和解决方法

64、Precision 和 Recall 的定义

65、精确率高、召回率低是为什么

66、SVM,线性回归和逻辑回归的原理及区别

67、PCA原理,PCA和SVD的区别和联系

68、正则化怎么选择,有哪些方式

69、L1、L2范数,区别

70、boost、Adaboost

71、dropout和batch normalization

72、讲一下决策树和随机森林

73、讲一下GBDT的细节,写出GBDT的目标函数。 GBDT和Adaboost的区别与联系

74、偏差、方差

75、距离度量公式哪些,区别

76、多标签识别怎么做

77、data argumentation怎么处理的

78、数据不均衡怎么处理、只有少量带标签怎么处理

79、权重初始化方法都有哪些

80、权值衰减这个参数怎么设置

81、分类问题有哪些评价指标?每种的适用场景。

82、无监督学习了解哪些

83、图像处理Opencv

84、边缘检测算子有哪些

85、霍夫变换

86、直方图是什么

87、canny算子是怎么做的

88、图像的特征提取有哪些算法,适用范围、优缺点

参考:

https://blog.csdn.net/bluesliuf/article/details/89389117

https://zhuanlan.hu.com/p/107279000

https://zhuanlan.hu.com/p/56475281

Ⅵ x,i,a,h,a,i开头的英文短语,要连成一个短语

Xantholite In Acieracious Heart And I

十字石与我在爱的心中

意猛败思就是 希望我在你的心里 你的心里充满爱

建议去买块十字石 买不到的话买块十字的水晶也行 这样会很有意境

十字石
岛状结构硅纳弊酸盐矿物,它因有一个奇特的十字外形而得名。十洞知族字石又 硬又脆,具有暗淡的光泽,一般为暗褐色。罕见的透明十字石可当作定石。因为它的形状,人们常用它制成装饰品。

另 上面刷屏的同志 自己没文化就算了 用不着在这里丢人现眼吧 唉

Ⅶ 谁能告诉我那些英文名字的意思

你好!很高兴回答你的问题, 你的问题非常深奥 我只能回答的浅薄 请您谅解
一.tom [tɑm] 汤姆
[词典释义]. 1. 雄性动物 2. 雄猫 3. (T-)Thomas之昵称 4.人名 杰克
[网络释义] 1.雄火鸡 2.桶鼓 Tom 1.隔日交割 2.汤姆(男名) 3.汤姆 太阳之神
二.jack英音:[dʒæk]美音:[dʒæk] 杰克
名词 1.(有时大写)男人;男孩;普通人 2.(有时大写)仆人;侍者;打杂工3.(常大写)水手;海员;水兵
4.起重机;千斤顶 lift a car with a jack 用千斤顶把汽车托起 5.(纸牌中的)"J"牌,杰克 6.【电】插座;插口 7.【船】船首旗 8.公骡;公畜;长耳大野兔
及物动词 We jacked the automobile in order to change a tire 我们用千斤顶把汽车托起换个轮胎。
前缀 1.表示"公的","雄的"(如:jackass) 2.表示"大的","坚固的"(如:jackboot) 3.表示"男孩","人"(如:jack-in-the-box)
三 martin英音:['mɑ:tin]美音:['mɑrtɪn] 马丁
名词 1.【鸟】紫崖燕;毛脚燕 2.(M-)马丁(男子名)
网络释义 1.马丁棉 出口货物名称中英对照(170)—生命经纬
2.好战的/古罗马战神的名字
3.马丁 拉丁 好战的,尚武的
Aaron 艾伦 希伯来 巍然的高山;受神启示的。
Abbott 艾布特 希伯来 父性的;伟大的精神。
Abel 亚伯 拉丁 生命;呼吸。
Abner 艾布纳 希伯来 睿智;有智能。
Abraham 亚伯拉罕 希伯来 崇高的父亲;众人之父。
Adair 亚岱尔 苏格兰,爱尔兰 犹如像树般坚强。
Adam 亚当 希伯来 天下第一个男人,男性
Addison 艾狄生 英国 亚当的后代。
Adolph 阿道夫 德国 高贵的狼。
Adonis 亚度尼斯 希腊 美男子。
Adrian 亚德里恩 拉丁 傍亚德里亚海而居之人。
Ahern 亚恒 塞尔特 马的主人。
Alan 艾伦 斯堪的那维亚 英俊的,好看的;和睦,和平;高兴的。
Albert 艾伯特 英国 高贵的聪明;人类的守护者。
Aldrich 奥德里奇 英国 英明的统治者。
Alexander 亚历山大 希腊 人类的保护者;人的帮手。
Alfred 亚尔弗列得 英国;条顿 睿智的顾问;聪明帮手。
Alger 阿尔杰 英国 光荣高贵护卫。
Algernon 阿尔杰农 法国 满脸照胡子的人。
Allen 艾伦 盖尔 和谐融洽;英俊的;好看的。
Alston 奥斯顿 英国 出身高贵的人。
Alva 阿尔瓦 拉丁 白种人的;金发碧眼的。
Alvin 阿尔文 条顿 被大家所键樱喜爱的;每个人的朋友。
Alvis 亚尔维斯 挪威 短小精悍的人。
Amos 亚摩斯 希伯来 任重道远的人。
Andre 安得烈 法国 勇敢的,骁勇的。
Andrew 安德鲁 希腊 男性的,勇敢的,骁勇的。
Andy 安迪 希腊 男性的,勇敢的,骁勇的。
Angelo 安其罗 意大利 上帝的使者。
Augus 安格斯 盖尔 一个,唯一无二的;爱神。
Ansel 安斯艾尔 法国 出身或教养均极高贵的人。
Antony 安东尼 拉丁 值得赞美,备受尊崇的。
Antoine 安东莞 欧洲 值得赞美,备受尊崇的。
Antonio 安东尼奥 拉丁 值得赞美,备受尊崇的。
Archer 阿奇尔 英国 拉开千钧之弓的大力士。
Archibald 阿奇柏德 英国 高贵的,勇敢的。
Aries 亚力士 拉丁 公羊。
Arlen 亚尔林 英国银亮运 誓约。
Armand 亚尔曼 德国 军人。
Armstrong 阿姆斯特朗 英国 臂力强健的人。
Arno 阿诺 条顿 鹰。
Arnold 阿诺德 条顿 鹰。
Arthur 亚瑟 英国 高尚的或贵族的。
Arvin 艾文 条顿 以平等之心待人者。
Asa 亚撒 希伯来 上帝的锋梁赐予;治愈者。
Ashbur 亚希伯恩 英国 入世的赛,传播喜讯者。
Atwood 亚特伍德 英国 住在森林或森林中的人。
Aubrey 奥布里 条顿 有钱有势的国王;小精灵。
August 奥格斯格 拉丁 神圣的、尊崇的或身份高尚的人;八月。
Augustine 奥古斯汀 拉丁 指八月出生的人。
Avery 艾富里 英国 争斗;淘气,爱恶作剧的人。
Baird 拜尔德 爱尔兰 很会唱民谣的人。
Baldwin 柏得温 条顿 在战场很英勇的人。
Bancroft 班克罗福特 英国 种豆之人。
Bard 巴德 英国 很快乐,且喜欢养家畜的人。
Barlow 巴罗 希腊 住山中的人。
Barnett 巴奈特 英国 领袖。
Baron 巴伦 英国 勇敢的战士;高贵;男爵。
Barret 巴里特 条顿 有大担当的人;熊。
Barry 巴里 爱尔兰 优秀的射手;持矛者。
Bartholomew 巴萨罗穆 希腊 是耶稣的十二门徒之一;农田之子。
Bart 巴特 希腊 是耶稣的十二门徒之一。
Barton 巴顿 英国 住在大麦田里的人。
Bartley 巴特莱 英国 看管牧草地的人。
Basil 巴泽尔 拉丁 像国王的。
Beacher 比其尔 英国 原意浪涛。
Beau 宝儿 法国 好修饰的人,花花公子。
Beck 贝克 英国 溪流。
Ben 班 希伯来 儿子;山峰。
Benedict 班尼迪克 拉丁 受祝福的;能言善道的;神圣的。
Benjamin 班杰明 希伯来 最喜爱的儿子;幸运的;雅各的小孩。
Bennett 班奈特 拉丁 受祝福的人。
Benson 班森 希伯来,英国 具有其父般性格人。
Berg 柏格 条顿 冰山。
Berger 格吉尔 法国 犁地的人;牧羊人。
Bernard 格纳 条顿 像熊一般勇敢。
Bernie 伯尼 条顿 像熊一般勇敢。
Bert 伯特 英国 光辉灿烂;全身散发出荣耀和光辉的人。
Berton 伯顿 英国 勤俭治产之人。
Bertram 柏特莱姆 条顿 幸运且杰出的人。
Bevis 毕维斯 法国 能明察周遭环境的人。
Bill 比尔 德国 强而有力的战士或保护者。
Bing 宾 德国 来自很特殊的村落。
Bishop 毕夏普 英国 监督者。
Blair 布雷尔 塞尔特 平原的;多沼泽的战场。
Blake 布莱克 英国 漂白。
Blithe 布莱兹 英国 很快乐的人。
Bob 鲍伯 条顿 辉煌的名声。
Booth 布兹 挪威 住小茅屋的人。
Borg 柏格 斯拉夫 居住在一座世袭古堡之中者。
Boris 伯里斯 俄国 战门;陌生人。
Bowen 波文 英国 有教养的贵族。
Boyce 柏宜斯 法国 住在森林中,独立者。
Boyd 布德 塞尔特 金发的;白种人的。
Bradley 布兰得利 英国 宽广的草地。
Brady 布莱迪 英国 生气蓬勃的;宽广的岛屿。
Brandon 布兰登 英国 发亮的山区。
Brian 布莱恩 塞尔特和盖尔 有权势的领袖;出生高贵。
Broderick 布拉得里克 斯堪的那维亚 着名的国王。
Brook 布鲁克 英国 傍溪而居之人。
Bruce 布鲁斯 法国 一座森林。
Bruno 布鲁诺 意大利 褐色的或黑色的肤色。
Buck 巴克 英国 雄鹿。
Burgess 伯骑士 英国 自由的人。
Burke 巴尔克 法国 住在城堡要塞的人。
Burnell 布尼尔 法国 身材矮小者。
Burton 波顿 英国 山丘上的小镇。
Byron 拜伦 英国 乡下房舍,喜爱大自然景物者。
Caesar 凯撒 拉丁 皇帝;毛茸茸的。
Calvin 卡尔文 拉丁 秃头的。
Carey 凯里 威尔斯 住在古堡里的人。
Carl 卡尔 德国 伟大的人;男子汉。
Carr 凯尔 挪威 住在沼泽的人。
Carter 卡特 英国 架马车的人。
Cash 凯希 拉丁 爱慕虚荣者,现金。
Cecil 塞西尔 拉丁 视力朦胧的。
Cedric 赛得里克 塞尔特 战争统帅;慷慨的。
Chad 乍得 英国 有经验的战士。
Channing 强尼 法国 牧师。
Chapman 契布曼 英国 商人;小贩。
Charles 查理斯 拉丁-条顿 强壮的,男性的,高贵心灵,强健的。
Chasel 夏佐 古法国 猎人。
Chester 贾斯特 罗马 小镇
Christ 克莱斯特 希伯来 基督。
Christian 克里斯汀 希腊 基督的追随者,信徒。
Christopher 克里斯多夫 希腊 基督的信差或仆人,表基督徒之意。
Clare 克雷尔 拉丁 头脑清楚的。
Clarence 克拉伦斯 拉丁 头脑清楚的;聪明的;着名的。
Clark 克拉克 拉丁和英国 一位学者。
Claude 克劳德 拉丁 跛脚者。
Clement 克雷孟特 拉丁 和善和,仁慈的人。
Cleveland 克利夫兰 英国 来自岩区的人。
Cliff 柯利福 英国 来自陡峭的山区之人。
Clifford 柯利弗德 英国 临近悬崖的道岔口,堡垒。
Clyde 克莱得 威尔斯 在很远的地方就听得到。
Colbert 考伯特 英国 船员。
Colby 考尔比 挪威 来自黑暗地区的人。
Colin 科林 盖尔 小孩或婴儿。
Conrad 康拉德 条顿 援助者,智能;指导的人。
Corey 寇里 苏格兰 居住在湖边的人。
Cornelius 康那理惟士 拉丁 太阳之角;王权
Cornell 康奈尔 法国 金黄色头发的人。
Craig 克莱凸 塞尔特 居住峭壁的人。
Curitis 柯帝士 法国 有礼貌的。
Cyril 西瑞尔 希腊 贵族的。
Dana 戴纳 英国 如阳光般纯洁、光耀。
Daniel 丹尼尔 希伯来 上帝是我的仲判人。
Darcy 达尔西 法国 指来自大城堡的人,黑人。
Darnell 达尼尔 希伯来 上帝是我的仲判人。
Darren 达伦 爱尔兰 有成大事业的潜力之人。
Dave 迪夫 希伯来 所爱的人。
David 大卫 希伯来 所爱的人。
Dean 迪恩 英国 山谷;学校的领导者;教堂的领导者。
Dempsey 邓普斯 盖尔 骄傲而有力的人。
Dennis 邓尼斯 希腊 希腊的酒神。
Derrick 戴里克 德国 民族的统治者。
Devin 得文 爱尔兰 指诗人或学者。
Dick 狄克 德国 勇猛的,大胆的。
Dominic 多明尼克 拉丁 属于上帝的。
Don 唐 塞尔特 世界领袖。
Donahue 唐纳修 爱尔兰 红褐色的战士。
Donald 唐纳德 塞尔特 世界领袖;酋长。
Douglas 道格拉斯 盖尔 来自黑海的人;深灰色。
Drew 杜鲁 威尔斯 聪慧与诚实的人。
Duke 杜克 拉丁 公爵;领导者。
Duncan 邓肯 盖尔 褐色的战士;晒得黑黑的战士。
Dunn 唐恩 英国 指黑色皮肤的人。
Dwight 德维特 条顿 白种人或金发碧眼的人。
Dylan 狄伦 威尔斯 海洋;波浪之神。
Earl 额尔 英国 有敏锐智能的高贵领导者。
Ed 艾德 英国 一位有钱的监护人。
Eden 伊登 希伯来 伊甸园,光芒与快乐。
Edgar 爱德格 英国 快乐的战士。
Edmund 艾德蒙 英国 有钱的保护者。
Edison 爱迪生 英国 以照顾他人而丰富自己的人。
Edward 爱德华 英国 一位很有钱的财产监护人。
Edwiin 爱德温 英国 有钱的朋友;财产的获得者。
Egbert 爱格伯特 条顿 非常有才能的,显赫的。
Eli 伊莱 希伯来 伟大,杰出。
Elijah 易莱哲 希伯来 耶和华就是上帝。
Elliot 伊里亚德 法国,希伯来 虔诚信仰上帝的人。
Ellis 艾理斯 希伯来 上帝是救世主。
Elmer 爱尔玛 英国 高贵的或有名的。
Elroy 爱罗伊 拉丁 王室的,国王。
Elton 爱尔顿 英国 老农场的。
Elvis 艾维斯 条顿 高贵的;朋友。
Emmanuel 爱曼纽 希伯来 上帝与我们同在。
Enoch 伊诺克 希腊,希伯来 追随者;虔诚的。
Eric 艾利克 斯堪的那维亚 领导者。
Ernest 欧尼斯特 德国 热心、真实或诚挚的人。
Eugene 尤金 希腊、拉丁 有高贵血统的。
Evan 尔文 塞尔特 出身名门的人。
Everley 伊夫力 英国 指野猪打斗的场地。
Fabian 富宾恩 罗马 种豆之人。
Felix 菲力克斯 拉丁 幸福的或幸运的。
Ferdinand 斐迪南 条顿 旅行,爱冒险的;谋和
Fitch 费奇 英国 金发之人。
Fitzgerald 费兹捷勒 英国 技术高明的造箭家。
Ford 福特 英国 河的渡口。
Francis 法兰西斯 拉丁 自由之人,无拘无束的人。
Frank 法兰克 法国 自由之人。
Franklin 法兰克林 拉丁或德国 自由之人。
Frederic 弗雷得力克 德国 以和平领导的统治者;强大有力的,富有的。
Gabriel 加布力尔 希伯来 上帝的男仆;上帝的力量是很力的。
Gale 加尔 爱尔兰 唱歌;陌生人。
Gary 盖理 条顿 带枪矛的人;猎犬。
Gavin 盖文 爱尔兰 战争之鹰,胜利之鹰。
Gene 吉恩 希腊,拉丁 有高贵血统的。
Geoffrey 杰佛理 法国 神圣的和平。
Geoff 杰夫 法国 神圣的和平。
George 乔治 希腊 农夫。
Gerald 吉罗德 条顿 勇敢的战士。
Gilbert 吉伯特 条顿 闪耀的誓言;人质。
Giles 贾艾斯 希腊 持盾之人。
Glenn 葛兰 塞尔特 狭窄山谷的。
Goddard 哥达 德国 稳固,不可动摇的定律。
Godfery 高德佛里 法国 和平之神。
Gordon 戈登 英国 三角峰的山区;英雄;强壮的人。
Greg 葛列格 希腊 警觉之人。
Gregary 葛列格里 希腊 警觉之人。
Griffith 葛里菲兹 威尔斯 保护家园有力之人;红润的。
Grover 格罗佛 英国 住在小树林中的人。
Gustave 古斯塔夫 德国或瑞典 战争。
Guy 盖 英国 引导者;明智的;木头;年老的战士。
Hale 霍尔 英国 英雄般的荣耀。
Haley 哈利 爱尔兰 科学的;有发明天份的。
Hamiltion 汉米敦 法国或诺曼底 山上的小村;光秃的山丘。
Hardy 哈帝 德国 勇敢,人格高尚之人。
Harlan 哈伦 条顿 来自寒冷的国度。
Harley 哈利 英国 到处是野兔的草原或小树林。
Harold 哈乐德 英国 领导者;作战勇猛。
Harriet 哈里特 英国 战争,军人。
Harry 哈里 中世纪英国 战争,军人。
Harvey 哈威 法国 有苦味的;进步的或兴隆繁茂的。
Hayden 海登 条顿 来自围以树篱的小镇。
Heather 海拾兹 英国 开花的石南。
Henry 享利 条顿 管理家庭的人;家族统治者。
Herbert 赫伯特 德国 着名或辉煌的战士。
Herman 赫尔曼 德国 军人;男子汉。
Hilary 希拉里 拉丁 快乐的。
Hiram 海勒 希伯来 身份地位高尚的;尊贵的。
Hobart 霍伯特 德国 心中的光亭。
Hogan 霍根 爱尔兰 永远年轻的。
Horace 哈瑞斯 拉丁 老师。
Howar 好尔德 条顿 看守者。
Hubery 休伯特 法国 人格光明;思想灿烂的。
Hugh 修 德国 理性;智力;灵魂。
Hugo 雨果 拉丁 理性;智力;灵魂。
Humphrey 韩弗理 条顿 和平支持者。
Hunter 汉特 英国 以打猎为荣的人。
Hyman 海曼 希伯来 生命。
Ian 伊恩 苏格兰 反映上帝荣耀之人。
Ingemar 英格马 条顿 名门的后代。
Ingram 英格兰姆 英国 指大鸟之子,智能的象征。
Ira 艾勒 希伯来 警觉性高的人;未阉割的马。
Isaac 艾萨克 希伯来 笑声。
Isidore 伊西多 希腊 女神爱色斯的礼物。
Ivan 艾凡 俄国 上帝仁慈的赠礼。
Ives 艾维斯 英国 指剑术家。
Jack 杰克 希伯来 上帝仁慈的赠礼。
Jacob 雅各 希伯来 取而代之者;跟随者。
James 詹姆士 拉丁 取而代之者。
Jared 杰瑞德 希伯来 家世,血统,出身。
Jason 杰森 希腊 治愈伤口的人;具备丰富知识的人。
Jay 杰 法国 蓝鸟的美丽。
Jeff 杰夫 法国 神圣的和平。
Jeffrey 杰佛瑞 法国 神圣的和平。
Jeremy 杰勒米 希伯来 上帝之崇高。
Jerome 哲罗姆 拉丁 神圣的名字。
Jerry 杰理 拉丁 神圣的名字。
Jesse 杰西 希伯来 上帝的恩赐;上帝安在。
Jim 吉姆 拉丁 取而代之者。
Jo 乔 希伯来 上帝还会赐予。
John 约翰 希伯来 上帝仁慈的赐恩。
Jonas 琼纳斯 希伯来 和平鸽。
Jonathan 强纳生 希伯来 上帝赐予。
Joseph 约瑟夫 希伯来 上帝还会再赐予。
Joshua 乔休尔 希伯来 上帝所援救。
Joyce 乔伊斯 拉丁 欢喜的。
Julian 朱利安 希腊 头发柔软的,也代表年青人。
Julius 朱利尔斯 希腊 头发柔软的,毛茸茸的。
Justin 贾斯丁 拉丁 诚实的。
Keith 基斯 爱尔兰 风;树林。
Kelly 凯利 塞尔特 战士。
Ken 肯恩 苏格兰 一位英俊的领导者。
Kennedy 甘乃迪 爱尔兰 武士之首,指领导者。
Kenneth 肯尼士 苏格兰 一位英俊的领导者。
Kent 肯特 苏格兰 英俊的领袖;辽阔的国土。
Kerr 科尔 爱尔兰 指持矛的黑人。
Kerwin 科尔温 爱尔兰 有一只柔和的眼睛的人;朋友
Kevin 凯文 爱尔兰 圣人;很男性化的;出身很好的。
Kim 金姆 英国 出生皇家堡垒草地上的人。
King 金 英国 统治者。
Kirk 科克 盖尔 住在教堂旁边的人。
Kyle 凯尔 威尔斯 一狭窄的海峡;英俊潇洒的。
Lambert 蓝伯特 德国 聪明的治产者;光明。
Lance 蓝斯 法国 土地;等待他人的人。
Larry 劳瑞 拉丁 月桂树。
Lawrence 劳伦斯 拉丁 月桂树。
Leif 列夫 挪威 大众情人。
Len 伦恩 条顿 强壮的狮。
Lennon 蓝侬 爱尔兰 戴帽子穿斗蓬很瘦的人。
Leo 利奥 希腊 狮;勇士。
Leonard 伦纳德 条顿 强壮如狮。
Leopold 利奥波德 德国 有爱国心的。
Les 勒斯 塞尔特 来自古老的堡垒。
Lester 里斯特 英国 营地;显赫之人。
Levi 李维 希伯来 正联合在一起。
Lewis 路易斯 法国 在战场上很有名气。
Lionel 赖昂内尔 法国 像狮子般的。
Lou 路 法国 在战场上很有名气。
Louis 路易士 法国 在战场上很有名气。
Lucien 陆斯恩 拉丁 光亮,真理。
Luther 路德 德国 杰出的战士。
Lyle 赖尔 法国 岛上之民。
Lyndon 林顿 条顿 住在有菩提树的地方。
Lynn 林恩 英国 傍湖而居者。
Magee 麦基 爱尔兰 易发怒的人。
Malcolm 麦尔肯 苏格兰 指传道者。
Mandel 曼德尔 德国 指有杏仁眼的人。
Marcus 马卡斯 罗马 指有侵略性的人。
Marico 马里奥 拉丁 好战的人;苦战
Mark 马克 拉丁 指有侵略性的人。
Marlon 马伦 法国 指像小鹰或猎鹰的人。
Marsh 玛希 法国 来自草木丛生的地区。
Marshall 马歇尔 英国 看守马的人,君王的跟随者。
Martin 马丁 拉丁 好战的,尚武的。
Marvin 马文 英国 朋友。
Matt 马特 希伯来 上帝的赠礼。
Matthew 马休 希伯来 上帝的赠礼。
Maurice 摩里斯 拉丁 黑皮肤的;摩尔人的。
Max 马克斯 拉丁 最伟大的。
Maximilian 马克西米兰 拉丁 最伟大的。
Maxwell 麦斯威尔 英国 深具影响力又很值得尊敬之人。
Meredith 马勒第兹 威尔斯 大海的保护者。
Merle 莫尔 法国 一只画眉鸟;法国人用这个名字去称呼那些爱唱歌或爱吹哨的人。
Merlin 莫林 英国 海边的堡垒或海边的小山丘。
Michael 麦克 希伯来 像上帝的人。
Michell 米契尔 英国 犹如上帝的劳耀和高贵。
Mick 密克 希伯来 像上帝的人。
Mike 麦克 希伯来 像上帝的人。
Miles 麦尔斯 德国,拉丁,希腊 战士;磨石;仁慈的。
Milo 米路 拉丁 抚养镇民的人;战士。
Monroe 门罗 塞尔特 红沼泽。
Montague 曼特裘 拉丁 峭急之山脉的。
Moore 莫尔 法国 黝黑英俊的外表。
Morgan 摩尔根 威尔斯 指住在海边的人。
Mortimer 摩帝马 法国 傍着静寂的湖泊居住的人。
Morton 摩顿 英国 来自旷野之村落。
Moses 摩西 希伯来 从海中救人的人;小孩。
Murphy 摩菲 爱尔兰 指捍卫海强的人。
Murray 莫雷 塞尔特 水手。
Myron 麦伦 希腊 芳香的;甜的,芳香的。
Nat 纳特 希伯来 礼物。
Nathan 奈登 希伯来 赠予者。
Nathaniel 奈宝尼尔 希伯来 上帝的赠礼。
Neil 尼尔 英国 勇敢的人;领袖;夺得锦标者,冠军。
Nelson 尼尔森 英国 儿子。
Newman 纽曼 英国 受欢迎的异乡人。
Nicholas 尼克勒斯 希腊 胜利者。
Nick 尼克 希腊 胜利者。
Nigel 奈哲尔 拉丁 黑头发的人。
Noah 诺亚 希伯来 镇静的,静止的,或平安的。
Noel 诺尔 拉丁 生日;圣诞节。
Norman 诺曼 法国 北欧人,斯堪的那维亚人。
Norton 诺顿 英国 来自南方村落的人。
Ogden 欧格登 英国 来自像树流域。
Oliver 奥利佛 拉丁 平安的人。
Omar 奥玛 阿拉伯 长子,受到先知的教诲。
Orville 奥利尔 法国 来自黄金城。
Osborn 奥斯本 英国 神圣的战士,受天赐福的人。
Oscar 奥斯卡 条顿 神圣之矛。
Osmond 奥斯蒙 英国 受到神圣的祝福,保护。
Oswald 奥斯维得 英国 神圣而有力的。
Otis 奥狄斯 希腊 听觉敏锐。
Otto 奥特 德国 富有的。
Owen 欧恩 拉丁,威尔斯 出身高贵,年轻的战士。
Page 裴吉 希腊 孩子。
Parker 派克 英国 看守公园的人。
Paddy 培迪 爱尔兰 出身高贵的;贵族。
Patrick 派翠克 拉丁 出身高贵的;贵族。
Paul 保罗 拉丁 指矮小玲珑的人。
Payne 派恩 拉丁 来自乡村的人。
Perry 斐瑞 英国 梨树。
Pete 皮特 希腊 岩石,石头。
Peter 彼得 希腊 岩石,石头。
Phil 菲尔 希腊 爱马者。
Philip 菲力浦 希腊 战士;好战的或尚武的;爱马者。
Porter 波特 法国 看门人或挑夫。
Prescott 普莱斯考特 英国 牧师的小屋。
Primo 普利莫 意大利 长子。
Quentin 昆特 法国 第五,第五天。
Quennel 昆尼尔 法国 独立的橡树区。
Quincy 昆西 拉丁 第五。
Quinn 昆 拉丁 第五。
Quintion 昆顿 拉丁 第五个,第五个子孙。
Rachel 雷契尔 希伯来 母羊。
Ralap 雷尔夫 英国 狼的忠告或狼的智能,顾问。
Randolph 蓝道夫 英国 狼的忠告或狼的智能。
Raymond 雷蒙德 德国 强而有力的保护者或顾问,保护者。
Reg 雷哲 德国 帝王的;国王。
Regan 里根 爱尔兰 帝王的;国王。
Reginald 雷吉诺德 德国 强而有力的领导者。
Reuben 鲁宾 希腊 一个儿子!新生者。
Rex 雷克斯 拉丁 国王。
Richard 理查 德国 勇猛的,大胆的。
Robert 罗伯特 条顿 辉煌的名声。
Robin 罗宾 条顿 辉煌的名声,知更鸟。
Rock 洛克 英国 岩石,非常强壮之人。
Rod 罗德 英国 公路服务者;有名气的。
Roderick 罗得里克 英国 很有名气;很出名的领导者。
Rodney 罗德尼 英国 公路服务者;有名气的,仆人。
Ron 罗恩 条顿 强而有权势的领导者。
Ronald 罗奈尔得 条顿 强而有权势的领导者。
Rory 罗里 塞尔特 红润,健康的人。
Roy 罗伊 英国 国王。
Rudolf 鲁道夫 条顿 狼。
Rupert 鲁伯特 条顿 辉煌的名声。
Ryan 莱安 爱尔兰 很有潜力的国王。
Sam 山姆 希伯来 上帝之名。
Sampson 辛普森 希伯来 高的智能和力量,太阳的。
Samuel 撒姆尔 希伯来 上帝之名。
Sandy 山迪 拉丁 人类的防卫者。
Saxon 撒克逊 英国 征服他人的持剑者。
Scott 史考特 英国 苏格兰人,爱尔兰人。
Sean 肖恩 爱尔兰 上帝仁慈的赠礼。
Sebastian 夕巴斯汀 希腊 受尊敬的,庄严的。
Sid 锡德 英国 来自菲尼基Sidon城。
Sidney 锡得尼 英国 来自菲尼基Sidon城。
Silvester 席尔维斯特 拉丁 来自森林。
Simon 赛门 希伯来 聆德,扁鼻子的。
Solomon 所罗门 希伯来 和平,平安。
Spencer 史宾杜 英国 店主;治理者,行政官。
Stan 史丹 英国 草原,牧场。
Stanford 史丹佛 英国 来自多岩的津泊。
Stanley 史丹尼 英国 草原,牧场。
Steven 史帝文 拉丁,希腊 王冠,花冠。
Stev 史帝夫 拉丁,希腊 王冠,花冠。
Steward 史都华德 英国 看守者或管理者。
Tab 塔伯 条顿 卓越,睿智。
Taylor 泰勒 英国 做裁缝的人。
Ted 泰德 古英国 有钱的监护人。
Ternence 泰伦斯 拉丁 温和稳重或温柔的人;高塔。
Theobald 希尔保特 拉丁 勇敢的神。
Theodore 希欧多尔 希腊 神的赠礼或上帝的赠礼。
Thomas 托玛士 英国,拉丁 太阳之神;一对孪生子。
Tiffany 帝福尼 法国 显示上帝的神圣形象。
Tim 堤姆 希腊 敬神或畏神。
Timothy 帝摩斯 希腊 敬神或畏神。
Tobias 托拜西 希腊 上帝是我信仰的神。
Toby 托比 希腊 上帝是我信仰的神。
Todd 陶德 英国 狐狸;指聪明狡猾的人。
Tom 汤姆 英国,拉丁 一对孪生子太阳之神。
Tony 汤尼 拉丁 值得赞美的,很受尊重的。
Tracy 特瑞西 英国 市场小径,收获。
Troy 特洛伊 法国 居住于卷发人群里的人。
Truman 杜鲁门 英国 信仰很忠诚的人。
Tyler 泰勒 英国 建盖屋顶的人,制砖瓦的人。
Tyrone 泰伦 希腊 领主或统治者。
Ulysses 尤里西斯 希腊 智勇双主,怀恨者。
Upton 阿普顿 英国 来自镇上前端的人。
Uriah 尤莱亚 希伯来 耶稣是光之所在。
Valentine 范伦铁恩 拉丁 健康的人或强壮的人。
Valentine 范伦丁 英国 有价值的,强壮的。
Verne 佛能 拉丁 茂盛。
Vic 维克 拉丁 胜利者,征服者。
Victor 维克多 拉丁 胜利者,征服者。
Vincent 文森 拉丁 征服。
Virgil 维吉尔 拉丁 春天,生物欣欣向荣之状。
Vito 维托 拉丁 很活耀,气力旺盛的人。
Vivian 卫维恩 拉丁 活跃的。
Wade 维德 英国 流浪者。
Walker 瓦尔克 英国 在树林中散步的人。
Walter 瓦尔特 古德国,法国 指率领军队的人,或有权势的战士。
Ward 华德 英国 保卫,护卫者。
Warner 华纳 德国 抵抗侵略的人。
Wayne 韦恩 英国 建造马车的人,四轮马车。
Webb 韦勃 英国 编织者。
Webster 韦伯斯特 英国 编织者。
Wendell 温德尔 条顿 流浪者。
Werner 韦纳尔 德国 卫国卫邦,御侵略之人。
Wilbur 韦尔伯 英国 种很多柳树的城市,辉煌的。
Will 威尔 法国 一位强而有力的战士或保护者。
William 威廉 德国,法国 强而有力的战士或保卫者。
Willie 威利 德国 强而有力的战士或保卫者。
Winfred 威弗列德 威尔斯 白色的波浪;爱好和平的朋友。
Winston 温士顿 英国 来自朋友的市镇或居处,石头。
Woodrow 伍德洛 挪威 居住林间小屋的人。
Wordsworth 渥兹华斯 英国 在树林中散步的人。
Wright 莱特 英国 伐木工人。
Wythe 伟兹 法国 小战士。
Xavier 赛维尔 西班牙 新房子的主人,光辉灿烂。
Yale 耶鲁 古英国 来自边陲地带。
Yehudi 耶呼弟 希伯来 膜拜上帝的人。
York 约克 英国 养野猪的人。
Yves 依夫 法国 法律的守护神。
Zachary 扎克利 希伯来 为上帝所心仪的人。
Zebulon 纪伯伦 希伯来 居处,住宅。
Ziv 日杰夫 斯拉夫 到处充满活力及快乐。

阅读全文

与xavier是什么意思网络用语相关的资料

热点内容
湖南网络营销培训 浏览:919
网络被骗转账最低多少立案 浏览:374
4g网络手机推荐 浏览:854
苹果6s怎么开启4g网络 浏览:536
网络营销分析与运营 浏览:849
苹果无线网络自动接入开关 浏览:284
构建网络安全保障框架 浏览:910
wifi路由器没网络是什么原因是什么 浏览:766
y什么意思网络用语 浏览:316
苹果手表网络为什么不支持 浏览:365
手机平板网络没问题 浏览:126
不用网络不用流量外出时听歌的软件 浏览:379
无线网络到期了 浏览:790
手机网络信号差怎么解决方法苹果 浏览:561
计算机网络主体设备是 浏览:829
软件怎么单独设置网络 浏览:500
如何构建绿色健康的网络环境 浏览:570
哪个网络大学是开卷考试 浏览:713
校园网络硬件设备有哪些 浏览:953
恢复网络信号的方法 浏览:399

友情链接