导航:首页 > 网络问题 > 长短时记忆网络的工作原理是什么

长短时记忆网络的工作原理是什么

发布时间:2023-02-18 23:41:58

A. 神经网络模型-27种神经网络模型们的简介

​ 

【1】Perceptron(P) 感知机

【1】感知机 

感知机是我们知道的最简单和最古老的神经元模型,它接收一些输入,然后把它们加总,通过激活函数并传递到输出层。

【2】Feed Forward(FF)前馈神经网络

 【2】前馈神经网络

前馈神经网络(FF),这也是一个很古老的方法——这种方法起源于50年代。它的工作原理通常遵循以下规则:

1.所有节点都完全连接

2.激活从输入层流向输出,无回环

3.输入和输出之间有一层(隐含层)

在大多数情况下,这种类型的网络使用反向传播方法进行训练。

【3】Radial Basis Network(RBF) RBF神经网络

 【3】RBF神经网络

RBF 神经网络实际上是 激活函数是径向基函数 而非逻辑函数的FF前馈神经网络(FF)。两者之间有什么区别呢?

逻辑函数--- 将某个任意值映射到[0 ,... 1]范围内来,回答“是或否”问题。适用于分类决策系统,但不适用于连续变量。

相反, 径向基函数--- 能显示“我们距离目标有多远”。 这完美适用于函数逼近和机器控制(例如作为PID控制器的替代)。

简而言之,RBF神经网络其实就是, 具有不同激活函数和应用方向的前馈网络 。

【4】Deep Feed Forword(DFF)深度前馈神经网络

【4】DFF深度前馈神经网络 

DFF深度前馈神经网络在90年代初期开启了深度学习的潘多拉盒子。 这些依然是前馈神经网络,但有不止一个隐含层 。那么,它到底有什么特殊性?

在训练传统的前馈神经网络时,我们只向上一层传递了少量的误差信息。由于堆叠更多的层次导致训练时间的指数增长,使得深度前馈神经网络非常不实用。 直到00年代初,我们开发了一系列有效的训练深度前馈神经网络的方法; 现在它们构成了现代机器学习系统的核心 ,能实现前馈神经网络的功能,但效果远高于此。

【5】Recurrent Neural Network(RNN) 递归神经网络

【5】RNN递归神经网络 

RNN递归神经网络引入不同类型的神经元——递归神经元。这种类型的第一个网络被称为约旦网络(Jordan Network),在网络中每个隐含神经元会收到它自己的在固定延迟(一次或多次迭代)后的输出。除此之外,它与普通的模糊神经网络非常相似。

当然,它有许多变化 — 如传递状态到输入节点,可变延迟等,但主要思想保持不变。这种类型的神经网络主要被使用在上下文很重要的时候——即过去的迭代结果和样本产生的决策会对当前产生影响。最常见的上下文的例子是文本——一个单词只能在前面的单词或句子的上下文中进行分析。

【6】Long/Short Term Memory (LSTM) 长短时记忆网络

【6】LSTM长短时记忆网络 

LSTM长短时记忆网络引入了一个存储单元,一个特殊的单元,当数据有时间间隔(或滞后)时可以处理数据。递归神经网络可以通过“记住”前十个词来处理文本,LSTM长短时记忆网络可以通过“记住”许多帧之前发生的事情处理视频帧。 LSTM网络也广泛用于写作和语音识别。

存储单元实际上由一些元素组成,称为门,它们是递归性的,并控制信息如何被记住和遗忘。

【7】Gated Recurrent Unit (GRU)

 【7】GRU是具有不同门的LSTM

GRU是具有不同门的LSTM。

听起来很简单,但缺少输出门可以更容易基于具体输入重复多次相同的输出,目前此模型在声音(音乐)和语音合成中使用得最多。

实际上的组合虽然有点不同:但是所有的LSTM门都被组合成所谓的更新门(Update Gate),并且复位门(Reset Gate)与输入密切相关。

它们比LSTM消耗资源少,但几乎有相同的效果。

【8】Auto Encoder (AE) 自动编码器

 【8】AE自动编码器

Autoencoders自动编码器用于分类,聚类和特征压缩。

当您训练前馈(FF)神经网络进行分类时,您主要必须在Y类别中提供X个示例,并且期望Y个输出单元格中的一个被激活。 这被称为“监督学习”。

另一方面,自动编码器可以在没有监督的情况下进行训练。它们的结构 - 当隐藏单元数量小于输入单元数量(并且输出单元数量等于输入单元数)时,并且当自动编码器被训练时输出尽可能接近输入的方式,强制自动编码器泛化数据并搜索常见模式。

【9】Variational AE (VAE)  变分自编码器

 【9】VAE变分自编码器

变分自编码器,与一般自编码器相比,它压缩的是概率,而不是特征。

尽管如此简单的改变,但是一般自编码器只能回答当“我们如何归纳数据?”的问题时,变分自编码器回答了“两件事情之间的联系有多强大?我们应该在两件事情之间分配误差还是它们完全独立的?”的问题。

【10】Denoising AE (DAE) 降噪自动编码器

 【10】DAE降噪自动编码器

虽然自动编码器很酷,但它们有时找不到最鲁棒的特征,而只是适应输入数据(实际上是过拟合的一个例子)。

降噪自动编码器(DAE)在输入单元上增加了一些噪声 - 通过随机位来改变数据,随机切换输入中的位,等等。通过这样做,一个强制降噪自动编码器从一个有点嘈杂的输入重构输出,使其更加通用,强制选择更常见的特征。

【11】Sparse AE (SAE) 稀疏自编码器

【11】SAE稀疏自编码器 

稀疏自编码器(SAE)是另外一个有时候可以抽离出数据中一些隐藏分组样试的自动编码的形式。结构和AE是一样的,但隐藏单元的数量大于输入或输出单元的数量。

【12】Markov Chain (MC) 马尔科夫链

 【12】Markov Chain (MC) 马尔科夫链

马尔可夫链(Markov Chain, MC)是一个比较老的图表概念了,它的每一个端点都存在一种可能性。过去,我们用它来搭建像“在单词hello之后有0.0053%的概率会出现dear,有0.03551%的概率出现you”这样的文本结构。

这些马尔科夫链并不是典型的神经网络,它可以被用作基于概率的分类(像贝叶斯过滤),用于聚类(对某些类别而言),也被用作有限状态机。

【13】Hopfield Network (HN) 霍普菲尔网络

【13】HN霍普菲尔网络 

霍普菲尔网络(HN)对一套有限的样本进行训练,所以它们用相同的样本对已知样本作出反应。

在训练前,每一个样本都作为输入样本,在训练之中作为隐藏样本,使用过之后被用作输出样本。

在HN试着重构受训样本的时候,他们可以用于给输入值降噪和修复输入。如果给出一半图片或数列用来学习,它们可以反馈全部样本。

【14】Boltzmann Machine (BM) 波尔滋曼机

【14】 BM 波尔滋曼机 

波尔滋曼机(BM)和HN非常相像,有些单元被标记为输入同时也是隐藏单元。在隐藏单元更新其状态时,输入单元就变成了输出单元。(在训练时,BM和HN一个一个的更新单元,而非并行)。

这是第一个成功保留模拟退火方法的网络拓扑。

多层叠的波尔滋曼机可以用于所谓的深度信念网络,深度信念网络可以用作特征检测和抽取。

【15】Restricted BM (RBM) 限制型波尔滋曼机

【15】 RBM 限制型波尔滋曼机 

在结构上,限制型波尔滋曼机(RBM)和BM很相似,但由于受限RBM被允许像FF一样用反向传播来训练(唯一的不同的是在反向传播经过数据之前RBM会经过一次输入层)。

【16】Deep Belief Network (DBN) 深度信念网络

【16】DBN 深度信念网络 

像之前提到的那样,深度信念网络(DBN)实际上是许多波尔滋曼机(被VAE包围)。他们能被连在一起(在一个神经网络训练另一个的时候),并且可以用已经学习过的样式来生成数据。

【17】Deep Convolutional Network (DCN) 深度卷积网络

【17】 DCN 深度卷积网络

当今,深度卷积网络(DCN)是人工神经网络之星。它具有卷积单元(或者池化层)和内核,每一种都用以不同目的。

卷积核事实上用来处理输入的数据,池化层是用来简化它们(大多数情况是用非线性方程,比如max),来减少不必要的特征。

他们通常被用来做图像识别,它们在图片的一小部分上运行(大约20x20像素)。输入窗口一个像素一个像素的沿着图像滑动。然后数据流向卷积层,卷积层形成一个漏斗(压缩被识别的特征)。从图像识别来讲,第一层识别梯度,第二层识别线,第三层识别形状,以此类推,直到特定的物体那一级。DFF通常被接在卷积层的末端方便未来的数据处理。

【18】Deconvolutional Network (DN) 去卷积网络

 【18】 DN 去卷积网络

去卷积网络(DN)是将DCN颠倒过来。DN能在获取猫的图片之后生成像(狗:0,蜥蜴:0,马:0,猫:1)一样的向量。DNC能在得到这个向量之后,能画出一只猫。

【19】Deep Convolutional Inverse Graphics Network (DCIGN) 深度卷积反转图像网络

【19】 DCIGN 深度卷积反转图像网络

深度卷积反转图像网络(DCIGN),长得像DCN和DN粘在一起,但也不完全是这样。

事实上,它是一个自动编码器,DCN和DN并不是作为两个分开的网络,而是承载网路输入和输出的间隔区。大多数这种神经网络可以被用作图像处理,并且可以处理他们以前没有被训练过的图像。由于其抽象化的水平很高,这些网络可以用于将某个事物从一张图片中移除,重画,或者像大名鼎鼎的CycleGAN一样将一匹马换成一个斑马。

【20】Generative Adversarial Network (GAN) 生成对抗网络

 【20】 GAN 生成对抗网络

生成对抗网络(GAN)代表了有生成器和分辨器组成的双网络大家族。它们一直在相互伤害——生成器试着生成一些数据,而分辨器接收样本数据后试着分辨出哪些是样本,哪些是生成的。只要你能够保持两种神经网络训练之间的平衡,在不断的进化中,这种神经网络可以生成实际图像。

【21】Liquid State Machine (LSM) 液体状态机

 【21】 LSM 液体状态机

液体状态机(LSM)是一种稀疏的,激活函数被阈值代替了的(并不是全部相连的)神经网络。只有达到阈值的时候,单元格从连续的样本和释放出来的输出中积累价值信息,并再次将内部的副本设为零。

这种想法来自于人脑,这些神经网络被广泛的应用于计算机视觉,语音识别系统,但目前还没有重大突破。

【22】Extreme  Learning Machine (ELM) 极端学习机

【22】ELM 极端学习机 

极端学习机(ELM)是通过产生稀疏的随机连接的隐藏层来减少FF网络背后的复杂性。它们需要用到更少计算机的能量,实际的效率很大程度上取决于任务和数据。

【23】Echo State Network (ESN) 回声状态网络

【23】 ESN 回声状态网络

回声状态网络(ESN)是重复网络的细分种类。数据会经过输入端,如果被监测到进行了多次迭代(请允许重复网路的特征乱入一下),只有在隐藏层之间的权重会在此之后更新。

据我所知,除了多个理论基准之外,我不知道这种类型的有什么实际应用。。。。。。。

【24】Deep Resial Network (DRN) 深度残差网络

​【24】 DRN 深度残差网络 

深度残差网络(DRN)是有些输入值的部分会传递到下一层。这一特点可以让它可以做到很深的层级(达到300层),但事实上它们是一种没有明确延时的RNN。

【25】Kohonen Network (KN) Kohonen神经网络

​ 【25】 Kohonen神经网络

Kohonen神经网络(KN)引入了“单元格距离”的特征。大多数情况下用于分类,这种网络试着调整它们的单元格使其对某种特定的输入作出最可能的反应。当一些单元格更新了, 离他们最近的单元格也会更新。

像SVM一样,这些网络总被认为不是“真正”的神经网络。

【26】Support Vector Machine (SVM)

​【26】 SVM 支持向量机 

支持向量机(SVM)用于二元分类工作,无论这个网络处理多少维度或输入,结果都会是“是”或“否”。

SVM不是所有情况下都被叫做神经网络。

【27】Neural Turing Machine (NTM) 神经图灵机

​【27】NTM 神经图灵机 

神经网络像是黑箱——我们可以训练它们,得到结果,增强它们,但实际的决定路径大多数我们都是不可见的。

神经图灵机(NTM)就是在尝试解决这个问题——它是一个提取出记忆单元之后的FF。一些作者也说它是一个抽象版的LSTM。

记忆是被内容编址的,这个网络可以基于现状读取记忆,编写记忆,也代表了图灵完备神经网络。

B. 直观理解LSTM(长短时记忆网络)

长短时神经网络是一种特殊的递归神经网络,所谓递归神经网络就是网络能够解决时间序列问题的预测。所谓递归神经网络就是网络中具有循环结构。递归神经网路从某种程度来说和传统的神经网络并非完全不同。可以将递归神经网络想象成有多层相同网络结构的神经网络,每一层将信息传递给下一层(以下借鉴一些十分易懂的图片):

上述是为了便于理解网络送展示的示意图,实际上网络结构只是上图左边的一小块。

普通的RNN没有办法解决需要长时记忆的功能。比如试图预测“I grew up in France… I speak fluent French.”中最后一个词。最近信息显示下一个词可能是一门语言的名字,但是如果我们想要缩小选择范围,我们需要包含“法国”的那段上下文,从前面的信息推断后面的单词。相关信息与预测位置的间隔很大是完全有可能的。然而RNNs并没有办法解决这种问题。

LSTM作为效果比较好的递归神经网络,拥有者对长时时间序列问题很好的解决能力。

LSTM也有这样的链式结构,但其重复模块内部的机构不同。具体如下:

之下说明一下内部四个网络的具体意义。
主要分为: 单元状态 + 门限。
单元状态:让信息以不变的方式向下流动,相当于一个传送带,但传送带上的东西会随着他通过每一个重复模块基于当时的输入有所增减。

门限:有能力向单元状态增加或者剔除信息的管理机构,相当于传送带上放东西或者拿走东西的那个人。在LSTM中由sigmoid函数和乘法加法来控制这个过程。

上图通过当前时间的输入和前一个时间的输出来通过sigmoid函数来使得单元状态乘以这个sigmoid函数的输出。若sigmoid函数输出0则该部分信息需要被遗忘,反之该部分信息继续在单元状态中继续传下去。

该门限功能是更新旧的单元状态。之前的遗忘门限层决定了遗忘或者添加哪些信息,由该门限层来执行实现。

最后,我们需要决定需要输出什么。这个输出将会建立在单元状态的基础上,但是个过滤版本。首先,我们运行一个sigmoid层来决定单元状态中哪些部分需要输出。然后我们将单元状态输入到tanh函数(将值转换成-1到1之间)中,然后乘以输出的sigmoid门限值,所以我们只输出了我们想要输出的那部分。

上面提到的是非常常规的LSTM网络,LSTM有许多不同的变种,下面来介绍几种。

就是使用耦合遗忘和输入门限。我们不单独决定遗忘哪些、添加哪些新信息,而是一起做出决定。在输入的时候才进行遗忘。在遗忘某些旧信息时才将新值添加到状态中。

它将遗忘和输入门限结合输入到单个“更新门限”中。同样还将单元状态和隐藏状态合并,并做出一些其他变化。所得模型比标准LSTM模型要简单,这种做法越来越流行。

C. 长时记忆的基本原理是什么

人的记忆有长时记忆,短时记忆力和瞬时记忆,这里主要讲的是大脑的长时记忆。下面就和我一起来看看吧!长时记忆的基本原理 长时记忆是指学习的材料,经过复习或精细复述之后,在头脑中长久保持的记忆。 长时记忆是一个真正的信息库,记忆容量似乎没有限度,它可以储存一个人关于世界的一切知识,为他的所有活动提供必要的知识基础。人们从来不觉得过去记得太多,现在一点也记不进去。显然,它有巨大的容量。 长时记忆将现在的信息保持下来供将来使用,或将过去储存的信息提取出来用于现在。它把人的活动的过去、现在和未来联系起来。它的信息主要来自对短时记忆的内容的复述,也有一些是在感知中印象深刻的内容一次性印入的,特别是那些激动人心引起强烈情绪体验的内容,可直接进入长时记忆系统被储存起来。 长时记忆中的信息保持时间在1分钟以上,甚至数年乃至终生,是一种长久性的存储。 专家指出,识记是长时记忆时的信息的主要方式。常言说,欲忆必先记,只有对外界信息的感知或反复感知、思考、体验和操作,进行充分的和有一定深度的心理加工,才能在头脑中长时间地保持下来。依据主体有无明确的识记意图和目的,是否付出意志的努力,识记分为无意识记和有意识记。 无意识记又称不随意识记,是指主体事先没有识记的意图和目的,无须付出特别的努力,更不需采用任何识记策略和手段,信息完全是自然而然地被纳入长时记忆库中的。 无意识记与人的职业、兴趣、动机和需要有密切的关系。凡是对人有重大意义的、使人感兴趣的、能激发人的情感的事件,常常无意中被记住。 在日常生活中,人们通过无意识记潜移默化地接受了许多知识,积累起许多经验。但无意识记带有很大的偶然性和选择性,所识记的内容带有随机性。因此,单凭无意识记,无法使人获得系统的科学知识。由于无意识记可以减轻人的脑力劳动,又可记住许多有用的东西,因此,是值得大力研究和开发的识记。 有意识记也叫随意识记,是指有预定识记目的,运用一定策略和方法,经过特殊的努力而进行的识记。有意识记的目的明确,任务具体,方法灵活,并伴随积极的思维活动和意志努力,因此,它是一种主动而又自觉进行的识记活动。人们掌握系统的科学知识和技能,主要靠有意识记,在学习、工作中,有意识记占据主导地位。 记忆的效果取决于主客观两种因素 识记是获得知识、积累经验的必由之路,要提高记忆效率,首先要有良好的识记。只要讲究方法,尊重识记的规律,是可以达到事半功倍的效果的,识记的效果取决于主客观因素。 就主体而言,首先是否有明确的识记目的和任务,是否有强烈的学习愿望和纯正的动机,是影响识记效果的决定性因素。其次,识记中对材料理解得越透,记忆的效果越好。因此,加强对识记材料理解是使材料长久保持的关键。要做到这一点,首先对本来有意义联系的材料,尽量用已有的知识经验去理解,采用意义识记。其次是赋予无意义联系的材料以人为的意义,即把无意义联系材料意义化,进行主观组织、再编码,这样会有助于储存和保持。 根据所要识记的材料本身有无意义,或学习者是否了解其意义,识记可分为机械识记和意义识记。 机械识记是指对没有意义的材料或对事物还没有理解的情况下,仅仅依据事物的外部联系,采用机械重复的方式进行的识记。例如,记人名、地名、电话号码、商品型号、历史年代等等。材料本身没有什么内在联系,只能按外在的时空顺序努力强记。有些材料本身也有一定意义,但限于学习者的知识经验水平还难于理解其意义,在这种情况下,也只得采用机械识记。 机械识记的优点是保证识记材料的准确性,缺点是花费的时间多,消耗的能量大。由于对材料很少进行智力加工,因此,总的效果不如意义识记。尽管如此,这种识记仍是不可缺少的。因为在现实生活中,总有一些缺乏意义的材料需要我们记住它。 意义识记是指在对识记对象理解的基础上,依据事物的内在联系,并运用已有的知识经验对识记材料进行智力加工所进行的识记。意义识记的先决条件是理解,理解是通过思维进行的。比如,了解一个词的含义,明确一个科学概念,弄懂公式的由来和推导,把握课文的中心思想等,都属于理解。只有领会材料本身的意义,并把它用已有的知识经验联系起来,纳入已有的知识系统,才能把它保留在记忆中。这种识记的优点是容易记住,保持时间长久,易于提取。缺点是记得不一定十分精确,然而,在识记的全面性、速度和牢固性等方面,意义识记均优于机械识记。 意义识记与机械识记的性质有所不同,但二者不是对立和排斥的,而是相互依存、相互补充的。意义识记要靠机械识记的补充,以达到对材料识记的精确和熟记的程度;机械识记也需要意义识记的帮助和指导。为了更有效地识记那些缺乏内在联系的材料,可以人为地赋予这类材料一定的联系,使之意义化,以便增强识记效果。 例如,记某座山的高度12365英尺,可记成一年的月份和天数。爱因斯坦记他的女友的电话“24361”时,就用“两打加19的平方”的意义化方式识记的。 可见,无论识记什么样的材料都需要进行编码和智力加工,这样才有益于长时间储存。 对识记材料常见的组织加工方式 所谓组织加工,就是将材料加以整合,把新材料纳入已有的知识结构之中,或把材料作为合并单元,而组合为某个新的知识框架,这种过程称为组织加工。对识记材料可以用多种方式组织加工,下面是有关学者总结的几种常见的加工方式。 表象和语义的双重编码说 1975年,美国心理学家佩沃提出长时记忆中的双重编码说。他认为,识记一件具体事物,可出现表象和语义的双重编码。比如,一块手表,我们既可以用一块有特定形状的手表的心理图像去表征它,又可以用更抽象、更概括的意义来描述它——“手表是一种计时工具”。前者是表象编码,后者是语义编码。 人们记一件具体事物时,除了记起它的视觉图像外,总是从中汲取其意义。这充分证明,双重编码是客观存在的。表象和语义是既相平行又相联系的认知系统,它们可以分别由有关刺激所激活,然而,两类信息又可以互相转换。不过识记那些抽象的概念、思想,就很难用表象编码去表征它,如“公平”、“真理”等,只能用语义编码、理解并分析其意义,领会其实质才便于记忆。 信息由短时记忆转入长时记忆时是如何被加工的,采用什么方式编码,这与材料本身的性质及主体的个性特点有很大关系。 就语言材料而言,更多的是采用语义编码。例如,看一篇文章或听一个报告,最终保留下来的是它的意义,而不是逐字逐句地加以储存。对一些离散的语言材料,人们也是以自然语言作为长时记忆编码的中介,在识记材料之间建立某种意义联系,然后加以记忆。 例如,识记“女孩”、“小鸟”、“森林”、“唱歌”4个词时,可用自然语言把这些离散的词重新加工为:“一个女孩在森林里听小鸟唱歌”。有了意义,就很容易记忆了。它相当于短时记忆中的组块现象,但长时记忆中的这种信息加工叫做“组织”,而不用“组块”表示。 以自然语言对媒介的组织加工 学习外语单词时,根据发音和词义,可先从我们的自然语言中找出与之相似的词作为媒介,进行语义编码,回忆时先提取中介词,然后进行解码,就可把原单词再现出来。 例如,在无意义音节的识记中,把它们与相似的词联系起来,以词义为中介,将便于记忆。现在要求记住:Jontoltatyurhirlokveynic8组无意义音节,如果把它们与接近的词语联系起来,像是,而且可以把它们作为一个句来识记,“约翰告知你的发型看起来很美”。这样,以自然语言为中介对识记材料进行组织加工,有助于长久储存。 按语义归类的组织加工 当识记一系列概念时,人们不是按它呈现的顺序去记忆,而是先进行语义归类,把同一类概念倾向于群集回忆。在自由回忆的实验中,可看出这种加工倾向。 例如,把24对联系紧密的单词(如医生与教师,桌子与椅子,马与羊等)拆开变成48个单词,按随机方式混合向被试者一个个地呈现,允许他们自由回忆。结果发现,被试仍倾向于把语义联系紧密的单词归到一起进行再现。尽管桌子和椅子两个词之间由17个单词隔开,但回忆时仍把它们组织到一起。单词之间语义联系越紧密,正确回忆的百分数越高。说明知识系统性对信息的组织加工起重要作用。 主观组织 对本来没有什么意义联系的材料,人为地加以组织,回忆时,使被加工的材料以群集方式再现,这种加工称为主观组织。 1962年E·图尔文在实验中,向被试呈现了16个无关联的单词,如音乐、兵营、发现、冰山、办公室、山谷、顽皮、女孩、发行量、丛林、谜语、叛徒、咸水湖、格言、润发油、步行者。这16个单词被排列出16个不同顺序,每一顺序向被试呈现一次,每秒呈现一个单词,如此反复多次,让被试按自己喜欢的顺序再现。 结果发现,被试在连续的各次实验中,有以相同的顺序再现单词的倾向,他们把某些词组织在一起的情况越多,说明其主观组织的程度越高。 用对偶联合法以视觉表象为中介的组织加工 对偶联合法是由卡尔金斯于19世纪末提出的。在对偶联合测验中,向被试呈现两个配对的项目,分别称为刺激和反应。对偶联合回忆的程序通常为,先向被试呈现一系列的刺激-反应对,然后单独呈现刺激项目让被试回忆与之相对应的反应项目,以检验其学习和记忆的效果。 1972年,鲍尔进行了对偶联合的学习实验,他要求一组被试看到对偶词时尽量形成视觉表象,而对另一组被试不给这种提示。其结果,第一组的正确回忆量高于第二组的1?5倍。例如,识记“香烟、狗、帽子、自行车、警察、指挥棒”等一串词时,被试加工出这样一幅视觉意象:一个警察把一个戴着帽子、叼着香烟、骑在自行车上的狗用指挥棒拦住。这样,当香烟刺激项一出现,被试就可以从视觉表象的画面上想起其他5个词。可见,以视觉表象为中介的加工组织也是有效记忆的一种编码。 长时记忆的储存及其可能变化 在记忆心理学研究中,有一个重要的词:“保持”。保持指已经识记过的信息在头脑中存储和巩固的过程。保持不仅是记忆的重要标志,而且也是回忆和再认的重要条件。 信息经过编码加工之后,在头脑中储存,这种储存虽然是有秩序、分层次的,但不能理解为像文件存放在保险柜里那样一成不变,保持不是一种消极状态,信息在记忆中的保持是一个潜在的动态过程,随时间的推移以及后来经验的影响,在质和量上均会发生变化。 1932年,英国心理学家巴特莱特做过一个实验。他让被试看一个图,隔半小时后,要他凭回忆画出来;然后,把他所画的给第二个被试看,隔半小时后,要求第二个被试凭记忆把图画出;依次做下去,直到第18个被试。从第一个被试识记的枭鸟,经过18个的记忆改造,最后变成了一只猫的形象,这样大的差距说明,信息在头脑中的储存不是静态,而是会发生变化的。 随着时间的推移,已经识记过的信息在质的方面的变化,显示出以下特点: 一是记忆的内容比原来识记的内容更简略、更概括;一些不太重要的细节趋于消失,而主要内容及显着特征被保持。 二是保持的内容比原识记的内容更详细、更具体、更完整、更合理。 三是使原识记内容中的某些特点更加突出、夸张或歪曲,变得更生动、离奇、更具有特色。 L·卡迈克乐等人做了一个被当作经典性的实验。他们让被试在短时间内观看一系列刺激图形,第一组被试在看图的同时,还听到左边一排命名的名称;第二组听到的是右边一排的名称。图形呈现完毕,让两组被试画出他们所看到的图形。结果,有大约3/4的被试所画的图形更像他们所听的名称图形,这一实验证明了定势对保持的影响。不仅形象记忆内容在保持的过程中有可能被改造甚至歪曲,文字材料的保持也是如此。 巴特莱特在另一个实验中,让许多被试阅读一篇“魔鬼的战争”的故事,过了一段时间,让他们复述。结果发现,经常阅读鬼怪故事的被试在回忆中增添了许多关于鬼的内容和细节,而受到逻辑学训练的被试在回忆中则大量删去鬼的描述,使故事变得更合乎逻辑。 从识记的内容与回忆的内容之间的差异,可以看出,信息在头脑中的保持不是静止的、凝固的,而是一个重建过程。识记内容在保持的过程中受到思维的“剪辑”加工,或者使之更加简略概括,或者更加完整合理,或者被想象所补充而更加详细生动,或者被夸张突出。 随着时间的推移,已经识记过的信息在量的方面的变化,显示出两种倾向:一种倾向是,识记的保持量随时间的推移而日趋减少,有一部分回忆不起来或回忆发生了错误,这种现象就是遗忘;另一种是记忆回涨现象,即记忆的恢复现象。 1913年,巴拉德在一个实验中,以12岁左右的学生作被试,让他们用15分钟识记一首诗,学习后立即测其保持量,并把回忆的平均数定为100%。此后,在第一、二、三、四、五、六天,又进行保持量的测量,发现识记后立即回忆的成绩,不如过两三天后回忆的成绩。这种现象在许多人的研究中均得到证实。儿童较成人普遍,学习较难的材料比学习容易的材料更为显着。 记忆恢复的内容大部分是处于学习材料的中间部分,其原因可能是由于识记复杂材料的过程中产生了抑制的积累作用,影响立即回忆的成绩,经过充分休息后,抑制得到解除,因此,回忆成绩有所回涨。 但也有人认为,记忆恢复现象可在识记后数日出现,抑制积累作用早已解除,不会持续那么长的时间。因此,认为上述解释仍有不完善之处。 再一种解释认为,儿童学习复杂而又有趣的材料时,对这些材料的保持是比较零散的,需要一段巩固和发展的过程,经过一段时间的思考、回味,因而加强了记忆,出现了记忆回涨。 长时记忆的提取及其影响因素 提取属于信息的输出过程。长时记忆信息的提取有两种形式,即再认和回忆。再认是指过去识记过的材料再次出现,有熟悉之感,可以识别和确认。回忆是指过去识记过的材料在头脑中的重新复现。这两种形式对信息的提取都需要一定的线索,还要采取一定的策略,选择一定的中介。 关于如何提取信息,目前有两种看法:一种理论认为,信息的提取是根据信息的意义、系统等来搜寻记忆痕迹,使痕迹活跃起来,可回忆出有关的项目;另一种理论认为,记忆是一种主动的过程,存储起来的是一些元素或成分,回忆则是把过去的认知成分汇集成完整的事物。这两种理论各自适合于不同的编码形式。搜寻理论可能适合于表象储存,重建理论适合于语义储存。 提取的效果一方面依赖于储存;另一方面依赖于线索。倘若储存本身是有组织的、有条理的,是有层次结构的,提取时只要使层次网络中的某些节点激活,使与这些节点有关的信息处于启动状态,回忆就会很容易进行。若储存是杂乱无章的,提取就不会顺利。 线索在提取中起着重要的作用,线索的数量多、质量高,提取就容易。线索的质量是指线索中的信息与记忆痕迹中的信息匹配联系的紧密与否。一般来说,再认比回忆容易提取信息,这是因为再认时有关线索就是再认的感性依托,有较多的线索给以提示,可帮助尽快地确认。 再认的速度和准确性,主要取决于对事物识记的巩固程度和精确程度。熟记了的事物一出现,几乎可以无意识地、自动化地、在极短的时间内作出识别。 在日常生活中,错误地再认时有发生,其原因是多方面的。一种是由于识记的不巩固、不精确,原有的联系消失或受干扰,一旦识记过的事物再度出现,不能激活原有的记忆痕迹,仅有熟悉之感而无法从整体上加以正确的再认。或者对有关信息(模式)的提取发生了错误,导致错认。另一种是由于联系的泛化,导致错误的再认。例如,错把一个陌生人当作一个熟人相认,这是因为他的许多特征与熟人相似,这些特征在头脑中产生了泛化,因此导致了“张冠李戴”。 在学习识别汉字时,常常会出现认错、写错的现象。如像戍、戌、戎,这几个字很相似,稍不细心知觉,又没有精确将它们加以分化,时间久了,头脑中的痕迹不清晰,极容易发生混淆,因此常常认错。此外,病理性障碍也会发生不识物症或不识人症。 回忆分为有意回忆和无意回忆。前者是有预定的回忆意图和目的,在回忆任务的推动下,自觉主动地进行的回忆,后者是没有明确回忆目的和意图,也不需要努力地搜索,完全是自然而然地想起某些旧经验。一件事偶然涌上心头,浮想联翩或触景生情,漫无目的地,不由自主地引起种种回忆。这种回忆的内容往往是不连贯、不系统的。 无论再认还是回忆,若不依赖任何中介和提示线索,直接把有关信息从长时记忆库中抽取出来,对信息的检索几乎是自动化的,甚至没有意识到这一程序,这种提取称为直接搜寻。 例如,当你的一位朋友在电视屏幕上一出现,你能立刻把他再认出来,这是通过直接搜寻达到再认的,这种再认又称为直接再认。若问你今年暑假同谁结伴旅游,你会说出张三、李四等一些人的名字。这种回忆称为直接回忆,而这种提取就是直接搜寻。 有时我们的再认和回忆需要一些提示线索或中介性的联想才能达到再认或回忆。例如,若问2008年的10月31日上午你在干什么?对这个问题很难立刻回忆出来,往往要借助日记、备忘录或其他一些中介物,对问题进行某种预加工,以便确定回忆方向,把回忆的范围逐渐缩小;此外,还要提出一些假设,对假设要逐一验证,排除无效的回忆线索,凭借联想搜寻新的线索,直至完成回忆任务,提取出必要的信息,这种回忆称为间接回忆。 直接回忆与间接回忆不是绝对对立的,在一定条件下可以相互转化。本来可直接回忆的内容,由于荒疏、印象淡漠,再回忆时要凭借联想搜寻,进行追忆。反之,间接回忆的内容由于联系的巩固和熟练,回忆时可不假思索迅速在头脑中重现。联想在回忆中起着重要的作用。 回忆常常以联想搜寻的形式进行。所谓联想,就是由一种事物想到另一事物的心理活动。当具有某种联系的事物反映到人的头脑中,并在大脑皮层建立起暂时神经联系,只要一事物出现,就会引起对另一事物的联想。 从长时记忆中提取出信息会受到许多因素的影响,其中既有积极的因素,也有消极的因素。? 对信息合理组织能改善提取 从容量巨大的长时记忆库中检索提取信息,就像到一个藏书极多的图书馆查找某一本书一样。能否顺利地找到那本书,与对书的归类编目存放有关。同理,人们对信息进行合理的组织,或使它们处于一定的前后关系中,可以增加线索,促进提取。 1969年,包尔等人做了一个实验,要求被试者记4张词表。给一些被试者提供的词表是按照树状层次组织起来的;给另一些被试者所提供的词表上的词是随机排列的。识记后进行回忆的测验。其结果表明,被试者对有层次组织的词,回忆的正确率达65%;而对随机排列的词,回忆只有19%是正确的。这个实验证明了高度组织起来的材料,按层次网络储存的材料有助于提取。 这是由于材料的组织,为提取时的搜寻过程提供了有利的线索。而对随机排列词表的词的搜寻,有如走迷宫,常常在某些词上打圈子,影响顺利地提取。 这说明,合理地组织材料,按组织系统储存,可保证提取活动准确和高效率的进行。 使信息储存处于编码时的前后关系中有助于提取 由于事物总是处在一定的环境情景中的,我们识记时,这种场合因素微妙地伴随着人对事物的识忆。当再认或回忆的场合与识记的场合越相似,就越有利于对信息的提取。也就是说,信息处于编码时的前后(或上下文)关系中,这种场合本身就是最有力的提取线索。特别是在提取复杂材料时,与材料有关的上下文线索,非常有助于材料的迅速恢复。 干扰对提取的影响 生活中常会遇到一个记忆线索与几个有关事物相联系的情况。其中与一个线索联系较牢固的项目,往往会干扰与同一线索联系较弱的项目的提取。例如,一个篮球运动员改踢足球,开始他总不能得心应手。其原因是,打篮球的规则与技巧已经很熟,甚至习惯化了,改踢足球后,原来形成的技能总会干扰对踢足球运动信息的提取,多次出现犯规行为。 与同一线索联系的项目越多,通过该线索提取目标项目就越困难。如果将与同一线索相联系的各个项目进行意义加工和组织,就会减少彼此的干扰。 此外,消极情绪也会妨碍对信息的提取。例如,考试时,一旦遇到一个难题答不出来,便产生紧张和焦虑情绪,引起种种担忧心理,在这种心境状态下反而会更加干扰对回答问题有关的信息,造成回忆的困难。 猜你喜欢: 1. 提高工作记忆到长期记忆的成功率 2. 人的大脑记忆原理 3. 戴维斯记忆术的核心原理和重要操作程序 4. 图像记忆的核心原理 5. 记忆法核心原理和记忆流程介绍
阅读全文

与长短时记忆网络的工作原理是什么相关的资料

热点内容
网络名片怎么设置好听 浏览:837
网络安全与web安全区别 浏览:873
桥接后路由器网络加载慢 浏览:416
网络电视如何开启热点 浏览:56
欧洲成年人网络安全 浏览:999
网络信号源怎么选择 浏览:533
如何防范网络暴力的危害 浏览:836
网络盒子连接wifi网不好 浏览:499
钣金产品网络推广平台有哪些 浏览:767
usb共享网络访问 浏览:88
为什么我家wifi无法连接网络 浏览:983
火腿网络营销 浏览:665
学习网络如何创业 浏览:232
网络上哪里能借到钱 浏览:703
网络安全运维巡检 浏览:103
公共网络系统设置 浏览:552
电脑关掉网络通信 浏览:561
催乳师网络培训哪里不错 浏览:598
网络彩票500公司在哪里 浏览:761
路由器哪个网络都可以用吗 浏览:900

友情链接