‘壹’ 计算机网络
专业核心课程与主要实践环节:计算机应用基础、办公自动化、计算机组装与维护、VB程序设计基础、计算机网络基础、Access数据库、SQLServer数据库、网页制作技术、多媒体技术、Java程序设计、WindowsServer2003安装配置与管理、Linux操作系统、局域网组网技术、网络安全技术等。
就业面向:在企事业、政府、社区以及各类学校,从事网络系统管理,网站设计与维护,网络软、硬件的销售与售后服务等工作。
我也是才毕业的,个人还是比较喜欢网络技术,不过我是学计算机应用的,学东西主要还是要看你喜欢学什么,如果你学网络技术的话,我建议你在学习过程中注重基础知道,要知道,有基础才能更好的提高,坚实的基础是提高的前提,在此我建议在课余时间多看看计算机专业认证方面的东西。
可以尝试考思科的认证。
CCNA 证书介绍:
CCNA 认证 (思科认证网络工程师) 表示具备基本的和初步的网络知识。拥有CCNA认证的人士可以为小型网络(不超过100个节点)安装、配置和操作LAN、WAN和拨号接入服务,其中包括但不仅限于下列协议:IP、IGRP、串行、帧中继、IP RIP、VLAN、RIP、以太网和访问列表
CCNP 证书介绍; CCNP认证表示网络人士具有对从100个节点到超过 500 个节点的融合式局域网和广域网进行安装、配置和排障的能力。获得CCNP认证资格的网络人士拥有丰富的知识和技能,能够管理构成网络核心的路由器和交换机,以及将语音、无线和安全集成到网络之中的边缘应用。
CCSP 证书介绍; CCSP 认证(思科认证资深安全工程师)表示精通或者熟知思科网络的安全知识。获得 CCSP 认证资格的网络人士能够保护和管理网络基础设施,以提高生产率和降低成本。认证内容侧重于安全VPN管理、思科自适应安全设备管理器(ASDM)、PIX防火墙、自适应安全设备(ASA)、入侵防御系统(IPS)、思科安全代理(CSA) 和怎样将这些技术集成到一个统一的集成化网络安全解决方案之中等主题
CCIP (思科认证资深互联网专家) 旨在证明就职于电信运营商机构的网络人士在基础设施IP网络解决方案方面具备的能力。具有CCIP资格的人士非常了解电信运营商领域涉及的网络技术,包括IP路由、IP QoS、BGP和MPLS。
不知道你现在有你自己的想法没有,好好加油,祝你成功!
‘贰’ CS 和EE是什么专业的简称
CS是指computer science计算机科学;EE是指electronic engineering电子工程。
传统的电气工程定义为用于创造产生电气与电子系统的有关学科的总和。此定义本十分宽泛,但随着科学技术的飞速发展,21世纪的电气工程概念已经远远超出上述定义的范畴。斯坦福大学教授指出:当今电气工程涵盖了几乎所有与电子、光子有关的工程行为。
计算机科学与技术是国家一级学科,下设信息安全、软件工程、计算机软件与理论、计算机系统结构、计算机应用技术、计算机技术等专业。
(2)计算机网络csa扩展阅读:
一、CS的发展现状
1、网络工程方向就业前景良好,学生毕业后可以到国内外大型电信服务商、大型通信设备制造企业进行技术开发工作,也可以到其他企事业单位从事网络工程领域的设计、维护、教育培训等工作。
2、软件工程方向 就业前景十分广阔,学生毕业后可以到国内外众多软件企业、国家机关以及各个大、中型企、事业单位的信息技术部门、教育部门等单位从事软件工程领域的技术开发、教学、科研及管理等工作。也可以继续攻读计算机科学与技术类专业研究生和软件工程硕士。
3、通信方向学生毕业后可到信息产业、财政、金融、邮电、交通、国防、大专院校和科研机构从事通信技术和电子技术的科研、教学和工程技术工作。
4、网络与信息安全方向宽口径专业,主干学科为信息安全和网络工程。学生毕业后可为政府、国防、军队、电信、电力、金融、铁路等部门的计算机网络系统和信息安全领域进行管理和服务的高级专业工程技术人才。并可继续攻读信息安全、通信、信息处理、计算机软件和其他相关学科的硕士学位。
二、CS的安全性
由于C/S结构软件的数据分布特性,客户端所发生的火灾、盗抢、地震、病毒、黑客等都成了可怕的数据杀手。另外,对于集团级的异地软件应用,C/S结构的软件必须在各地安装多个服务器,并在多个服务器之间进行数据同步。
如此一来,每个数据点上的数据安全都影响了整个应用的数据安全。所以,对于集团级的大型应用来讲,C/S结构软件的安全性是令人无法接受的。
对于B/S结构的软件来讲,由于其数据集中存放于总部的数据库服务器,客户端不保存任何业务数据和数据库连接信息,也无需进行什么数据同步,所以这些安全问题也就自然不存在了。
‘叁’ 云计算的安全性具体包含哪些内容
云计算安全联盟(CSA)发布的报告总结了云计算安全面临的9种威胁。在这其中,数据泄露、数据丢失和数据劫持三类威胁排名靠前。
安全威胁1:数据泄露
为了表明数据泄露对企业的危害程度,CSA在报告中提到了其在2012年11月发表的一篇研究文章,该文章描述了黑客如何利用边信道(Side-Channel)时间信息,通过侵入一台虚拟机来获取同一服务器上的其他虚拟机所使用的私有密钥。不过,其实不怀好意的黑客未必需要如此煞费苦心,就能确保这种攻击得逞。要是多租户云服务数据库设计不当,哪怕某一个用户的应用程序只存在一个漏洞,都可以让攻击者获取这个用户的数据,而且还能获取其他用户的数据。
安全威胁2:数据丢失
CSA认为,云计算环境的第二大威胁是数据丢失。用户有可能会眼睁睁地看着那些宝贵数据消失得无影无踪,但是却对此毫无办法。不怀好意的黑客会删除攻击对象的数据。粗心大意的服务提供商或者灾难(如大火、洪水或地震)也可能导致用户的数据丢失。让情况更为严峻的是,要是用户丢失了加密密钥,那么对数据进行加密的行为反而会给用户带来麻烦。
安全威胁3: 数据劫持
第三大云计算安全风险是账户或服务流量被劫持。CSA认为,云计算在这方面增添了一个新的威胁。如果黑客获取了企业的登录资料,其就有可能窃听相关活动和交易,并操纵数据、返回虚假信息,将企业客户引到非法网站。报告表示:“你的账户或服务实例可能成为攻击者新的大本营。他们进而会利用你的良好信誉,对外发动攻击。”CSA在报告中提到了2010年亚马逊曾遭遇到的跨站脚本(XSS)攻击。
安全威胁4:不安全的接口
第四大安全威胁是不安全的接口(API)。IT管理员们会利用API对云服务进行配置、管理、协调和监控。API对一般云服务的安全性和可用性来说极为重要。企业和第三方因而经常在这些接口的基础上进行开发,并提供附加服务。CSA在报告中表示:“这为接口管理增加了复杂度。由于这种做法会要求企业将登录资料交给第三方,以便相互联系,因此其也加大了风险。”
安全威胁5: 拒绝服务攻击
分布式拒绝服务(DDoS)被列为云计算面临的第五大安全威胁。多年来,DDoS一直都是互联网的一大威胁。而在云计算时代,许多企业会需要一项或多项服务保持7×24小时的可用性,在这种情况下这个威胁显得尤为严重。DDoS引起的服务停用会让服务提供商失去客户,还会给按照使用时间和磁盘空间为云服务付费的用户造成惨重损失。
安全威胁6: 不怀好意的“临时工”
第六大威胁是不怀好意的内部人员,这些人可能是在职或离任的员工、合同工或者业务合作伙伴。他们会不怀好意地访问网络、系统或数据。在云服务设计不当的场景下,不怀好意的内部人员可能会造成较大的破坏。从基础设施即服务(IaaS)、平台即服务(PaaS)到软件即服务(SaaS),不怀好意的内部人员拥有比外部人员更高的访问级别,因而得以接触到重要的系统,最终访问数据。
安全威胁7:滥用云服务
第七大安全威胁是云服务滥用,比如坏人利用云服务破解普通计算机很难破解的加密密钥。另一个例子是,恶意黑客利用云服务器发动分布式拒绝服务攻击、传播恶意软件或共享盗版软件。
安全威胁8:贸然行事
第八大云计算安全威胁是调查不够充分,也就是说,企业还没有充分了解云计算服务商的系统环境及相关风险,就贸然采用云服务。因此,企业进入到云端需要与服务提供商签订合同,明确责任和透明度方面的问题。此外,如果公司的开发团队对云技术不够熟悉,就把应用程序贸然放到云端,可能会由此出现运营和架构方面的问题。
安全威胁9:共享隔离问题
最后,CSA将共享技术的安全漏洞列为云计算所面临的第九大安全威胁。云服务提供商经常共享基础设施、平台和应用程序,并以一种灵活扩展的方式来交付服务。
‘肆’ 我想从事计算机网络的有关工作,请问需要考取相关的证书有哪些
就学多dos啊
先学个二级C语言
然后三级 三级网络技术 到 四级网络工程师
女的学计算机的好少哦 我们系几个女的都转到会计去了
‘伍’ “cs”是什么专业的简称
"cs"是Computer Science的简称。
‘陆’ 比较着名的电脑杂志都有哪些
《微型计算机》
《微型计算机》是一本介绍硬件为主的杂志(偶尔也会有相关的软件介绍,比如:硬件测试软件、驱动程序)以“我们只谈硬件”为办刊理念,是一本专为电脑发烧友介绍电脑硬件产与技术的半月刊杂志。
《计算机应用文摘》
《计算机应用文摘》1985年创刊,1998年下半年改版试刊二期,1999年1月正式改版为月刊,应广大读者的强烈要求,2003年1月再次改版为半月刊。《计算机应用文摘》遵循“电脑──以用为本”的办刊理念,为各类用户提供电脑应用相关软硬件的使用技巧、网络应用方案、数字生活方式、故障完全解决方案等,帮助读者迅速提升使用电脑的水平,使读者能将电脑应用技巧更快地融入工作、学习、生活和娱乐中。期发行量18万册,月发行量36万册,发行量在国内计算机普及性刊物中名列前茅。
《中国计算机用户》
《中国计算机用户》由信息产业部主管,信息产业部中国电子信息产业发展研究院主办,是业内最知名的IT专业杂志。是中国最有影响力的计算机专业报刊之一。
《计算机学报》
《计算机学报》是中国计算机领域权威性学术刊物。其宗旨是报道中国计算机科学技术领域最高水平的科研成果。它由中国计算机学会与中国科学院计算技术研究所主办、科学出版社出版,以中文编辑形式与读者见面,同时以英文摘要形式向国际各大检索系统提供基本内容介绍。
《计算机科学与探索》
《计算机科学与探索》是由中国电子科技集团公司主管、华北计算技术研究所主办的国内外公开发行的计算机学报级高级学术期刊,中国计算机学会会刊,中国百强科技期刊,工业和信息化部优秀科技期刊,北大中文核心期刊,中国科学引文数据库(CSCD)核心期刊,中国科技论文统计源期刊(中国科技核心期刊),并被“万方数据--数字化期刊群”、“中国学术期刊网络出版总库”、“英国《科学文摘》(SA/INSPEC)”、“美国《剑桥科学文摘》(CSA)”、“波兰《哥白尼索引》(IC)”收录。
《大众软件》
《大众软件》是一本关于计算机软硬件、数码产品和电子游戏的普及杂志,是在中国具有影响力的计算机大众杂志之一。1995年正式发行,创刊号发行10万册,至1998年5月发行量已达30万册,之后最高期发行量达38万册,月最高发行量超过70万册 。1999年改为半月刊,2009年改为旬刊,每月1日、8日和16日面向全国发行。主要栏目有“新品初评”、“数字码头”、“实用软件”、“应用心得”、“网络时代”、“硬件评析”等。此次改版后,上下旬刊延续以往风格,中旬刊则侧重游戏方面的报道。2014年恢复为月刊。
《软件学报》
《软件学报》是一本刊登计算机软件各领域原创性研究成果的期刊,所刊登的论文均经过严格的同行专家评议.《软件学报》主要面向全球华人计算机软件学者,致力于创办与世界计算机科学和软件技术发展同步的以中文为主的"中文国际软件学术期刊",为全球华人同行提供学术交流平台.本刊不接受任何语种翻译稿.
《软件学报》创刊于1990年,由中国科学院软件研究所和中国计算机学会联合主办.CN11-2560/TP, ISSN1000 -9825, CODEN RUXUEW.月刊,每期176面,每月6号出版.
《软件学报》注重刊登反映计算机科学和计算机软件新理论、新方法和新技术以及学科发展趋势的文章,主要涉及理论计算机科学、算法设计与分析、系统软件与软件工程、模式识别与人工智能、数据库技术、计算机网络、信息安全、计算机图形学与计算机辅助设计、多媒体技术及其他相关的内容.
‘柒’ 考研:计算机专业要考哪些课程
免费的计算机考研难点辅导分析下载:http://data.ecity.cn/updata.asp?n=csaitr
Ⅰ考查目标
计算机学科专业基础综合考试涵盖数据机构、计算机组成原理、操作系统和计算机网络等学科专业基
础课程。要求考生比较系统地掌握上述专业基础课程的概念、基本原理和方法,能够运用所学的基本
原理和基本方法分析、判断和解决有关理论问题和实际问题。
Ⅱ 考试形式和试卷结构
一、 试卷满分及考试时间
本试卷满分为150分,考试时间为180分钟
二、 答题方式
答题方式为闭卷、笔试
三、 试卷内容结构
数据结构 45分
计算机组成原理 45分
操作系统 35分
计算机网络 25分
四、 试卷题型结构
单项选择题 80分(40小题,每小题2分)
综合应用题 70分
太长了,我就全写了,你可以查看:http://ky.ecity.cn/kyzn/200808050824261903.htm
看看下面这个 ,是对大纲的分析。如下:
从2009年起,计算机专业考研实行计算机学科专业基础综合课全国统考,考试内容涵盖数据结构、计
算机组成原理、操作系统和计算机网络等学科专业基础课程。要求考生比较系统地掌握上述专业基础
课程的概念、基本原理和方法,能够运用所学的基本原理和基本方法分析、判断和解决有关理论问题
和实际问题。
根据考试大纲的要求:
(1)试卷满分为150分,考试时间为180分钟(3个小时)。答题方式为闭卷、笔试。
(2)试卷内容的结构是:数据结构45分(占30%),计算机组成原理45分(占30%),操作系统35分(占23%)
,计算机网络25分(占17%)。
(3)试卷题型结构:单项选择题 80分(40小题,每小题2分),综合应用题 70分。
根据这个试题结构,数据结构、计算机组成原理、操作系统和计算机网络将各有1~2道综合应用题,
整个考试时间会有些紧。按照正常的时间做答,把单项选择题做完一般需要70~90分钟,也就是说,
考试大纲是把单项选择题和综合应用题的时间进行平均分配的。
还有很多,资料太长,查看:http://ky.ecity.cn/kyzn/200808051007251656.htm
接下来看课程的分析哦,,如下:
计算机考研专业课考试知识点分析:组成原理
1、计算机系统概述
学习计算机组成原理之前,我们先要了解计算机的发展历程,搞清楚计算机的系统层次结构,包括计
算机硬件的基本组成(五大部件的构成)、计算机软件的分类,以及计算机的基本工作过程。
从体系结构上来看,有多种不同类型的计算机,那么这些不同的计算机谁好谁坏?如何评价?所以,还
需要我们了解计算机性能评价指标和相关参数,包括吞吐量、响应时间;CPU时钟周期、主频、CPI、
CPU执行时间;MIPS、MFLOPS等。
具体查看:http://ky.ecity.cn/zcyl/200808061111461694.htm
计算机考研专业课考试知识点分析:数据结构
1.线性表
线性表是一种最简单的数据结构,在线性表方面,主要考查线性表的定义和基本操作、线性表的实现
。在线性表实现方面,要掌握的是线性表的存储结构,包括顺序存储结构和链式存储结构,特别是链
式存储结构,是考查的重点。另外,还要掌握线性表的基本应用。
2.栈、队列和数组
栈和队列是两种特殊的线性表,在这方面,要求我们掌握栈和队列的基本概念,以及他们之间的区别
。对于栈和队列的存储结构(包括顺序存储结构、链式存储结构)要有较深的理解,对于栈和队列的应
用,例如,排队问题、子程序调用问题、表达式问题等,要搞清楚。
一维数组属于线性表范畴,但多维数组不属于线性表。在这方面,主要掌握数组的存储结构,例如按
行优先、按列优先等,某个元素存在的地址是什么。对于特殊矩阵(二维数组)的压缩存储原理也要搞
清楚。
具体查看:http://ky.ecity.cn/sjjg/200808051202101532.htm
计算机考研专业课考试知识点分析:操作系统
1、操作系统概述
在操作系统的基础知识方面,我们要掌握操作系统的概念、特征、功能和提供的服务,操作系统的发
展与分类,以及操作系统的运行环境。
2、进程管理
进程管理是操作系统的核心功能,也是考试的重点,这部分的考试分数将在10分以上。对进程管理知
识点的细化,可以包括4个考点,分别是进程与线程的基本概念、处理机调度、进程同步与互斥、死
锁。
在进程与线程的基本概念方面,我们要掌握进程的概念、进程的状态与转换(三态模型、五态模型)、
进程控制、进程组织、进程通信(共享存储系统、消息传递系统、管道通信),以及线程的概念与多线
程模型。
查看:http://ky.ecity.cn/czxt/200808061607281467.htm
计算机考研专业课知识点分析:计算机网络
1、计算机网络体系结构
网络体系就是为了完成计算机之间的通信合作,把每台计算机相连的功能划分成有明确定义的层次,
并固定了同层次的进程通信的协议及相邻之间的接口及服务。这个知识点要求我们对网络的概念、组
成、分类、发展过程等内容要有所了解,同时还要理解网络分层结构、网络层协议、接口、服务等概
念,掌握ISO/OSI参考模型和TCP/IP模型的区别与联系。这部分知识理论性强,主要以选择题的形式
出现。
2、物理层
物理层作为OSI模型的最底层、也是各层通信的基础,在计算机考研网络模块中,需要重点复习。我
们要掌握的概念有:信道、信号、宽带、码元、波特、速率、信源与信宿、编码与调制、电路交换、
报文交换与分组交换、数据报与虚电路等基本概念。同时,网络技术中有名的两个定理(奈奎斯特定
理与香农定理)及其表达公式,需要考生能够熟练掌握与应用。这部分还涉及到综合布线相关知识,
如:传输介质(双绞线、同轴电缆、光纤与无线传输介质)、物理层设备(中继器、集线器)及物理层接
口的特性。这部分知识理论与实践并重,可能会涉及一道综合应用题。
查看:http://ky.ecity.cn/wl/200808061327351499.htm
因为太长了,我就没有一一都贴出来,给了地址,但愿对你有帮助,祝你考研顺利
‘捌’ 态势感知,懂的人不用解释,现在对于态势感知更多的是信息网络的安全态势感知,
大数据时代,除在信息网络的安全方面外,在无人机、无人驾驶、气象分析、军事、交通轨道等等方面,态势感知的应用研究日益广泛和必要!
一般来说,态势感知在大规模系统环境中,对能够引起系统状态发生变化的安全要素进行获取、理解、显示以及预测未来的发展趋势。联合作战、网络中心战的提出,推动了态势感知的产生和不断发展,作为实现态势感知的重要平台和物质基础,态势图对数据和信息复杂的需求和特性构成了突出的大数据问题.从大数据的高度思考,解决态势感知面临的信息处理难题,是研究联合作战态势感知的重要方法.通过分析联合作战态势感知的数据类型、结构和特点,得出态势感知面临着大数据挑战的结论.初步探讨了可能需要解决的问题和前沿信息技术的应用需求,最后对关键数据和信息处理技术进行了研究.该研究对于“大数据”在军事信息处理和数据化决策等领域的研究具有重要探索价值。
相关参考(摘录网上):
1 引言
随着计算机和通信技术的迅速发展, 计算机网络的应用越来越广泛, 其规模越来越庞大, 多层面的网络安全威胁和安全风险也在不断增加, 网络病毒、 Dos/DDos攻击等构成的威胁和损失越来越大, 网络攻击行为向着分布化、 规模化、 复杂化等趋势发展, 仅仅依靠防火墙、 入侵检测、 防病毒、 访问控制等单一的网络安全防护技术, 已不能满足网络安全的需求, 迫切需要新的技术, 及时发现网络中的异常事件, 实时掌握网络安全状况, 将之前很多时候亡羊补牢的事中、 事后处理,转向事前自动评估预测, 降低网络安全风险, 提高网络安全防护能力。
网络安全态势感知技术能够综合各方面的安全因素, 从整体上动态反映网络安全状况, 并对网络安全的发展趋势进行预测和预警。 大数据技术特有的海量存储、 并行计算、 高效查询等特点, 为大规模网络安全态势感知技术的突破创造了机遇, 借助大数据分析, 对成千上万的网络日志等信息进行自动分析处理与深度挖掘, 对网络的安全状态进行分析评价, 感知网络中的异常事件与整体安全态势。
2 网络安全态势相关概念
2.1 网络态势感知
态势感知(Situation Awareness, SA) 的概念是1988年Endsley提出的, 态势感知是在一定时间和空间内对环境因素的获取, 理解和对未来短期的预测。 整个态势感知过程可由图1所示的三级模型直观地表示出来。
所谓网络态势是指由各种网络设备运行状况、 网络行为以及用户行为等因素所构成的整个网络当前状态和变化趋势。
网络态势感知(Cyberspace Situation Awareness,CSA) 是1999年Tim Bass首次提出的, 网络态势感知是在大规模网络环境中, 对能够引起网络态势发生变化的安全要素进行获取、 理解、 显示以及预测最近的发展趋势。
态势是一种状态、 一种趋势, 是整体和全局的概念, 任何单一的情况或状态都不能称之为态势。 因此对态势的理解特别强调环境性、 动态性和整体性, 环境性是指态势感知的应用环境是在一个较大的范围内具有一定规模的网络; 动态性是态势随时间不断变化, 态势信息不仅包括过去和当前的状态, 还要对未来的趋势做出预测; 整体性是态势各实体间相互关系的体现,某些网络实体状态发生变化, 会影响到其他网络实体的状态, 进而影响整个网络的态势。
2.2 网络安全态势感知
网络安全态势感知就是利用数据融合、 数据挖掘、智能分析和可视化等技术, 直观显示网络环境的实时安全状况, 为网络安全提供保障。 借助网络安全态势感知, 网络监管人员可以及时了解网络的状态、 受攻击情况、 攻击来源以及哪些服务易受到攻击等情况, 对发起攻击的网络采取措施; 网络用户可以清楚地掌握所在网络的安全状态和趋势, 做好相应的防范准备, 避免和减少网络中病毒和恶意攻击带来的损失; 应急响应组织也可以从网 络安全态势中了解所服务网 络的安全状况和发展趋势, 为 制定有预见性的应急预案提供基础。
3 网络安全态势感知相关技术
对于大规模网络而言, 一方面网络节点众多、 分支复杂、 数据流量大, 存在多种异构网络环境和应用平台; 另一方面网络攻击技术和手段呈平台化、 集成化和自 动化的发展趋势, 网络攻击具有更强的隐蔽性和更长的潜伏时间, 网络威胁不断增多且造成的损失不断增大。 为了实时、 准确地显示整个网络安全态势状况, 检测出潜在、 恶意的攻击行为, 网络安全态势感知要在对网络资源进行要素采集的基础上, 通过数据预处理、 网络安全态势特征提取、 态势评估、 态势预测和态势展示等过程来完成, 这其中涉及许多相关的技术问题, 主要包括数据融合技术、 数据挖掘技术、 特征提取技术、 态势预测技术和可视化技术等。
3.1 数据融合技术
由于网络空间态势感知的数据来自众多的网络设备, 其数据格式、 数据内容、 数据质量千差万别, 存储形式各异, 表达的语义也不尽相同。 如果能够将这些使用不同途径、 来源于不同网络位置、 具有不同格式的数据进行预处理, 并在此基础上进行归一化融合操作,就可以为网络安全态势感知提供更为全面、 精准的数据源, 从而得到更为准确的网络态势。 数据融合技术是一个多级、 多层面的数据处理过程, 主要完成对来自网络中具有相似或不同特征模式的多源信息进行互补集成, 完成对数据的自动监测、 关联、 相关、 估计及组合等处理, 从而得到更为准确、 可靠的结论。 数据融合按信息抽象程度可分为从低到高的三个层次: 数据级融合、 特征级融合和决策级融合, 其中特征级融合和决策级融合在态势感知中具有较为广泛的应用。
3.2 数据挖掘技术
网络安全态势感知将采集的大量网络设备的数据经过数据融合处理后, 转化为格式统一的数据单元。这些数据单元数量庞大, 携带的信息众多, 有用信息与无用信息鱼龙混杂, 难以辨识。 要掌握相对准确、 实时的网络安全态势, 必须剔除干扰信息。 数据挖掘就是指从大量的数据中挖掘出有用的信息, 即从大量的、 不完全的、 有噪声的、 模糊的、 随机的实际应用数据中发现隐含的、 规律的、 事先未知的, 但又有潜在用处的并且最终可理解的信息和知识的非平凡过程( NontrivialProcess) [1 ]。 数据挖掘可分为描述性挖掘和预测性挖掘, 描述性挖掘用于刻画数据库中数据的一般特性; 预测性挖掘在当前数据上进行推断, 并加以预测。 数据挖掘方法主要有: 关联分析法、 序列模式分析法、 分类分析法和聚类分析法。 关联分析法用于挖掘数据之间的联系; 序列模式分析法侧重于分析数据间的因果关系;分类分析法通过对预先定义好的类建立分析模型, 对数据进行分类, 常用的模型有决策树模型、 贝叶斯分类模型、 神经网络模型等; 聚类分析不依赖预先定义好的类, 它的划分是未知的, 常用的方法有模糊聚类法、 动态聚类法、 基于密度的方法等。
3.3 特征提取技术
网络安全态势特征提取技术是通过一系列数学方法处理, 将大规模网络安全信息归并融合成一组或者几组在一定值域范围内的数值, 这些数值具有表现网络实时运行状况的一系列特征, 用以反映网络安全状况和受威胁程度等情况。 网络安全态势特征提取是网络安全态势评估和预测的基础, 对整个态势评估和预测有着重要的影响, 网络安全态势特征提取方法主要有层次分析法、 模糊层次分析法、 德尔菲法和综合分析法。
3.4 态势预测技术
网络安全态势预测就是根据网络运行状况发展变化的实际数据和历史资料, 运用科学的理论、 方法和各种经验、 判断、 知识去推测、 估计、 分析其在未来一定时期内可能的变化情况, 是网络安全态势感知的一个重要组成部分。 网络在不同时刻的安全态势彼此相关, 安全态势的变化有一定的内部规律, 这种规律可以预测网络在将来时刻的安全态势, 从而可以有预见性地进行安全策略的配置, 实现动态的网络安全管理, 预防大规模网络安全事件的发生。 网络安全态势预测方法主要有神经网络预测法、 时间序列预测法、 基于灰色理论预测法。
3.5 可视化技术
网络安全态势生成是依据大量数据的分析结果来显示当前状态和未来趋势, 而通过传统的文本或简单图形表示, 使得寻找有用、 关键的信息非常困难。 可视化技术是利用计算机图形学和图像处理技术, 将数据转换成图形或图像在屏幕上显示出来, 并进行交互处理的理论、 方法和技术。 它涉及计算机图形学、 图像处理、 计算机视觉、 计算机辅助设计等多个领域。 目前已有很多研究将可视化技术和可视化工具应用于态势感知领域, 在网络安全态势感知的每一个阶段都充分利用可视化方法, 将网络安全态势合并为连贯的网络安全态势图, 快速发现网络安全威胁, 直观把握网络安全状况。
4 基于多源日志的网络安全态势感知
随着网 络规模的 扩大以及网 络攻击复杂度的增加, 入侵检测、 防火墙、 防病毒、 安全审计等众多的安全设备在网络中得到广泛的应用, 虽然这些安全设备对网络安全发挥了一定的作用, 但存在着很大的局限,主要表现在: 一是各安全设备的海量报警和日志, 语义级别低, 冗余度高, 占用存储空间大, 且存在大量的误报, 导致真实报警信息被淹没。 二是各安全设备大多功能单一, 产生的报警信息格式各不相同, 难以进行综合分析整理, 无法实现信息共享和数据交互, 致使各安全设备的总体防护效能无法得以充分的发挥。 三是各安全设备的处理结果仅能单一体现网络某方面的运行状况, 难以提供全面直观的网络整体安全状况和趋势信息。 为了有效克服这些网络安全管理的局限, 我们提出了基于多源日志的网络安全态势感知。
4.1 基于多源日志的网络安全态势感知要素获取
基于多源日志的网络安全态势感知是对部署在网络中的多种安全设备提供的日志信息进行提取、 分析和处理, 实现对网络态势状况进行实时监控, 对潜在的、恶意的网络攻击行为进行识别和预警, 充分发挥各安全设备的整体效能, 提高网络安全管理能力。
基于多源日志的网络安全态势感知主要采集网络入口处防火墙日志、 入侵检测日志, 网络中关键主机日志以及主机漏洞信息, 通过融合分析这些来自不同设备的日志信息, 全面深刻地挖掘出真实有效的网络安全态势相关信息, 与仅基于单一日志源分析网络的安全态
势相比, 可以提高网络安全态势的全面性和准确性。
4.2 利用大数据进行多源日志分析处理
基于多源日志的网络安全态势感知采集了多种安全设备上以多样的检测方式和事件报告机制生成的海量数据, 而这些原始的日 志信息存在海量、 冗余和错误等缺陷, 不能作为态势感知的直接信息来源, 必须进行关联分析和数据融合等处理。 采用什么样的技术才能快速分析处理这些海量且格式多样的数据?
大数据的出现, 扩展了计算和存储资源, 大数据自身拥有的Variety支持多类型数据格式、 Volume大数据量存储、Velocity快速处理三大特征, 恰巧是基于多源日志的网络安全态势感知分析处理所需要的。 大数据的多类型数据格式, 可以使网络安全态势感知获取更多类型的日志数据, 包括网络与安全设备的日志、 网络运行情况信息、 业务与应用的日志记录等; 大数据的大数据量存储正是海量日志存储与处理所需要的; 大数据的快速处理为高速网络流量的深度安全分析提供了技术支持, 为高智能模型算法提供计算资源。 因此, 我们利用大数据所提供的基础平台和大数据量处理的技术支撑, 进行网络安全态势的分析处理。
关联分析。 网络中的防火墙日志和入侵检测日志都是对进入网络的安全事件的流量的刻画, 针对某一个可能的攻击事件, 会产生大量的日志和相关报警记录,这些记录存在着很多的冗余和关联, 因此首先要对得到的原始日志进行单源上的关联分析, 把海量的原始日志转换为直观的、 能够为人所理解的、 可能对网络造成危害的安全事件。 基于多源日志的网络安全态势感知采用基于相似度的报警关联, 可以较好地控制关联后的报警数量, 有利于减少复杂度。 其处理过程是: 首先提取报警日志中的主要属性, 形成原始报警; 再通过重复报警聚合, 生成聚合报警; 对聚合报警的各个属性定义相似度的计算方法, 并分配权重; 计算两个聚合报警的相似度, 通过与相似度阀值的比较, 来决定是否对聚合报警进行超报警; 最终输出属于同一类报警的地址范围和报警信息, 生成安全事件。
融合分析。 多源日志存在冗余性、 互补性等特点,态势感知借助数据融合技术, 能够使得多个数据源之间取长补短, 从而为感知过程提供保障, 以便更准确地生成安全态势。 经过单源日志报警关联过程, 分别得到各自的安全事件。 而对于来自防火墙和入侵检测日志的的多源安全事件, 采用D-S证据理论(由Dempster于1967年提出, 后由Shafer于1976年加以推广和发展而得名) 方法进行融合判别, 对安全事件的可信度进行评估, 进一步提高准确率, 减少误报。 D-S证据理论应用到安全事件融合的基本思路: 首先研究一种切实可行的初始信任分配方法, 对防火墙和入侵检测分配信息度函数; 然后通过D-S的合成规则, 得到融合之后的安全事件的可信度。
态势要素分析。 通过对网络入口处安全设备日 志的安全分析, 得到的只是进入目 标网络的可能的攻击信息, 而真正对网络安全状况产生决定性影响的安全事件, 则需要通过综合分析攻击知识库和具体的网络环境进行最终确认。 主要分为三个步骤: 一是通过对大量网络攻击实例的研究, 得到可用的攻击知识库, 主要包括各种网络攻击的原理、 特点, 以及它们的作用环境等; 二是分析关键主机上存在的系统漏洞和承载的服务的可能漏洞, 建立当前网络环境的漏洞知识库, 分析当前网络环境的拓扑结构、 性能指标等, 得到网络环境知识库; 三是通过漏洞知识库来确认安全事件的有效性, 也即对当前网络产生影响的网络攻击事件。 在网络安全事件生成和攻击事件确认的过程中, 提取出用于对整个网络安全态势进行评估的态势要素, 主要包括整个网络面临的安全威胁、 分支网络面临的安全威胁、 主机受到的安全威胁以及这些威胁的程度等。
5 结语
为了解决日益严重的网络安全威胁和挑战, 将态势感知技术应用于网络安全中, 不仅能够全面掌握当前网络安全状态, 还可以预测未来网络安全趋势。 本文在介绍网络安全态势相关概念和技术的基础上, 对基于多源日志的网络安全态势感知进行了探讨, 着重对基于多源日志的网络安全态势感知要素获取, 以及利用大数据进行多源日志的关联分析、 融合分析和态势要素分析等内容进行了研究, 对于态势评估、 态势预测和态势展示等相关内容, 还有待于进一步探讨和研究。
‘玖’ 请问什么样的计算机专业好找工作
不妨选择:计算机科学理由如下:computer science,研究计算机及其周围各种现象和规律的科学,亦即研究计算机系统结构、程序系统(即软件)、人工智能以及计算本身的性质和问题的学科。计算机科学是一门包含各种各样与计算和信息处理相关主题的系统学科,从抽象的算法分析、形式化语法等等,到更具体的主题如编程语言、程序设计、软件和硬件等。计算机科学分为理论计算机科学和实验计算机科学两个部分。后者常称为“计算机科学”而不冠以“实验”二字。前者有其他名称,如计算理论、计算机理论、计算机科学基础、计算机科学数学基础等。数学文献中一般指理论计算机科学。
目录研究领域计算机科学的领域研究课题相关奖项计算机系统分类美国开设计算机科学专业的院校相关学科展开研究领域计算机科学的领域研究课题相关奖项计算机系统分类美国开设计算机科学专业的院校相关学科展开编辑本段研究领域计算机是一种进行算术和逻辑运算的机器,而且对于由若干台计算机联成的系统而言还有通信问题,并且处理的对象都是信息,因而也可以说,计算机科学是研究信息处理的科学。计算机科学分为理论计算机科学和实验计算机科学两个部分。在数学文献中所说的计算机科学,一般是指理论计算机科学。实验计算机科学还包括有关开辟计算机新的应用领域的研究。计算机科学的大部分研究是基于“冯·诺依曼计算机”和“图灵机”的,它们是绝大多数实际机器的计算模型。作为此模型的开山鼻祖,邱奇-图灵论题(Church-Turing Thesis)表明,尽管在计算的时间,空间效率上可能有所差异,现有的各种计算设备在计算的能力上是等同的。尽管这个理论通常被认为是计算机科学的基础,可是科学家也研究其它种类的机器,如在实际层面上的并行计算机和在理论层面上概率计算机、oracle 计算机和量子计算机。在这个意义上来讲,计算机只是一种计算的工具:着名的计算机科学家 Dijkstra 有一句名言“计算机科学之关注于计算机并不甚于天文学之关注于望远镜。”。编辑本段计算机科学的领域作为一个学科,计算机科学涵盖了从算法的理论研究和计算的极限,到如何通过硬件和软件实现计算系统。CSAB(以前被叫做Computing Sciences Accreditation Board),由Association for Computing Machinery(ACM)和IEEE Computer Society(IEEE-CS)的代表组成,确立了计算机科学学科的4个主要领域:计算理论,算法与数据结构,编程方法与编程语言,以及计算机元素与架构。CSAB还确立了其它一些重要领域,如软件工程,人工智能,计算机网络与通信,数据库系统,并行计算,分布式计算,人机交互,计算机图形学,操作系统,以及数值和符号计算。理论计算机科学主条目:理论计算机科学广义的理论计算机科学包括经典的计算理论和其它专注于更抽象、逻辑与数学方面的计算。计算理论主条目:计算理论按照Peter J. Denning的说法,计算机科学的最根本问题是“什么能够被有效地自动化?”计算理论的研究就是专注于回答这个根本问题,关于什么能够被计算,去实施这些计算又需要用到多少资源。为了试图回答第一个问题,递归论检验在多种理论计算模型中哪个计算问题是可解的。而计算复杂性理论则被用于回答第二个问题,研究解决一个不同目的的计算问题的时间与空间消耗。着名的“P=NP?”问题,千禧年大奖难题之一,是计算理论的一个开放问题。信息与编码理论主条目:信息论和编码理论信息论与信息量化相关,由Claude E. Shannon创建,用于寻找信号处理操作的根本极限,比如压缩数据和可靠的数据存储与通讯。编码理论是对编码以及它们适用的特定应用性质的研究。编码(code)被用于数据压缩,密码学,前向纠错,近期也被用于网络编码。研究编码的目的在于设计更高效、可靠的数据传输方法。算法算法指定义良好的计算过程,它取一个或一组值作为输入,经过一系列定义好的计算过程,得到一个或一组输出。算法是计算机科学研究的一个重要领域,也是许多其他计算机科学技术的基础。算法主要包括数据结构、计算几何、图论等。除此之外,算法还包括许多杂项,如模式匹配、部分数论等。程序设计语言理论主条目:程序设计语言理论程序设计语言理论是计算机科学的一个分支,主要处理程序设计语言的设计、实现、分析、描述和分类,以及它们的个体特性。它属于计算机科学学科,既受影响于也影响着数学、软件工程和语言学。它是公认的计算机科学分支,同时也是活跃的研究领域,研究成果被发表在众多学术期刊,计算机科学以及工程出版物。形式化方法主条目:形式化方法形式化方法是一种特别的基于数学的技术,用于软件和硬件系统的形式规范、开发以及形式验证。在软件和硬件设计方面,形式化方法的使用动机,如同其它工程学科,是通过适当的数学分析便有助于设计的可靠性和健壮性的期望。但是,使用形式化方法会带来很高的成本,意味着它们通常只用于高可靠性系统,这种系统中安全或保安(security)是最重要的。对于形式化方法的最佳形容是各种理论计算机科学基础种类的应用,特别是计算机逻辑演算,形式语言,自动机理论和形式语义学,此外还有类型系统、代数数据类型,以及软件和硬件规范和验证中的一些问题。并发,并行和分布式系统主条目:并行性和分布式计算并行性(concurrency)是系统的一种性质,这类系统可以同时执行多个可能互相交互的计算。一些数学模型,如Petri网、进程演算和PRAM模型,被创建以用于通用并发计算。分布式系统将并行性的思想扩展到了多台由网络连接的计算机。同一分布式系统中的计算机拥有自己的私有内存,它们之间经常交换信息以达到一个共同的目的。数据库和信息检索主条目:数据库和数据库管理系统数据库是为了更容易地组织、存储和检索大量数据。数据库由数据库管理系统管理,通过数据库模型和查询语言来存储、创建、维护和搜索数据。应用计算机科学尽管计算机科学(computer science)的名字里包含计算机这几个字,但实际上计算机科学相当数量的领域都不涉及计算机本身的研究。因此,一些新的名字被提议出来。某些重点大学的院系倾向于术语计算科学(computing science),以精确强调两者之间的不同。丹麦科学家Peter Naur建议使用术语"datalogy",以反映这一事实,即科学学科是围绕着数据和数据处理,而不一定要涉及计算机。第一个使用这个术语的科学机构是哥本哈根大学Datalogy学院,该学院成立于1969年,Peter Naur便是第一任教授。这个术语主要被用于北欧国家。同时,在计算技术发展初期,《ACM通讯》建议了一些针对计算领域从业人员的术语:turingineer,turologist,flow-charts-man,applied meta-mathematician及applied epistemologist。 三个月后在同样的期刊上,comptologist被提出,第二年又变成了hypologist。术语computics也曾经被提议过。在欧洲大陆,起源于信息(information)和数学或者自动(automatic)的名字比起源于计算机或者计算(computation)更常见,如informatique(法语),Informatik(德语),informatika(斯拉夫语族)。着名计算机科学家Edsger Dijkstra曾经指出:“计算机科学并不只是关于计算机,就像天文学并不只是关于望远镜一样。”("Computer science is no more about computers than astronomy is about telescopes.")设计、部署计算机和计算机系统通常被认为是非计算机科学学科的领域。例如,研究计算机硬件被看作是计算机工程的一部分,而对于商业计算机系统的研究和部署被称为信息技术或者信息系统。然而,现如今也越来越多地融合了各类计算机相关学科的思想。计算机科学研究也经常与其它学科交叉,比如心理学,认知科学,语言学,数学,物理学,统计学和经济学。计算机科学被认为比其它科学学科与数学的联系更加密切,一些观察者说计算就是一门数学科学。早期计算机科学受数学研究成果的影响很大,如Kurt Gödel和Alan Turing,这两个领域在某些学科,例如数理逻辑、范畴论、域理论和代数,也不断有有益的思想交流。计算机科学和软件工程的关系是一个有争议的话题,随后关于什么是“软件工程”,计算机科学又该如何定义的争论使得情况更加混乱。David Parnas从其它工程和科学学科之间的关系得到启示,宣称计算机科学的主要重点总的来说是研究计算的性质,而软件工程的主要重点是具体的计算设计,以达到实用的目的,这样便构成了两个独立但又互补的学科。人工智能主条目:人工智能这个计算机科学分支旨在创造可以解决计算问题,以及像动物和人类一样思考与交流的人造系统。无论是在理论还是应用上,都要求研究者在多个学科领域具备细致的、综合的专长,比如应用数学,逻辑,符号学,电机工程学,精神哲学,神经生理学和社会智力,用于推动智能研究领域,或者被应用到其它需要计算理解与建模的学科领域,如金融或是物理科学。人工智能领域开始变得正式源于Alan Turing这位人工智能先驱提出了图灵试验,以回答这样一个终极问题:“计算机能够思考吗?”计算机体系结构与工程主条目:计算机体系结构和计算机工程计算机系统结构,或者数字计算机组织,是一个计算机系统的概念设计和根本运作结构。它主要侧重于CPU的内部执行和内存访问地址。这个领域经常涉及计算机工程和电子工程学科,选择和互连硬件组件以创造满足功能、性能和成本目标的计算机。计算机图形与视觉主条目:计算机图形学计算机图形学是对于数字视觉内容的研究,涉及图像数据的合成和操作。它跟计算机科学的许多其它领域密切相关,包括计算机视觉、图像处理和计算几何,同时也被大量运用在特效和电子游戏。计算机安全和密码学主条目:计算机安全和密码学计算机安全是计算机技术的一个分支,其目标包括保护信息免受未经授权的访问、中断和修改,同时为系统的预期用户保持系统的可访问性和可用性。密码学是对于隐藏(加密)和破译(解密)信息的实践与研究。现代密码学主要跟计算机科学相关,很多加密和解密算法都是基于它们的计算复杂性。计算科学计算科学(或者科学计算)是关注构建数学模型和量化分析技术的研究领域,同时通过计算机分析和解决科学问题。在实际使用中,它通常是计算机模拟和计算等形式在各个科学学科问题中的应用。信息科学主条目:信息科学软件工程主条目:软件工程软件工程是对于设计、实现和修改软件的研究,以确保软件的高质量、适中的价格、可维护性,以及能够快速构建。它是一个系统的软件设计方法,涉及工程实践到软件的应用。[1]编辑本段研究课题计算机程序能做什么和不能做什么(可计算性);如何使程序更高效的执行特定任务(算法和复杂性理论);程序如何存取不同类型的数据(数据结构和数据库);程序如何显得更具有智能(人工智能);人类如何与程序沟通(人机互动和人机界面)。编辑本段相关奖项计算机科学领域的最高荣誉是ACM设立的图灵奖,被誉为是计算机科学的诺贝尔奖。它的获得者都是本领域最为出色的科学家和先驱。华人中首获图灵奖的是姚期智先生.他于2000年以其对计算理论做出的诸多“根本性的、意义重大的”贡献而获得这一崇高荣誉。编辑本段计算机系统分类计算机系统可划分为软件系统与硬件系统两大类。硬件结构控制和指令系统算法和逻辑结构存储器结构冯·诺伊曼结构哈佛结构输入/输出和数据通信数字逻辑逻辑设计集成电路计算机系统组织计算机系统结构计算机网络分布式计算网络安全计算机系统实现软件系统软件操作系统编译器应用软件计算机游戏办公自动化网络软件CAD软件计算机程序程序设计和程序设计实践面向对象技术程序设计语言软件工程软件复用驱动程序计算机模拟程序设计方法学数据和信息系统数据结构数据存储表示数据加密数据压缩编码与信息论文件信息系统管理信息系统决策支持系统- 专家系统数据库信息存储和数据存取信息交互与表达主要的研究领域形式化基础逻辑学谓词逻辑模态逻辑时序逻辑描述逻辑数学泛代数递归论模型论概率论和数理统计逻辑代数布尔代数离散数学组合数学图论网论信息论理论计算机科学形式语言自动机可计算性算法计算复杂性描述复杂性编译器程序设计理论信息论类型理论指称语义微程序遗传算法并行计算计算方法学人工智能计算机图形学图像处理与计算机视觉模式识别语音识别文字识别签名识别人脸识别指纹识别仿真与建模数字信号处理文档与文本处理计算机应用数值计算数值分析定理机器证明计算机代数工程计算计算机化学计算机物理生物信息论计算生物学非数值计算工厂自动化办公室自动化人工智能信息存储与检索符号语言处理计算机辅助科学计算机辅助设计计算机辅助教学计算机辅助管理计算机辅助软件工程机器人学多媒体技术人机交互电子商务特定技术测试基准机器视觉数据压缩软件设计模式数字信号处理文件格式信息安全国际互联网络超大规模集成电路设计网络传输协议网络处理器技术整数运算器浮点运算器矩阵运算处理器网格计算科学史计算机历史软件业历史编程思想[2]编辑本段美国开设计算机科学专业的院校弗吉尼亚大学,密西根大学安娜堡分校,乔治城大学,维克森林大学,耶鲁大学,哥伦比亚大学,华盛顿大学,卡内基梅隆大学,佐治亚理工学院,加州理工学院,麻省理工学院,斯坦福大学,加州大学伯克利分校,厄巴纳伊利诺斯州大学,威斯康星大学-麦迪逊分校,伦斯勒理工学院编辑本段相关学科计算机科学与另外的一些学科紧密相关。这些学科之间有明显的交叉领域,但也有明显的差异。信息科学 - 软件工程 - 信息系统 - 计算机工程 - 信息安全 - 密码学- 数学 - 工程学- 语言学 - 逻辑学编辑本段发展历史计算机科学中的理论部分在第一台数字计算机出现以前就已存在。计算机科学根植于电子工程、数学和语言学,是科学、工程和艺术的结晶。它在20世纪最后的三十年间兴起成为一门独立的学科,并发展出自己的方法与术语。20世纪30年代中期英国数学家A.M.图灵和美国数学家E.L.波斯特几乎同时提出了理想计算机的概念(图灵提出的那种理想机在后来的文献中称为图灵机)。40年代数字计算机产生后,计算技术(即计算机设计技术与程序设计技术)和有关计算机的理论研究开始得到发展。这方面构成了现在所说的理论计算机科学。至于图灵机理论,则可以看作是这一学科形成前的阶段。至于“计算机科学”一词则到60年代初才出现,此后各国始在大学中设置计算机科学系。学科内容 计算机科学是一门年轻的科学,它究竟包括哪些内容,还没有一致公认的看法。一般认为,计算机科学主要包括理论计算机科学、计算机系统结构、软件工程的一部分和人工智能。理论计算机科学 理论计算机科学是在20世纪30年代发展起来的。40年代机电的与电子的计算机出现后,关于现实计算机及其程序的数学模型性质的研究以及计算复杂性(早期称作计算难度)的研究迅速发展起来,形成自动机论、形式语言理论、程序设计理论、算法设计与分析和计算复杂性理论几个领域。计算机系统结构50年代50年代以来,计算机的性能在计算速度和编址空间方面已提高了几个数量级。但大部分是通过元件更新而获得的。在系统结构方面基本上仍是属于40年代后期形成的存储程序型,即所谓诺伊曼型机器。这种结构的主要特点是它属于控制流型。在这种结构中,一项计算先做什么后做什么是事先确定了的,程序中指令的顺序是事先确定了的。为了在计算机的性能方面取得大的进展,需要突破这种旧的形式。计算机系统结构方面的重要课题之一,是探索非诺伊曼型机器的设计思想。在非诺伊曼型机器中,有一种是70年代初提出的数据流机器(又名数据驱动机器)。美国、苏联和英国都已制成这种机器。这种机器的特点是,在一项计算中先做什么后做什么不是事先确定,所执行的指令是动态排序的。排序的原则是操作数已准备就绪的先做,因而称作数据驱动机器。这种类型的机器更便于实现并行计算。软件工程 程序设计在相当长的时间内是一种类似“手艺”而不是类似现代工程的技术。60年代60年代以来出现了大程序。这些大程序的可靠性很难保证。到60年代后期,西方国家出现了“软件危机”。这是指有些程序过于庞大(包含几十万条以至几百万条指令),成本过高而可靠性则比较差。于是提出了软件工程的概念,目的在于使软件开发遵守严格的规范,使用一套可靠的方法,从而保证质量。现代软件工程的方向是形式化和自动化,而形式化的目的在于自动化。这里所说的自动化就是将程序设计中可以由机器来完成的工作,尽量交给机器去做。中心课题之一是程序工具和环境的研究。程序工具是指辅助人编程序的程序,如编译程序、编辑程序、排错程序等;程序环境则是指一套结合起来使用的用来辅助人编程序的程序工具。人工智能 用计算机模拟人的智能,特别是模拟思维活动的技术及其有关理论。由于人的思维活动离不开语言,而且人对于某一类问题进行思索和探索解法时,总是需要以关于这一类问题的基本知识(专业知识或常识)作为出发点。于是,知识表示和机器对自然语言的理解就构成人工智能的两个重要领域。所谓知识表示,是指将原来用自然语言表示的知识转换成用符号语言表示的,从而可以储存在机器内供机器使用的知识。人工智能的研究角度有探索法的角度和算法的角度。通常所说的解题算法是指机械的和总是有结果的方法,而这里所说的算法却是广义的,包括那些机械的而在使用时不一定有结果的算法。这种方法时常称作半可判定的方法。人在解决问题时,时常采用探索法。这种方法具有“试错法”的性质,也就是说,试验若干条途径,一条路走不通时再试另一条,直到问题得到解决时为止。机器可以模拟人用探索法解题的思维活动。但由于可能途径的数目非常之大,不可能进行穷举式的探索。人一般是只选出一些最有希望得到结果的途径去进行探索。人的这种能力,就是进行创造性思维的能力。这是机器极难模拟的事情。采用算法角度,使用特定的解题算法或半可判定的方法时,会遇到另一方面的困难。那就是当问题的复杂程度较高时(比如说是指数的),即使问题是有结果的,机器也无法在实际可行的时间内得到结果。在计算机出现的初期,人们曾寄希望于机器的高速度,以为在模拟人的思维时,机器可能用它的高速度来换取它所不具有的创造性思维。但通过“组合性爆炸”问题(“组合性爆炸”是指一些组合数学中的问题,在参数增大时,计算时间的增长率时常是指数的,甚至高于指数),人们认识到,单纯靠速度不能绕过组合性爆炸所产生的障碍。有无办法来克服这种困难,尚有待于进一步研究。与其他学科的关系 计算机是由物理元件构成的,迄今主要是由电子元件构成的。因此,物理学的一些分支和电子工程便构成计算机科学的基础。同时,计算机科学在一定意义上是算法的科学,而算法是一个数学概念。因此,数学的某些分支如算法理论(即可算性理论,又名递归函数论)也构成计算机科学的基础。但计算机科学已发展成为一门独立的技术科学,既不是电子学的一个分支,也不是数学的一个分支。这是就这个学科的整体而言。至于理论计算机科学,由于它可以看作是计算机科学的数学基础,在一定意义上,可以看作是数学的一个分支。另一个与计算机科学有密切关系的学科是控制论。控制论作为应用数学方法来研究机械系统和生命系统中的控制和通信现象的学科,同计算机科学有内容上的交叉,但后者不是它的一部分。自从40年代制成数字计算机以来,计算机的性能有了很大的提高。但在系统结构方面变化不大。一些计算技术发达国家正在研制新一代的计算机。这种计算机的系统结构将与过去40年的机器很不相同,所用的程序设计语言也将是新型的。计算机科学将研究由此出现的新问题,如有关并行计算的问题。对计算的数学性质的研究大都还是关于串行计算的,对并行计算性质的研究自70年代才发展起来,预计将成为计算机科学的中心课题之一。另一个问题是程序设计的自动化问题。在程序设计方面,明显的趋势是将机器能做的尽量交给机器去做。程序环境的研究构成了软件工程的一个中心课题。形式化方法越来越受到重视,因为它是提高自动化程度所必需的。早期,虽然英国的剑桥大学和其他大学已经开始教授计算机科学课程,但它只被视为数学或工程学的一个分支,并非独立的学科。剑桥大学声称有世界上第一个传授计算的资格。世界上第一个计算机科学系是由美国的普渡大学在1962年设立,第一个计算机学院于1980年由美国的东北大学设立。现在,多数大学都把计算机科学系列为独立的部门,一部分将它与工程系、应用数学系或其他学科联合。