一、前言
最近参加了运维工程师面试,收集整理了一些和网友分享的常见面试问答,希望能给自己和准备面试的同学提供一些参考。
二、面试问答
:这里省略了作者的自我介绍,作者建议介绍自己的时间不要太长,3-4分钟,说太多的面试官会觉得你太冗长了。说能说太少,会让人觉得你的经历太简单,太空。在正常情况下,一般来说,当你自我介绍时,面试官会在这个时候看你的简历。他需要边看简历边听你介绍自己。如果你说几句话就自我介绍,他肯定还没有放慢脚步,他对你的形象会降低分数。在介绍的同时思维要清晰,逻辑要清楚,最好是根据你简历上写的经历来介绍,这样可以把面试官的思路带到你这里来,让他思路跟着你走。东拉一句,西拉一句。少介绍自己的性格和爱好(最好不要说就不要说)。你可以简单列出你做过多少家公司(最多列出3家公司/现在所在的公司,注意顺序不要混乱),你在哪些公司负责什么工作,你使用了什么技术,重点介绍你现在的公司负责什么工作,你可以详细介绍一下,不要让面试官感到头晕。
:事实上,作者并没有很好地回答这个问题,所以他没有写出来误导每个人。每个人都有一个很好的方法来分享它。然而,笔后来看到一个网民的建议感觉很好,你可以参考:https://www.zhihu.com/question/20584476
:部署,没有深入研究,一般mongodb部署主从或mongodb建议部署3台或5台服务器。MongoDB分片的基本思想是把集合切成小块。这些块分散到几片,每片只负责总数据的一部分。 对于客户端来说,不需要知道数据被拆分,也不需要知道服务端对应哪些数据。在分片之前,数据需要运行一个路由过程,这个过程为mongos。这个路由器知道所有数据的存储位置和数据片的对应关系。对客户端来说,它仅知道连接了一个普通的mongod,在要求数据的过程中,路由器通过路由器上的数据之间的对应关系,路由器将其收集并返回给客户端。
:发布:jenkins配置代码路径(SVN或GIT),然后拉代码,打tag。编译需要编译,然后推送到发布服务器(jenkins脚本可以在里面调整),然后从分发服务器分发到业务服务器。
回滚:根据版本号到发布服务器找到相应的版本推送
:Tomcat是一个JSP/Servlet容器Servlet容器有三种工作模式:独立Servlet在过程中,容器Servlet在容器和过程之外Servlet容器。
进入Tomcat请求可以根据Tomcat工作模式分为以下两类:
Tomcat作为应用程序服务器:请求来自于前端的web这可能是服务器Apache,IIS,Nginx等;
Tomcat作为一个独立的服务器,请求来自于web浏览器;
:现在公司的业务都在阿里云上运行我们的首选监控是使用阿里云监控,阿里云监控有自己的ECS、RDS监控模板义报警规则,可以触发其他服务的监控模板。上一家公司的业务是托管IDC,用的是zabbix监控方案,zabbix图形界面丰富,也有许多监控模板,特别是多个分区、多个网卡等自动发现和监控非常好,但需要安装在每个客户机器(监控端)zabbix agent。
:在生产环境中,无论是应用数据还是数据库数据,首先都会有主从架构或集群,这本身就是数据的热备份;事实上,考虑冷备份,使用特殊的服务器作为备份服务器,例如rsync inotify配合计划任务实现数据的冷备份,如果是发布包备份,正常情况下会有发布服务器,每次发版都会保存发版包。
:reids集群原理:
事实上,它的原理不能用三两句话来解释,redis 3.0版本以前不支持集群,官方推荐的最大节点是1000,至少需要3(Master) 3(Slave)建立集群是一种无中心的分布式存储架构,可以在多个节点之间共享数据,解决问题Redis高可用性、可扩展性等问题。数据可以自动切割(split)当集群中的某个节点出现故障时,到多个节点,redis也可以继续处理客户端的请求。
redis分片:
分片(partitioning)就是把你的数据分成多个数据 Redis 例子的过程使每个例子只包含所有键的子集。当数据量较大时,将数据分散到多个数据库中,以减少单个节点的连接压力,并实现大量的数据存储。分片部署一般分为以下三种方式:
(1)在客户端进行分片;这样,客户端就可以确定要连接的方式redis例子,然后直接访问相应的例子redis实例;
(2)在代理中分片;这样,客户端就不会直接访问redis例如,它不知道它要访问哪一个redis例如,代理转发请求和结果;其工作流程是:客户首先向代理发送请求,代理通过分片算法确定要访问哪个redis例子,然后将请求发送给相应的例子redis实例,redis例子将结果返回给代理,代理最终将结果返回给客户端。
(3)在redis服务器端做分片;这种方被称为查询路由,在这种方式下,客户端随机选择一个redis例如,如果请求的内容不再是当前的redis在实例中,它将负责将请求转移给正确的请求redis也有实例,redis例子不会转发请求,而是正确redis将信息发送给客户端,从客户端到正确redis实例发送请求。
redis使用哪些环境:
java、php环境用到了redis,主要缓存包括登录用户信息数据、设备细节数据、会员登录数据等
:统计用户的访问IP,用awk结合uniq、sort过滤access.log日志就能统计并排序好。一般这么回答就够了,当然你还可以说出其它方式来统计,这都是你的加分项。
:vmware vsphere及kvm,我用得比较多的是vmware vsphere虚拟化,几本上生产环境都用的vmware vsphere,kvm我是用在测试环境中使用。vmware 是属于原生架构虚拟化技术,也就是可直接在硬件上运行。kvm属于寄居架构的虚拟化技术,它是依托在系统之上运行。vmware vcenter
管理上比较方便,图形管理界面功能很强大,稳定性强,一般比较适合企业使用。KVM管理界面稍差点,需要管理人员花费点时间学习它的维护管理技术。
:其实这种问题都没有具体答案,只是看你回答的内容与面试官契合度有多高,能不能说到他想要的点上,主要是看你排查问题的思路。我是这么说的:问清楚反应的人哪个服务应用或者页面调取哪个接口慢,叫他把页面或相关的URL发给你,首先,最直观的分析就是用浏览器按F12,看下是哪一块的内容过慢(DNS解析、网络加载、大图片、还是某个文件内容等),如果有,就对症下药去解决(图片慢就优化图片、网络慢就查看内网情况等)。其次,看后端服务的日志,其实大多数的问题看相关日志是最有效分析,最好用tail -f 跟踪一下日志,当然你也要点击测试来访问接口日志才会打出来。最后,排除sql,,找到sql去mysql执行一下,看看时间是否很久,如果很久,就要优化SQL问题了,expain一下SQL看看索引情况啥的,针对性优化。数据量太大的能分表就分表,能分库就分库。如果SQL没啥问题,那可能就是写的逻辑代码的问题了,一行行审代码,找到耗时的地方改造,优化逻辑。
:这个问题笔者觉得回答的不太好,对mysql比较在行的朋友希望能给点建议。以解决问题为前提条件,先添加从库数量,临时把问题给解决,然后抓取slow log ,分析sql语句,该优化就优化处理。慢要不就是硬件跟不上,需要升级;要不就是软件需要调试优化,等问题解决在细化。
:很少有面试官会问这样的问题,即然问到了,也要老实回答。还好笔者之前了解过CPU,我是这么说的:双核CPU就是能处理多份任务,顺序排成队列来处理。单核CPU一次处理一份任务,轮流处理每个程序任务。双核的优势不是频率,而是对付同时处理多件事情。单核同时只能干一件事,比如你同时在后台BT下载,前台一边看电影一边拷贝文件一边QQ。
:我擦,啥年代了,还问磁盘的问题,这面试官有点逗啊。那也要回答啊:
HDD代表机械硬盘,SSD代表固态硬盘。首先,从性能方面来说,固态硬盘几乎完胜机械硬盘,固态硬盘的读写速度肯定要快机械硬盘,因为固态硬盘和机械硬盘的构造是完全不同的(具体的构造就没必要解释了)。其次,固态盘几乎没有噪音、而机械盘噪音比较大。还有就是,以目前的市场情况来看,一般机械盘容量大,价格低;固态盘容量小,价格偏高。但是企业还是首选固态盘。
:这个监控的问题又问到了,笔者在2018年1月4号也被问到类似这样的问题,笔者曾经用过zabbix、nagios、 cacit等。但是在这次面试中只说用过zabbix和nagios。说完了之后,面试官就让我说一下这两个监控有啥区别:
从web功能及画图来讲:
Nagios简单直观,报警与数据都在同一页面, 红色即为问题项。Nagios web端不要做任何配置。 Nagios需要额外安装插件,且插件画图不够美观。
Zabbix监控数据与报警是分开的,查看问题项需要看触发器,查看数据在最新数据查看。而且zabbix有很多其它配置项, zabbix携带画图功能,且能手动把多个监控项集在一个图中展示。
从监控服务来讲:
Nagios自带的监控项很少。对一些变动的如多个分区、多个网卡进行监控时需要手动配置。
Zabbix自带了很多监控内容,感觉zabbix一开始就为你做了很多事,特别是对多个分区、多个网卡等自动发现并进行监控时,那一瞬间很惊喜,很省心的感觉。
从批量配置和报警来讲:
Nagios对于批量监控主机,需要用脚本在server端新增host,并拷贝service文件。 Nagios用脚本来修改所有主机的services文件,加入新增服务。
Zabbix在server端配置自动注册规则,配置好规则后,后续新增client端不需要对server端进行操作。 Zabbix只需手动在模板中新增一监控项即可。
总体来讲:
Nagios要花很多时间写插件,Zabbix要花很多时间探索功能。
Nagios更易上手,Nagios两天弄会,Zabbix两周弄会。
Zabbix画图功能比Nagios更强大
Zabbix对于批量监控与服务更改,操作更简洁;Nagios如果写好自动化脚本后,也很简单,问题在于写自动化脚本很费神。
:如果这套环境是部署在云端(比如阿里云),你就不用去考虑硬件设计的问题。可直接上阿里云的SLB+ECS+RDS这套标准的高可用、高并发的架构。对外服务直接上SLB负载均衡技术,由阿里的SLB分发到后端的ECS主机;ECS主机部署多台,应用拆分在不同的ECS主机上,尽量细分服务。数据库用RDS高可用版本(一主一备的经典高可用架构)、或者用RDS金融版(一主两备的三节点架构)。在结合阿里其它的服务就完全OK,业务量上来了,主机不够用了,直横向扩容ECS主机搞定。
如果这套环境托管在IDC,那么你就要从硬件、软件(应用服务)双面去考虑了。硬件要达到高可用、高并发公司必须买多套网络硬件设备(比如负载设备F5、防火墙、核心层交换、接入层交换)都必须要冗余,由其是在网络设计上,设备之间都必须有双线连接。设备如果都是跑的单机,其中一个设备挂了,你整个网络都瘫痪了,就谈不上高可用、高并发了。其次在是考虑应用服务了,对外服务我会采用成熟的开源方案LVS+Keepalived或者Nginx+Keepalived,缓存层可以考虑redis集群及Mongodb集群,中间件等其它服务可以用kafka、zookeeper,图片存储可以用fastDFS或MFS,如果数据量大、又非常多,那么可采用hadoop这一套方案。后端数据库可采用 “主从+MHA”。这样一套环境下来是绝对满足高可用、高并发的架构。
:首先呢,安装nginx,然后进入nginx的配置文件,加入upstream 自定义名字{ server:www.abc.com/refuse}这样得一个节点,然后在server{}节点上加上http://自定义的名字,最后呢配置nginx限制过滤特定的接口访问,像这个样location ~/solr/.*/update{return 403;} ,这样就能返回403了。
:iptables允许192.168.16.1ip端口为80转发到ip为8080的端口,操作如下: iptables -t nat -A PREROUTING -d 192.168.16.1 -p tcp --dport 80 -j DNAT --to 192.168.16.1:8080
:使用top命令,查看linux的状态,top里边有一个cpu值,这个就是cpu的内存使用的情况 使用uptime中load average的查看平均负载
默认情况下,有两个请求头会被重新定义: proxy_set_header Host $proxy_host; //默认会将后端服务器的HOST填写进去 proxy_set_header Connection close; 然后将nginx map配置根据请求头不同分配流量到不同后端服务
#!/bin/bash name = ls -l | awk ‘$5 > 10240 {print $9}’ mv $name > /tmp ls -la /tmp
我了解的大部分的大型网站是采用docker+redi集群来实现缓存,然后通过使用nginx反向代理来确保安全性,再采用lvs+MySQL主主+keepalived来实现单点高可用和负载均衡。
sed -n ‘/10:00/,/12:00/p’ /var/log/nginx/access.log | awk ‘{a[$1]++} END {for(b in a) print b"\t"a[b]}’ | sort -k 2 -r | head -n 10
0 6-12/2 * 11 * /usr/bin/httpd.sh
通过DFS,可以使分布在多个服务器上的文件在用户面前显示时,就如同位于网络上的一个位置。用户在访问文件时不再需要知道和指定它们的实际物理位置。
netstat -n | awk ‘/^tcp/ {++state[$NF]} END {for(key in state) print key,"\t",state[key]}’ LAST_ACK 1 SYN_RECV 14 ESTABLISHED 79 FIN_WAIT1 28 FIN_WAIT2 3 CLOSING 5 TIME_WAIT 1669 状态:描述 CLOSED:无连接是活动的或正在进行 LISTEN:服务器在等待进入呼叫 SYN_RECV:一个连接请求已经到达,等待确认 SYN_SENT:应用已经开始,打开一个连接 ESTABLISHED:正常数据传输状态 FIN_WAIT1:应用说它已经完成 FIN_WAIT2:另一边已同意释放 ITMED_WAIT:等待所有分组死掉 CLOSING:两边同时尝试关闭 TIME_WAIT:另一边已初始化一个释放 LAST_ACK:等待所有分组死掉
#! /bin/bash base_path=’/usr/local/nginx/logs’ log_path=( d a t e − d y e s t e r d a y + " m i n u t e = (date -d yesterday +"%Y%m") minute=(date−dyesterday+"minute=(date -d “1 minute ago” +"%Y%m%d-%H:%M") mkdir -p b a s e p a t h / base_path/base p ath/log_path echo $base_path/access.log mv $base_path/access.log b a s e p a t h / base_path/base p ath/log_path/access_$minute.log echo b a s e p a t h / base_path/base p ath/log_path/access_$minite.log kill -USR1 cat /usr/local/nginx/logs/nginx.pid
#crontab -l
1 * * eck_nginx_log.sh
Raid 0: 读写传输数据的速度最快 Raid 1:所存储的数据安全性高,但硬盘容量损失大 Raid 3:安全性能好,但是写入慢 Raid 5:磁盘利用率高,数据安全性高,成本低 Raid 10 :拥有RAID 0的高速,又拥有RAID 1的安全。
#!/bin/bash find ./ -name “*.png” -mtime +15 -print -exec rm -fr {} ; -print: find命令将匹配的文件输出到标准输出。 -exec: find命令对匹配的文件执行该参数所给出的shell命令。相应命令的形式为’command’ { } ;
Zabbix:数据采集比较强,支持agent、teknet等多种采集方式;支持多种报警管理,报警的设置比较全面,图形化展示比较直观,历史数据查询可配置,具有安装的用户审计日志 普罗米修斯:具有多维数据模型,拥有一种灵活的查询语言,课完成复杂的查询,不依赖分布式存储,通过服务发现或静态配置发现目标。 Nagios:具备定义网络分层结构的能力,可以支持并实现对主机的冗余监控,自动的日志回滚,并行服务检查机制
运维就是对网络软硬件的维护,是要保证业务的上线与运作的正常,在业务运转的过程中,对业务进行维护,运维集合了网络、系统、数据库、开发、安全、 监控于一身的技术。运维要做的一个事情除了协调工作以外,还需要与各平台沟通,做好开服的时间、开 服数、用户导量、活动等计划。
当我们在shell中执行命令的时候,每个进程都和三个打开的文件相联系,并使用文件描述符来引用这些文件。由于文件描述符不容易记忆,shell同时也给出了相应的文件名。
下面就是这些文件描述符及它们通常所对应的文件名:
系统中实际上有12个文件描述符,但是正如我们在上表中所看到的, 0、1、2是标准输入、输出和错误。可以任意使用文件描述符3到9。
标准是文件描述符。它是命令的输入,缺省是键盘,也可以是文件或其他命令的输出。标准是文件描述符。它是命令的输出,缺省是屏幕,也可以是文件。标准是文件描述符。这是命令错误的输出,缺省是屏幕,同样也可以是文件。 你可能会问,为什么会有一个专门针对错误的特殊文件?这是由于很多人喜欢把错误单独保存到一个文件中,特别是在处理大的数据文件时,可能会产生很多错误。 如果没有特别指定文件说明符,命令将使用缺省的文件说明符(你的屏幕,更确切地说是你的终端)。
在执行命令时,可以指定命令的标准输入、输出和错误,要实现这一点就需要使用文件重定向。下表列出了最常用的重定向组合,并给出了相应的文件描述符。 在对标准错误进行重定向时,必须要使用文件描述符,但是对于标准输入和输出来说,这不是必需的。
其语法如下: command < filename 把标准输入重定向到filename文件中 command 0< filename 同上 command > filename 把标准输出重定向到filename文件中(覆盖) command 1> fielname 同上 command >> filename 把标准输出重定向到filename文件中(追加) command 1>> filename 同上 command 2> filename 把标准错误重定向到filename文件中(覆盖) command 2>> filename 同上 command > filename 2>&1 把标准输出和标准错误一起重定向到filename文件中(覆盖) command >> filename 把标准输出和标准错误中(追加) command < filename >filename2 把文件filename中的内容作为command的输入,把标准输出重定向到filename2文件中
command 0< filename 1> filename2 同上
重定向的使用有如下规律: 1)标准输入0、输出1、错误2需要分别重定向,一个重定向只能改变它们中的一个。 2)标准输入0和。(当其出现重定向符号左侧时) 3)文件描述符在重定向符号左侧时直接写即可,。 4)文件描述符与重定向符号之间不能有空格!
https://www.cnblogs.com/softidea/p/3965093.html
第一步:开机自检,加载BIOS 第二步:读取MBR 第三步:Boot Loader grub引导菜单 第四步:加载kernel内核 第五步:init进程依据inittab文件夹来设定运行级别 第六步:init进程执行rc.sysinit 第七步:启动内核模块 第八步:执行不同运行级别的脚本程序 第九步:执行/etc/rc.d/rc.local 第十步:执行/bin/login程序,启动mingetty,进入登录状态
Apache和Nginx最核心的区别在于 apache 是同步多进程模型,一个连接对应一个进程;而 nginx 是异步的,多个连接(万级别)可以对应一个进程。 一般来说,需要性能的 web 服务,用 nginx 。如果不需要性能只求稳定,更考虑 apache 。更为通用的方案是,前端 nginx 抗并发,后端 apache 集群,配合起来会更好。
详细区别对比:
Apache
● apache 的 rewrite 比 nginx 强大,在 rewrite 频繁的情况下,用 apache
● apache 发展到现在,模块超多,基本想到的都可以找到
● apache 更为成熟,少 bug ,nginx 的 bug 相对较多
● apache 超稳定
● apache 对 PHP 支持比较简单,nginx 需要配合其他后端用
● apache 在处理动态请求有优势,nginx 在这方面是鸡肋,一般动态请求要 apache 去做,nginx 适合静态和反向。
● apache 仍然是目前的主流,拥有丰富的特性,成熟的技术和开发社区
Nginx
● 轻量级,采用 C 进行编写,同样的 web 服务,会占用更少的内存及资源
● 抗并发,nginx 以 epoll and kqueue 作为开发模型,处理请求是异步非阻塞的,负载能力比 apache 高很多,而 apache 则是阻塞型的。
在高并发下 nginx 能保持低资源低消耗高性能 .而 apache 在 PHP 处理慢或者前端压力很大的情况下,很容易出现进程数飙升,从而拒绝服务的现象。
● nginx 处理静态文件好,静态处理性能比 apache 高三倍以上
● nginx 的设计高度模块化,编写模块相对简单
● nginx 配置简洁,正则配置让很多事情变得简单,而且改完配置能使用 -t 测试配置有没有问题
apache 配置复杂 ,重启的时候发现配置出错了,会很崩溃
● nginx 作为负载均衡服务器,支持 7 层负载均衡
● nginx 本身就是一个反向代理服务器,而且可以作为非常优秀的邮件代理服务器
● 启动特别容易, 并且几乎可以做到 7*24 不间断运行,即使运行数个月也不需要重新启动,还能够不间断服务的情况下进行软件版本的升级
● 社区活跃,各种高性能模块出品迅速
原文链接:
LVS负载均衡(LVS简介、三种工作模式、十种调度算法)_weixin_40470303的博客-CSDN博客blog.csdn.net/weixin_40470303/article/details/80541639
LVS(Linux Virtual Server)即Linux虚拟服务器,是由章文嵩博士主导的开源负载均衡项目,目前LVS已经被集成到Linux内核模块中。该项目在Linux内核中实现了基于IP的数据请求负载均衡调度方案,其体系结构如图1所示,终端互联网用户从外部访问公司的外部负载均衡服务器,终端用户的Web请求会发送给LVS调度器,调度器根据自己预设的算法决定将该请求发送给后端的某台Web服务器,比如,轮询算法可以将外部的请求平均分发给后端的所有服务器,终端用户访问LVS调度器虽然会被转发到后端真实的服务器,但如果真实服务器连接的是相同的存储,提供的服务也是相同的服务,最终用户不管是访问哪台真实服务器,得到的服务内容都是一样的,整个集群对用户而言都是透明的。最后根据LVS工作模式的不同,真实服务器会选择不同的方式将用户需要的数据发送到终端用户,LVS工作模式分为NAT模式、TUN模式、以及DR模式。
1、基于NAT的LVS模式负载均衡 第一步,用户通过互联网DNS服务器解析到公司负载均衡设备上面的外网地址,相对于真实服务器而言,LVS外网IP又称VIP(Virtual IP Address),用户通过访问VIP,即可连接后端的真实服务器(Real Server),而这一切对用户而言都是透明的,用户以为自己访问的就是真实服务器,但他并不知道自己访问的VIP仅仅是一个调度器,也不清楚后端的真实服务器到底在哪里、有多少真实服务器。 第二步,用户将请求发送至124.126.147.168,此时LVS将根据预设的算法选择后端的一台真实服务器(192.168.0.1~192.168.0.3),将数据请求包转发给真实服务器,并且在转发之前LVS会修改数据包中的目标地址以及目标端口,目标地址与目标端口将被修改为选出的真实服务器IP地址以及相应的端口。 第三步,真实的服务器将响应数据包返回给LVS调度器,调度器在得到响应的数据包后会将源地址和源端口修改为VIP及调度器相应的端口,修改完成后,由调度器将响应数据包发送回终端用户,另外,由于LVS调度器有一个连接Hash表,该表中会记录连接请求及转发信息,当同一个连接的下一个数据包发送给调度器时,从该Hash表中可以直接找到之前的连接记录,并根据记录信息选出相同的真实服务器及端口信息。
2、基于TUN的LVS负载均衡 在LVS(NAT)模式的集群环境中,由于所有的数据请求及响应的数据包都需要经过LVS调度器转发,如果后端服务器的数量大于10台,则调度器就会成为整个集群环境的瓶颈。我们知道,数据请求包往往远小于响应数据包的大小。因为响应数据包中包含有客户需要的具体数据,所以LVS(TUN)的思路就是将请求与响应数据分离,让调度器仅处理数据请求,而让真实服务器响应数据包直接返回给客户端。VS/TUN工作模式拓扑结构如图3所示。其中,IP隧道(IP tunning)是一种数据包封装技术,它可以将原始数据包封装并添加新的包头(内容包括新的源地址及端口、目标地址及端口),从而实现将一个目标为调度器的VIP地址的数据包封装,通过隧道转发给后端的真实服务器(Real Server),通过将客户端发往调度器的原始数据包封装,并在其基础上添加新的数据包头(修改目标地址为调度器选择出来的真实服务器的IP地址及对应端口),LVS(TUN)模式要求真实服务器可以直接与外部网络连接,真实服务器在收到请求数据包后直接给客户端主机响应数据。
3、基于DR的LVS负载均衡 在LVS(TUN)模式下,由于需要在LVS调度器与真实服务器之间创建隧道连接,这同样会增加服务器的负担。与LVS(TUN)类似,DR模式也叫直接路由模式,其体系结构如图4所示,该模式中LVS依然仅承担数据的入站请求以及根据算法选出合理的真实服务器,最终由后端真实服务器负责将响应数据包发送返回给客户端。与隧道模式不同的是,直接路由模式(DR模式)要求调度器与后端服务器必须在同一个局域网内,VIP地址需要在调度器与后端所有的服务器间共享,因为最终的真实服务器给客户端回应数据包时需要设置源IP为VIP地址,目标IP为客户端IP,这样客户端访问的是调度器的VIP地址,回应的源地址也依然是该VIP地址(真实服务器上的VIP),客户端是感觉不到后端服务器存在的。由于多台计算机都设置了同样一个VIP地址,所以在直接路由模式中要求调度器的VIP地址是对外可见的,客户端需要将请求数据包发送到调度器主机,而所有的真实服务器的VIP地址必须配置在Non-ARP的网络设备上,也就是该网络设备并不会向外广播自己的MAC及对应的IP地址,真实服务器的VIP对外界是不可见的,但真实服务器却可以接受目标地址VIP的网络请求,并在回应数据包时将源地址设置为该VIP地址。调度器根据算法在选出真实服务器后,在不修改数据报文的情况下,将数据帧的MAC地址修改为选出的真实服务器的MAC地址,通过交换机将该数据帧发给真实服务器。整个过程中,真实服务器的VIP不需要对外界可见。
在linux中简单选择两种备份方法
1.编写shell脚本
dbName=你的数据库名称
user=你的数据库账户
password=你的数据库密码
storePath=备份文件存储目录
mysqldump -u$user -p$password $dbName > $storePath/${dbName}_$(date +%Y%m%d_%H%M).sql
#添加可执行权限
chmod u+x backup.sh
#运行
./backup.sh
#写进定时执行任务里 (四小时备份一次)
crontab -e
30 */4 * * * /home/mysql/expertsystem/backup.sh
#定时任务表达式
基本格式 : 分 时 日 月 周 命令
第1列表示分钟1~59 每分钟用 * 或者 /1表示
第2列表示小时1~23(0表示0点)
第3列表示日期1~31
第4列表示月份1~12
第5列标识号星期0~6(0表示星期天)
原链接:烟笼寒水月笼沙:Linux mysql数据库备份
/etc/fstab内容主要包括六项: 例如:打印出中间的两行内容 LABEL=/ / ext3 defaults 1 1 /dev/sda2 /mnt/D/ vfat defaults 0 0 第一列:设备名或者设备卷标名,(/dev/sda10 或者 LABEL=/) 第二列:设备挂载目录 (例如上面的“/”或者“/mnt/D/”) 第三列:设备文件系统 (例如上面的“ext3”或者“vfat”) 第四列:挂载参数 (看帮助man mount)
对于已经挂载好的设备,例如上面的/dev/sda2,现在要改变挂载参数,这时可以不用卸载该设备,而可以使用下面的命令(没有挂载的设备,remount 这个参数无效)
#mount /mnt/D/ -o remount,ro (改defaults为ro)
为了安全起见,可以指明其他挂载参数,例如:
noexec(不允许可执行文件可执行,但千万不要把根分区挂为noexec,那就无法使用系统了,连mount 命令都无法使用了,这时只有重新做系统了!
nodev(不允许挂载设备文件)nosuid,nosgid(不允许有suid和sgid属性)
nouser(不允许普通用户挂载)
第五列:指明是否要备份,(0为不备份,1为要备份,一般根分区要备份) 第六列:指明自检顺序。 (0为不自检,1或者2为要自检,如果是根分区要设为1,其他分区只能是2)
1. 实现负载均衡有多种方式: 软件负载均衡:比如常见的Nginx、LVS。 硬件负载均衡;买相应硬件。 DNS负载均衡:通过DNS域名解析的方式,使多个服务器IP对应一个域名。 2. 除了硬件外,下面是几种常见的方式,除了DNS域名解析是DNS实现的,其他均是软件负载均衡: HTTP重定向 DNS域名解析 反向代理(Nginx) IP负载均衡 链路层的负载均衡(LVS)
原谅链接:负载均衡及其常见实现方式_weixin_43751710的博客-CSDN博客
常用的就是tar,gz,和zip tar结尾的,tar -cvf 打包,tar -xvf 解包 gz结尾的,tar -zcvf打包,tar -zxvf解包 zip结尾的,zip打包,unzip解包
两种情况,一种是磁盘配额问题,另外一种就是EXT3文件系统的设计不适合很多小文件跟大文件的一种文件格式,出现很多小文件时,容易导致inode耗尽了。
[root @痞小仙儿 ] netstat -an |grep 80 |grep ESTABLISHED |wc -l
平时采用两种方法来做: (1)利用mysql自带的使用工具mysqldump和mysql来备份还原数据库 (2)利用第三方的mysql管理工具比如:mysqladmin (3)停止mysqld服务拷贝数据文件
(1)有产品时的职责: 产品发布前:负责参与并审核架构设计的合理性和可运维性,以确保在产品发布之后能高效稳定的运行。 产品发布阶段:负责用自动化的技术或者平台确保产品可以高效的发布上线,之后可以快速稳定迭代。 产品运行维护阶段:负责保障产品7*24H稳定运行,在此期间对出现的各种问题可以快速定位并解决;在日常工作中不断优化系统架构和部署的合理性,以提升系统服务的稳定性 (2)日常职责 1,每日定时对机房内的网络服务器、数据库服务器、Internet服务器进行日常巡视,检查是否正常工作,公司的网站是否能正常访问; 2,每日巡查计算机系统各个终端电脑、打印机、复印机等设备是否工作正常,是否有不正确的操作使用,是否有带故障工作的设备; 3,每天夜间在大家都下班之后对财务软件进行自动实时备份,每周做一次物理数据备份,并在备份服务器中进行逻辑备份的验证工作; 4,每周至少对文件服务器做一次物理数据备份;还有就是处理各种有关网络的突发问题
内核、shell、文件系统和应用程序。 详情链接: linux系统组成及结构_不忘初心-CSDN博客
[root @痞小仙儿 ] netstat -antl | grep "LISTEN"
[root @痞小仙儿 ] netstat -antl | grep 'ESTABLISHED' | wc -l
[root @痞小仙儿 ] netstat -antl | grep "SYN_SENT" | wc -l
[root @痞小仙儿 ] netstat -antl | grep "SYN_RECV" | wc -l
[root @痞小仙儿 ] find /usr/local/nginx/logs -type f -mtime +30 -exec rm -f{} \;
[root@localhost wang]# route add -net 192.168.3.0 netmask 255.255.255.0 gw 192.168.1.254
[root @痞小仙儿 ] sed -i s/\r/ /g test.txt
./configure --prefix=/usr/local/apache --enable-so --with-rewrite --with-mpm-worker
([0-1][0-9][0-9]|2[0-4][0-9]|25[0-5]|[0-9][0-9]|[1-9])
[root @痞小仙儿 ] grep -A5 key filename
https://blog.csdn.net/yangzhenzhen/article/details/83826752blog.csdn.net/yangzhenzhen/article/details/83826752
[root @痞小仙儿 ] grep -n ^$ file|awk -F":" '{print $1}'
[root @痞小仙儿 ] grep abc$ file1
[root @痞小仙儿 ] iptables -t nat -A PREROUTING -d 192.168.2.1 -p tcp --dport 80 -j DNAT --to-des 192.168.2.1:8080
00 6-12/2 * 11 * /bin/sh /usr/bin/httpd.sh &>/dev/null
[root @痞小仙儿 ] find /usr/local/test -type f -size +100k -exec mv {} /tmp \;
。
大致思路在A上面ssh-keygen -t dsa 直接回车生成密钥,然后把公钥分别用ssh-copy-id拷贝到B和C上面。ssh-copy-id -i id_dsa.pub "-p端口号 root@B的ip地址",然后在A上面就可以用ssh -p端口号 root@IP不要密码直接登录服务器B和C
61、介绍一下grep显示匹配行的上下几行的用法
grep -C 3 love filename #显示filename文件中,包含字符串love行上下3行内容(含love行)
grep -A 3 love filename #显示filename文件中,包含字符串love行下3行内容(含love行)
grep -B 3 love filename #显示filename文件中,包含字符串love行上3行内容(含love行)
62、介绍一下sed命令的常见用法
简介:
sed是一种流编辑器,它是文本处理中非常有用的工具,能够完美的配合正则表达式使用,功能不同凡响。处理时,把当前处理的行存储在临时缓冲区中,称为『模式空间』(pattern space),接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。sed主要用来自动编辑一个或多个文件,简化对文件的反复操作,编写转换程序等。
命令语法:
sed [-hnV][-e<script>][-f<script文件>][文本文件] #sed命令语法
选项与参数: -n :使用安静(silent)模式。在一般 sed 的用法中,所有来自 STDIN 的数据一般都会被列出到终端上。但如果加上 -n 参数后,则只有经过sed 特殊处理的那一行(或者动作)才会被列出来。 -e :直接在命令列模式上进行 sed 的动作编辑; -f :直接将 sed 的动作写在一个文件内, -f filename 则可以运行 filename 内的 sed 动作; -r :sed 的动作支持的是延伸型正规表示法的语法。(默认是基础正规表示法语法) -i :直接修改读取的文件内容,而不是输出到终端。
function: a :新增行, a 的后面可以是字串,而这些字串会在新的一行出现(目前的下一行) c :取代行, c 的后面可以接字串,这些字串可以取代 n1,n2 之间的行 d :删除行,因为是删除,所以 d 后面通常不接任何参数,直接删除地址表示的行; i :插入行, i 的后面可以接字串,而这些字串会在新的一行出现(目前的上一行); p :列印,亦即将某个选择的数据印出。通常 p 会与参数 sed -n 一起运行 s :替换,可以直接进行替换的工作,通常这个 s 的动作可以搭配正规表示法,例如 1,20s/old/new/g 一般是替换符合条件的字符串而不是整行
一般function的前面会有一个地址的限制,例如 [地址]function,表示我们的动作要操作的行。下面我们通过具体的例子直观的看看sed的使用方法。
新建文件 test.txt 内容如下:
[root@localhost wang]# cat test.txt 11 aa this is dog 22 bb this is cat 33 cc this is log 44 dd this is moon 55 ee this is bingo
打印文件所有行:
[root@localhost wang]# sed -n 'p' test.txt 11 aa this is dog 22 bb this is cat 33 cc this is log 44 dd this is moon 55 ee this is bingo
打印文件第2行:
[root@localhost wang]# sed -n '2p' test.txt 22 bb this is cat
打印文件第2,3,5行:
[root@localhost wang]# sed -n '2p;3p;5p' test.txt 22 bb this is cat 33 cc this is log 44 dd this is moon
打印文件中包含moon的行(其中//内支持正则表达式 过滤内容):
[root@localhost wang]# sed -n '/moon/p' test.txt 44 dd this is moon
打印文件第1到3行:
[root@localhost wang]# sed -n '1,3p' test.txt 11 aa this is dog 22 bb this is cat 33 cc this is log
打印文件中包含cat的行到包含moon的行:
[root@localhost wang]# sed -n '/cat/,/moon/p' test.txt 22 bb this is cat 33 cc this is log 44 dd this is moon
打印文件的奇数行:
[root@localhost wang]# sed -n 'p;n' test.txt 11 aa this is dog 33 cc this is log 44 dd this is moon 55 ee this is bingo
打印文件的偶数行:
[root@localhost wang]# sed -n 'n;p' test.txt 22 bb this is cat
新建文件 test.txt 内容如下:
[root@localhost wang]# cat test.txt 11 aa this is dog 22 bb this is cat 33 cc this is log 44 dd this is moon 55 ee this is bingo
删除文件中所有空白行:
[root@localhost wang]# sed '/^$/d' test.txt 11 aa this is dog 22 bb this is cat 33 cc this is log 44 dd this is moon 55 ee this is bingo
删除文件的第2行:
[root@localhost wang]# sed '2d' test.txt 11 aa this is dog 33 cc