配置

客户端配置

客户端配置比较简单,只需要配置一下server的地址就可以了,复杂的配置等到以后遇到的适合在进行介绍

# 配置salt服务端地址
vi /etc/salt/minion

# 这里也可以写主机名
master: 192.168.1.100

# 修改完成后重启服务
service salt-minion restart

服务端操作

# 查看有哪些client发起了验证请求 
salt-key list

Accepted Keys:
Denied Keys:
Unaccepted Keys: # 这里列出了为被接受的client 主机名
host01
host02
Rejected Keys:

# 接受所有验证请求
salt-key -A
The following keys are going to be accepted:
Unaccepted Keys:
host01
host02
Proceed? [n/Y] Y
Key for minion host01 accepted.
Key for minion host02 accepted.

# 再查看一下
salt-key list
Accepted Keys: # 已经接受
host01
host02
Denied Keys:
Unaccepted Keys:
Rejected Keys:

简单验证执行命令

远程执行命令

salt aws-bj* cmd.run uptime
host01:
09:42:13 up 2:02, 2 users, load average: 0.05, 0.03, 0.05
host02:
09:42:12 up 1:28, 1 user, load average: 0.00, 0.01, 0.05

下篇预告

系列文章

添加仓库

最新的salt包会发布在 Ubuntu saltstack PPA。如果你的系统中有add-apt-repository 工具,可以通过一条命令添加仓库并导入PPA key:

通过add-apt-repository添加仓库及PPA key

add-apt-repository ppa:saltstack/salt

Salt, the remote execution and configuration management tool.
More info: https://launchpad.net/~saltstack/+archive/ubuntu/salt
Press [ENTER] to continue or ctrl-c to cancel adding it

gpg: keyring `/tmp/tmpys0ah_nb/secring.gpg' created
gpg: keyring `/tmp/tmpys0ah_nb/pubring.gpg' created
gpg: requesting key 0E27C0A6 from hkp server keyserver.ubuntu.com
gpg: /tmp/tmpys0ah_nb/trustdb.gpg: trustdb created
gpg: key 0E27C0A6: public key "Launchpad PPA for Salt Stack" imported
gpg: Total number processed: 1
gpg: imported: 1 (RSA: 1)
OK

如果没有找到add-apt-repository命令可以执行下面的命令进行安装

apt-get install python-software-properties

可能也需要安装下面的包

apt-get install software-properties-common

手动添加仓库及PPA key

echo deb http://ppa.launchpad.net/saltstack/salt/ubuntu `lsb_release -sc` main | sudo tee /etc/apt/sources.list.d/saltstack.list
wget -q -O- "http://keyserver.ubuntu.com:11371/pks/lookup?op=get&search=0x4759FA960E27C0A6" |apt-key add -

更新仓库元数据

apt-get update

安装包

服务端

apt-get install salt-master salt-minion salt-syndic

客户端

apt-get install salt-minion

ZEROMQ 4

ZeroMQ 4 在 Ubuntu 14.04 以上版本已经与系统集成。因此Ubuntu 12.04 LTS 之前的版本需要升级到ZEROMQ 4

iptables-save

利用iptables-save命令可以将iptable规则保存到一个持久化存储的目录中,不同的系统保存的目录也有所不同(IPv4):

Debian/Ubuntu: iptables-save > /etc/iptables/rules.v4

RHEL/CentOS: iptables-save > /etc/sysconfig/iptables

保存之后,可以通过iptables-restore命令载入(IPv4):

Debian/Ubuntu: iptables-restore < /etc/iptables/rules.v4

RHEL/CentOS: iptables-restore < /etc/sysconfig/iptables

上面是针对IPv5的规则,如果你有使用IPv6的规则,通常需要执行下面对应的IPv6保存和恢复的命令(IPv4:

Debian/Ubuntu: ip6tables-save > /etc/iptables/rules.v6
RHEL/CentOS: ip6tables-save > /etc/sysconfig/ip6tables

注意: 这种方式只是保存规则和恢复的一种方式,并不是说保存规则后下次启动就会自动加载。一定要记住这点,如果要想系统启动后自动加载请看下面的方式。

iptables-persistent (Debian/Ubuntu)

从 Ubuntu 10.04 LTS (Lucid) 和 Debian 6.0 (Squeeze) 版本开始,可以通过安装一个名为 “iptables-persistent” 的包,安装后它以守护进程的方式来运行,系统重启后可以自动将保存的内容加载到iptables中。当然前提也是需要先保存规则。

安装

apt-get install iptables-persistent

保存规则

service  iptables-persistent save
* Saving rules... * IPv4... * IPv6...

ls -1 /etc/iptables/
rules.v4
rules.v6

cat /etc/iptables/rules.v4
# Generated by iptables-save v1.4.21 on Thu Aug 20 08:59:52 2015
*filter
:INPUT ACCEPT [5726:774869]
:FORWARD ACCEPT [170:27598]
:OUTPUT ACCEPT [5467:789045]
COMMIT
# Completed on Thu Aug 20 08:59:52 2015
# Generated by iptables-save v1.4.21 on Thu Aug 20 08:59:52 2015
*nat
:PREROUTING ACCEPT [23:1596]
:INPUT ACCEPT [0:0]
:OUTPUT ACCEPT [9:540]
:POSTROUTING ACCEPT [0:0]
-A POSTROUTING -s 10.0.0.0/16 -o eth0 -j MASQUERADE
COMMIT
# Completed on Thu Aug 20 08:59:52 2015

RHEL 和 CentOS 保存规则

RHEL/CentOS 提供了简单的方式来持久化存储iptables规则,可以直接通过iptables服务的命令来完成:

chkconfig --list | grep iptables
iptables 0:off 1:off 2:on 3:on 4:on 5:on 6:off

# 如果不是开机启动,需要执行下面命令
chkconfig iptables on

# 保存规则
service iptables save

IPv4规则信息会保存到 /etc/sysconfig/iptables 文件中,IPv6 规则保存到 /etc/sysconfig/ip6tables 文件中。 必须执行service iptables save 命令才会保存,保存后系统重启后会自动加载。

数据库备份与恢复

当前数据库结构

db01 (主)

db02 (从)

备份策略

  • 每天一次全量备份
  • 每小时一次增量备份
  • 通过热备工具(不锁表,不影响线上应用)备份主库数据
  • 备份数据保存到db01,备份完成scp到db02
  • 保留一个月的增量及全量备份
时间 备份类型
00:01 全量备份
01:01 增量备份(当天首次)
02:01~23:01 增量备份

随着数据量的增加,全量备份可以做成每周一次,每2~8小时一次增量备份

备份目录

db{01,02}:/data/backup/{full,incremental}/

backup/
├── full
│   ├── 2015-08-16 # 每日全量备份
│   └── 2015-08-16.log # 全量备份日志
└── incremental
├── 2015-08-16_14 # 每小时增量备份
├── 2015-08-16_14.log # 每小时增量备份日志
├── 2015-08-16_15
├── 2015-08-16_15.log
├── 2015-08-16_16
├── 2015-08-16_16.log
├── 2015-08-16_17
├── 2015-08-16_17.log
├── 2015-08-16_18
├── 2015-08-16_18.log
├── 2015-08-16_19
└── 2015-08-16_19.log

备份计划任务

# Info   : 数据库备份
# Author : zhouyq
# CTime : 2015-08-16
# 全量备份
1 0 * * * /bin/bash /root/bin/bakdb.sh full
# 第一次增量备份
1 1 * * * /bin/bash /root/bin/bakdb.sh incremental first
# 其他时间段增量备份
1 2-23 * * * /bin/bash /root/bin/bakdb.sh incremental

备份脚本

/root/bin/bakdb.sh

#!/bin/bash

fullPath="/data/backup/full"
incrPath="/data/backup/incremental"
bakdate=`date +'%F'`
bakhour=`date +'%H'`

oneHourAgo=`date -d '1 hours ago' +'%F_%H'`

BakBin="/usr/bin/innobackupex --no-timestamp --user=root --socket /data/db/tmp/mysql.sock --defaults-file=/usr/local/mysql/my.cnf --sleep 100"

# backup function
function hotbackup(){

baktype=$1
logfile=$2
incrpath=$3
bakpath=$4

if [ "$baktype" == "full" ];then
$BakBin $bakpath > $logfile 2>&1
elif [ "$baktype" == "incremental" ];then
$BakBin --incremental $incrpath --incremental-basedir $bakpath > $logfile 2>&1
fi
}

# ============= Main =============

if [ "$1" == "full" ];then
# 全量备份
hotbackup "full" "${fullPath}/${bakdate}.log" "none" "$fullPath/$bakdate"
/usr/bin/scp -P 9922 -rp ${fullPath}/${bakdate}* db02:${fullPath}

elif [ "$1" == "incremental" ];then
# 判断是否为第一次增量备份,只有第一次增量备份目录指向全量备份
# 第二次开始增量备份的上一次目录指向第一次增量目录即可
if [ "$2" == "first" ];then
hotbackup "incremental" "${incrPath}/${bakdate}_${bakhour}.log" "$incrPath/${bakdate}_${bakhour}" "$fullPath/$bakdate"
/usr/bin/scp -P 9922 -rp ${incrPath}/${bakdate}_${bakhour}* db02:${incrPath}
else
hotbackup "incremental" "${incrPath}/${bakdate}_${bakhour}.log" "$incrPath/${bakdate}_${bakhour}" "$incrPath/${oneHourAgo}"
/usr/bin/scp -P 9922 -rp ${incrPath}/${bakdate}_${bakhour}* db02:${incrPath}
fi
fi

恢复

全量备份恢复

innobackupex --user=root --defaults-file=/usr/local/mysql/my.cnf --apply-log /data/backup/full/2015-08-16

innobackupex --user=root --defaults-file=/usr/local/mysql/my.cnf --move-back /data/backup/full/2015-08-16

增量备份恢复

innobackupex --defaults-file=/usr/local/mysql/my.cnf --user=root --apply-log --redo-only /data/backup/full/2015-08-16 

innobackupex --defaults-file=/usr/local/mysql/my.cnf --user=root --apply-log --redo-only /data/backup/full/2015-08-16 --incremental-dir=/data/backup/incremental/2015-08-16_14

innobackupex --defaults-file=/usr/local/mysql/my.cnf --user=root --apply-log --redo-only /data/backup/full/2015-08-16 --incremental-dir=/data/backup/incremental/2015-08-16_15

原文在此,实用总结。


十条有用的 Go 技术

这里是我过去几年中编写的大量 Go 代码的经验总结而来的自己的最佳实践。我相信它们具有弹性的。这里的弹性是指:
某个应用需要适配一个灵活的环境。你不希望每过 3 到 4 个月就不得不将它们全部重构一遍。添加新的特性应当很容易。许多人参与开发该应用,它应当可以被理解,且维护简单。许多人使用该应用,bug 应该容易被发现并且可以快速的修复。我用了很长的时间学到了这些事情。其中的一些很微小,但对于许多事情都会有影响。所有这些都仅仅是建议,具体情况具体对待,并且如果有帮助的话务必告诉我。随时留言:)

1. 使用单一的 GOPATH

多个 GOPATH 的情况并不具有弹性。GOPATH 本身就是高度自我完备的(通过导入路径)。有多个 GOPATH 会导致某些副作用,例如可能使用了给定的库的不同的版本。你可能在某个地方升级了它,但是其他地方却没有升级。而且,我还没遇到过任何一个需要使用多个 GOPATH 的情况。所以只使用单一的 GOPATH,这会提升你 Go 的开发进度。

许多人不同意这一观点,接下来我会做一些澄清。像 etcdcamlistore 这样的大项目使用了像 godep 这样的工具,将所有依赖保存到某个目录中。也就是说,这些项目自身有一个单一的 GOPATH。它们只能在这个目录里找到对应的版本。除非你的项目很大并且极为重要,否则不要为每个项目使用不同的 GOPATH。如果你认为项目需要一个自己的 GOPATH 目录,那么就创建它,否则不要尝试使用多个 GOPATH。它只会拖慢你的进度。

2. 将 for-select 封装到函数中

如果在某个条件下,你需要从 for-select 中退出,就需要使用标签。例如:

func main() {

L:
for {
select {
case <-time.After(time.Second):
fmt.Println("hello")
default:
break L
}
}

fmt.Println("ending")
}

如你所见,需要联合break使用标签。这有其用途,不过我不喜欢。这个例子中的 for 循环看起来很小,但是通常它们会更大,而判断break的条件也更为冗长。

如果需要退出循环,我会将 for-select 封装到函数中:

func main() {
foo()
fmt.Println("ending")
}

func foo() {
for {
select {
case <-time.After(time.Second):
fmt.Println("hello")
default:
return
}
}
}

你还可以返回一个错误(或任何其他值),也是同样漂亮的,只需要:

// 阻塞
if err := foo(); err != nil {
// 处理 err
}

3. 在初始化结构体时使用带有标签的语法

这是一个无标签语法的例子:

type T struct {
Foo string
Bar int
}

func main() {
t := T{"example", 123} // 无标签语法
fmt.Printf("t %+v\n", t)
}

那么如果你添加一个新的字段到T结构体,代码会编译失败:

type T struct {
Foo string
Bar int
Qux string
}

func main() {
t := T{"example", 123} // 无法编译
fmt.Printf("t %+v\n", t)
}

如果使用了标签语法,Go 的兼容性规则(http://golang.org/doc/go1compat)会处理代码。例如在向net包的类型添加叫做Zone的字段,参见:http://golang.org/doc/go1.1#library。回到我们的例子,使用标签语法:

type T struct {
Foo string
Bar int
Qux string
}

func main() {
t := T{Foo: "example", Qux: 123}
fmt.Printf("t %+v\n", t)
}

这个编译起来没问题,而且弹性也好。不论你如何添加其他字段到T结构体。你的代码总是能编译,并且在以后的 Go 的版本也可以保证这一点。只要在代码集中执行go vet,就可以发现所有的无标签的语法。

4. 将结构体的初始化拆分到多行

如果有两个以上的字段,那么就用多行。它会让你的代码更加容易阅读,也就是说不要:

T{Foo: "example", Bar:someLongVariable, Qux:anotherLongVariable, B: forgetToAddThisToo}

而是:

T{
Foo: "example",
Bar: someLongVariable,
Qux: anotherLongVariable,
B: forgetToAddThisToo,
}

这有许多好处,首先它容易阅读,其次它使得允许或屏蔽字段初始化变得容易(只要注释或删除它们),最后添加其他字段也更容易(只要添加一行)。

5. 为整数常量添加 String() 方法

如果你利用 iota 来使用自定义的整数枚举类型,务必要为其添加 String() 方法。例如,像这样:

type State int

const (
Running State = iota
Stopped
Rebooting
Terminated
)

如果你创建了这个类型的一个变量,然后输出,会得到一个整数(http://play.golang.org/p/V5VVFB05HB):

func main() {
state := Running

// print: "state 0"
fmt.Println("state ", state)
}

除非你回顾常量定义,否则这里的0看起来毫无意义。只需要为State类型添加String()方法就可以修复这个问题(http://play.golang.org/p/ewMKl6K302):

func (s State) String() string {
switch s {
case Running:
return "Running"
case Stopped:
return "Stopped"
case Rebooting:
return "Rebooting"
case Terminated:
return "Terminated"
default:
return "Unknown"
}
}

新的输出是:state: Running。显然现在看起来可读性好了很多。在你调试程序的时候,这会带来更多的便利。同时还可以在实现 MarshalJSON()、UnmarshalJSON() 这类方法的时候使用同样的手段。

6. 让 iota 从 a +1 开始增量

在前面的例子中同时也产生了一个我已经遇到过许多次的 bug。假设你有一个新的结构体,有一个State字段:

type T struct {
Name string
Port int
State State
}

现在如果基于 T 创建一个新的变量,然后输出,你会得到奇怪的结果(http://play.golang.org/p/LPG2RF3y39):

func main() {
t := T{Name: "example", Port: 6666}

// prints: "t {Name:example Port:6666 State:Running}"
fmt.Printf("t %+v\n", t)
}

看到 bug 了吗?State字段没有初始化,Go 默认使用对应类型的零值进行填充。由于State是一个整数,零值也就是0,但在我们的例子中它表示Running。

那么如何知道 State 被初始化了?还是它真得是在Running模式?没有办法区分它们,那么这就会产生未知的、不可预测的 bug。不过,修复这个很容易,只要让 iota 从 +1 开始(http://play.golang.org/p/VyAq-3OItv):

const (
Running State = iota + 1
Stopped
Rebooting
Terminated
)

现在t变量将默认输出Unknown,不是吗? :)

func main() {
t := T{Name: "example", Port: 6666}

// 输出: "t {Name:example Port:6666 State:Unknown}"
fmt.Printf("t %+v\n", t)
}

不过让 iota 从零值开始也是一种解决办法。例如,你可以引入一个新的状态叫做Unknown,将其修改为:

const (
Unknown State = iota
Running
Stopped
Rebooting
Terminated
)

7. 返回函数调用

我已经看过很多代码例如(http://play.golang.org/p/8Rz1EJwFTZ):

func bar() (string, error) {
v, err := foo()
if err != nil {
return "", err
}

return v, nil
}

然而,你只需要:

func bar() (string, error) {
return foo()
}

更简单也更容易阅读(当然,除非你要对某些内部的值做一些记录)。

8. 把 slice、map 等定义为自定义类型

将 slice 或 map 定义成自定义类型可以让代码维护起来更加容易。假设有一个Server类型和一个返回服务器列表的函数:

type Server struct {
Name string
}

func ListServers() []Server {
return []Server{
{Name: "Server1"},
{Name: "Server2"},
{Name: "Foo1"},
{Name: "Foo2"},
}
}

现在假设需要获取某些特定名字的服务器。需要对 ListServers() 做一些改动,增加筛选条件:

// ListServers 返回服务器列表。只会返回包含 name 的服务器。空的 name 将会返回所有服务器。
func ListServers(name string) []Server {
servers := []Server{
{Name: "Server1"},
{Name: "Server2"},
{Name: "Foo1"},
{Name: "Foo2"},
}

// 返回所有服务器
if name == "" {
return servers
}

// 返回过滤后的结果
filtered := make([]Server, 0)

for _, server := range servers {
if strings.Contains(server.Name, name) {
filtered = append(filtered, server)
}
}

return filtered
}

现在可以用这个来筛选有字符串Foo的服务器:

func main() {
servers := ListServers("Foo")

// 输出:“servers [{Name:Foo1} {Name:Foo2}]”
fmt.Printf("servers %+v\n", servers)
}

显然这个函数能够正常工作。不过它的弹性并不好。如果你想对服务器集合引入其他逻辑的话会如何呢?例如检查所有服务器的状态,为每个服务器创建一个数据库记录,用其他字段进行筛选等等……

现在引入一个叫做Servers的新类型,并且修改原始版本的 ListServers() 返回这个新类型:

type Servers []Server

// ListServers 返回服务器列表
func ListServers() Servers {
return []Server{
{Name: "Server1"},
{Name: "Server2"},
{Name: "Foo1"},
{Name: "Foo2"},
}
}

现在需要做的是只要为Servers类型添加一个新的Filter()方法:

// Filter 返回包含 name 的服务器。空的 name 将会返回所有服务器。
func (s Servers) Filter(name string) Servers {
filtered := make(Servers, 0)

for _, server := range s {
if strings.Contains(server.Name, name) {
filtered = append(filtered, server)
}

}

return filtered
}

现在可以针对字符串Foo筛选服务器:

func main() {
servers := ListServers()
servers = servers.Filter("Foo")
fmt.Printf("servers %+v\n", servers)
}

哈!看到你的代码是多么的简单了吗?还想对服务器的状态进行检查?或者为每个服务器添加一条数据库记录?没问题,添加以下新方法即可:

func (s Servers) Check()
func (s Servers) AddRecord()
func (s Servers) Len()
...

9. withContext 封装函数

有时对于函数会有一些重复劳动,例如锁/解锁,初始化一个新的局部上下文,准备初始化变量等等……这里有一个例子:

func foo() {
mu.Lock()
defer mu.Unlock()

// foo 相关的工作
}

func bar() {
mu.Lock()
defer mu.Unlock()

// bar 相关的工作
}

func qux() {
mu.Lock()
defer mu.Unlock()

// qux 相关的工作
}

如果你想要修改某个内容,你需要对所有的都进行修改。如果它是一个常见的任务,那么最好创建一个叫做withContext的函数。这个函数的输入参数是另一个函数,并用调用者提供的上下文来调用它:

func withLockContext(fn func()) {
mu.Lock
defer mu.Unlock()

fn()
}

只需要将之前的函数用这个进行封装:

func foo() {
withLockContext(func() {
// foo 相关工作
})
}

func bar() {
withLockContext(func() {
// bar 相关工作
})
}

func qux() {
withLockContext(func() {
// qux 相关工作
})
}

不要光想着加锁的情形。对此来说最好的用例是数据库链接。现在对 withContext 函数作一些小小的改动:

func withDBContext(fn func(db DB) error) error {
// 从连接池获取一个数据库连接
dbConn := NewDB()

return fn(dbConn)
}

如你所见,它获取一个连接,然后传递给提供的参数,并且在调用函数的时候返回错误。你需要做的只是:


func foo() {
withDBContext(func(db *DB) error {
// foo 相关工作
})
}

func bar() {
withDBContext(func(db *DB) error {
// bar 相关工作
})
}

func qux() {
withDBContext(func(db *DB) error {
// qux 相关工作
})
}

你在考虑一个不同的场景,例如作一些预初始化?没问题,只需要将它们加到withDBContext就可以了。这对于测试也同样有效。

这个方法有个缺陷,它增加了缩进并且更难阅读。再次提示,永远寻找最简单的解决方案。

10. 为访问 map 增加 setter,getters

如果你重度使用 map 读写数据,那么就为其添加 getter 和 setter 吧。通过 getter 和 setter 你可以将逻辑封分别装到函数里。这里最常见的错误就是并发访问。如果你在某个 goroutein 里有这样的代码:

m["foo"] = bar

还有这个:

delete(m, "foo")

会发生什么?你们中的大多数应当已经非常熟悉这样的竞态了。简单来说这个竞态是由于 map 默认并非线程安全。不过你可以用互斥量来保护它们:

mu.Lock()
m["foo"] = "bar"
mu.Unlock()

以及:

mu.Lock()
delete(m, "foo")
mu.Unlock()

假设你在其他地方也使用这个 map。你必须把互斥量放得到处都是!然而通过 getter 和 setter 函数就可以很容易的避免这个问题:

func Put(key, value string) {
mu.Lock()
m[key] = value
mu.Unlock()
}
func Delete(key string) {
mu.Lock()
delete(m, key)
mu.Unlock()
}

使用接口可以对这一过程做进一步的改进。你可以将实现完全隐藏起来。只使用一个简单的、设计良好的接口,然后让包的用户使用它们:

type Storage interface {
Delete(key string)
Get(key string) string
Put(key, value string)
}

这只是个例子,不过你应该能体会到。对于底层的实现使用什么都没关系。不光是使用接口本身很简单,而且还解决了暴露内部数据结构带来的大量的问题。

但是得承认,有时只是为了同时对若干个变量加锁就使用接口会有些过分。理解你的程序,并且在你需要的时候使用这些改进。

总结

抽象永远都不是容易的事情。有时,最简单的就是你已经实现的方法。要知道,不要让你的代码看起来很聪明。Go 天生就是个简单的语言,在大多数情况下只会有一种方法来作某事。简单是力量的源泉,也是为什么在人的层面它表现的如此有弹性。

如果必要的话,使用这些基数。例如将[]Server转化为Servers是另一种抽象,仅在你有一个合理的理由的情况下这么做。不过有一些技术,如 iota 从 1 开始计数总是有用的。再次提醒,永远保持简单。

特别感谢 Cihangir Savas、Andrew Gerrand、Ben Johnson 和 Damian Gryski 提供的极具价值的反馈和建议。

问题由来

阿里云的VPC与其他基于OpenStack的IaaS不同,他的路由只是作为多网段的路由交换,不提供内到外的路由,因此在VPC内的主机除非绑定EIP,否则是无法连接公网的。通过工单询问客服,得到的结论是通过在路由器上添加一个路由,通过一个绑定EIP的主机做NAT上网,通过设置iptables的方式来实现。

VPC结构图

虚拟路由器配置

添加路由

为了让内网服务器借助EIP访问公网,所以设置所有目标地址0.0.0.0/0下一跳都转发到绑定了公网IP的ECS实例上。这里的下一跳ECS不支持搜索,需要提前记号名称:

绑定EIP的主机配置

iptables添加SNAT规则

iptables -t nat -A POSTROUTING -s 192.168.2.0/24 -o eth0 -j MASQUERADE

注意: ubuntu 14.04 系统保存iptables设置需要安装iptables-persistent包,然后通过 service iptables-persistent save 的方式保存配置,安装完iptables-persistent后该服务随系统一起启动并会把保存的配置应用

开启IP转发

echo "net.ipv4.ip_forward=1" >>  /etc/sysctl.conf && sysctl -p

数组定义

# 定义一个空数组
Result=()

# 定义并给数组赋值
arr=(a b c d e)

说明:

  • 默认数组中的元素是以空格分隔的,如果元素是包含空格的字符串,最好用双引号括起来

  • shell中的默认分隔符可以通过修改 $IFS变量来设置

数组读取/删除

# 初始化并赋值数组
arr=(a b c d e)

# 计算长度
echo ${#arr[@]} # 结果: 5
# 或
echo ${#arr[*]} # 结果: 5

# 取出所有数据
echo ${arr[@]} # 结果: a b c d e
# 或
echo ${arr[*]} # 结果: a b c d e

# 取出第二个元素的数据
echo ${arr[1]} # 结果: b

# 遍历数组
filelist=(`ls`)
for file in ${filelist[@]};do
echo $file
done

# 删除第二个元素
unset arr[1]
echo ${arr[*]} # 结果: a c d e

切片/元素替换

# 切片

# 初始化并赋值数组
arr=(a b c d e)

arr2=(${arr[@]:0:3})
echo ${arr2[@]} # 结果 a b c


# 替换
# 初始化并赋值数组
arr=(a b c d e)
echo ${arr[@]/a/aaa}
  • 切片(分片): 直接通过 ${数组名[@或*]:起始位置:长度} 切片原先数组,返回是字符串,中间用“空格”分开,因此如果加上”()”,将得到切片数组,上面例子:c 就是一个新数据。
  • 替换: ${数组名[@或*]/查找字符/替换字符} 该操作不会改变原先数组内容,如果需要修改,请重新定义变量并赋值。

实例

在一个多域名的web server环境中,通过分析访问日志,统计最近8小时有用户访问的域名(去重),并显示。

日志格式:X-Forworld-IP User-IP YYYY-MM-DD HH:mm:ss method “URL” HTTP响应码 服务器处理时间 返回大小 “Refer” “浏览器信息” “虚拟主机域名” 真实处理请求的主机

#!/bin/bash

AWKBin="/usr/bin/awk"
EGREPBin="/bin/egrep"
SORTBin="/usr/bin/sort"
SEDBin="/bin/sed"

# 虚拟主机
VSName=$1

# 时间段
TimePeriod=$2

# 过滤字符串
FilterKeys='''DNSPod-Monitor|JianKongBao'''
# 日志目录
LOGPath="/logs/nginx"

# 定义最终输出的数组变量
Result=()

while (( TimePeriod > 0 ))
do
LogTime=`date -d "- ${TimePeriod}hours" +%Y-%m-%d-%H`
LogFile=${VSName}_${LogTime}.log

Result=(${Result[@]} `$AWKBin '{if($5!~/HEAD/ && $5!~/\"\"/ ) print $0}' ${LOGPath}/${LogFile} | \
$EGREPBin -v $FilterKeys | $AWKBin '{print $NF}' | $AWKBin -F '@' '{print $1}' |\
$SORTBin -u`)

echo "第$TimePeriod 个日志:${Result[*]}"


((TimePeriod--))
done

echo "未去重:${Result[*]}"

Result=($(awk -vRS=' ' '!a[$1]++' <<< ${Result[@]}))

echo "去重以后:${Result[*]}"

由于之前的blog内容过于陈旧,很多文档现在来看会给广大朋友带来困扰,因此决定将之前的所有内容都抛弃,从今天开始重新写!

最近5年由于工作原因也没有顾得上更新blog,近期会有一系列文档更新,都是这五年来的一些工作经验。

由于大家共识的原因,本blog于2015-08-02正式迁移到GitHub