7个非常实用的 Shell 拿来就用脚本实例!,


前天,在群里看到有一位读者分享了几道 Shell 脚本实例题目,索性看到了,不如来写写巩固下基础知识,如下:

1、并发从数台机器中获取 hostname,并记录返回信息花费的时长,重定向到一个文件 hostname.txt 中,在全部完成后输出花费时长最短的那台机器的 CPU 信息。

  1. #!bin/bash    
  2. # 所以主机,以空格分隔  
  3. ALL_HOSTS=(IP 地址 IP 地址)  
  4. for host in ${ALL_HOSTS[*]}  
  5. do  
  6. {  
  7.     start_time=$(date +'%s')  
  8.     ssh $host "hostname" &>/dev/null  
  9.     sleep 2  
  10.     stop_time=$(date +'%s')  
  11.     time_consuming=$((stop_time-start_time))  
  12.     echo "$host: $time_consuming" >>hostname.txt  
  13. }&  
  14. done   
  15. wait  
  16. host=$(sort -n -k 2 hostname.txt | head -1 | awk -F':' '{print $1}')  
  17. ssh $host "top -b -n 1" 

2、统计 /proc 目类下 Linux 进程相关数量信息,输出总进程数,running 进程数,stoped 进程数,sleeing 进程数,zombie 进程数。

输出所有 zombie 的进程到 zombie.txt 杀死所有 zombie 进程。

  1. #!/bin/bash  
  2. ALL_PROCESS=$(ls /proc/ | egrep '[0-9]+')  
  3. running_count=0  
  4. stoped_count=0  
  5. sleeping_count=0  
  6. zombie_count=0  
  7. for pid in ${ALL_PROCESS[*]}  
  8. do  
  9.     test -f /proc/$pid/status && state=$(egrep "State" /proc/$pid/status | awk '{print $2}')  
  10.     case "$state" in  
  11.         R)  
  12.             running_count=$((running_count+1))  
  13.         ;;  
  14.         T)  
  15.             stoped_count=$((stoped_count+1))  
  16.         ;;  
  17.         S)  
  18.             sleeping_count=$((sleeping_count+1))  
  19.         ;;  
  20.         Z)  
  21.             zombie_count=$((zombie_count+1))  
  22.             echo "$pid" >>zombie.txt  
  23.             kill -9 "$pid"  
  24.         ;;  
  25.     esac  
  26. done  
  27. echo -e "total: $((running_count+stoped_count+sleeping_count+zombie_count))\nrunning: $running_count\nstoped: $stoped_count\nsleeping: $sleeping_count\nzombie: $zombie_count" 

3、把当前目录(包含子目录)下所有后缀为 ".sh" 的文件后缀变更为 ".shell",之后删除每个文件的第二行。

  1. #!/bin/bash  
  2. ALL_SH_FILE=$(find . -type f -name "*.sh")  
  3. for file in ${ALL_SH_FILE[*]}  
  4. do  
  5.     filename=$(echo $file | awk -F'.sh' '{print $1}')  
  6.     new_filename="${filename}.shell"  
  7.     mv "$file" "$new_filename"  
  8.     sed -i '2d' "$new_filename"  
  9. done 

4、判断目录 /tmp/jstack 是否存在,不存在则新建一个目录,若存在则删除目录下所有内容。

每隔 1 小时打印 inceptor server 的 jstack 信息,并以 jstack_${当前时间} 命名文件,每当目录下超过 10 个文件后,删除最旧的文件。

  1. #!/bin/bash  
  2. DIRPATH='/tmp/jstack'  
  3. CURRENT_TIME=$(date +'%F'-'%H:%M:%S')  
  4. if [ ! -d "$DIRPATH" ];then  
  5.     mkdir "$DIRPATH"  
  6. else  
  7.     rm -rf "$DIRPATH"/*  
  8. fi  
  9. cd "$DIRPATH"  
  10. while true  
  11. do  
  12.     sleep 3600 
  13.     # 这里需要将inceptor改后自己的java进程名称  
  14.     pid=$(ps -ef | grep 'inceptor' | grep -v grep | awk '{print $2}')  
  15.     jstack $pid >> "jstack_${CURRENT_TIME}"  
  16.     dir_count=$(ls | wc -l)  
  17.     if [ "$dir_count" -gt 10 ];then  
  18.        rm -f $(ls -tr | head -1)  
  19.     fi  
  20. done 

5、从 test.log 中截取当天的所有 gc 信息日志,并统计 gc 时间的平均值和时长最长的时间。

  1. #!/bin/bash  
  2. awk '{print $2}' hive-server2.log | tr -d ':' | awk '{sum+=$1} END {print "avg: ", sum/NR}' >>capture_hive_log.log  
  3. awk '{print $2}' hive-server2.log | tr -d ':' | awk '{max = 0} {if ($1+0 > max+0) max=$1} END {print "Max: ", max}'>>capture_hive_log.log 

6、查找 80 端口请求数最高的前 20 个 IP 地址,判断中间最小的请求数是否大于 500,如大于 500,则输出系统活动情况报告到 alert.txt,如果没有,则在 600s 后重试,直到有输出为止。

  1. #!/bin/bash  
  2. state="true"  
  3. while $state  
  4. do  
  5.     SMALL_REQUESTS=$(netstat -ant | awk -F'[ :]+' '/:22/{count[$4]++} END {for(ip in count) print count[ip]}' | sort -n | head -20 | head -1)  
  6.     if [ "$SMALL_REQUESTS" -gt 500 ];then  
  7.         sar -A > alert.txt  
  8.         state="false"  
  9.     else  
  10.         sleep 6  
  11.         continue  
  12.     fi  
  13. done     

7、将当前目录下大于 10K 的文件转移到 /tmp 目录,再按照文件大小顺序,从大到小输出文件名。

  1. #!/bin/bash  
  2. # 目标目录  
  3. DIRPATH='/tmp'  
  4. # 查看目录  
  5. FILEPATH='.'  
  6. find "$FILEPATH" -size +10k -type f | xargs -i mv {} "$DIRPATH"  
  7. ls -lS "$DIRPATH" | awk '{if(NR>1) print $NF}' 

以上,就是今天分享的 7 个实用的 Shell 脚本案例。

希望大家能通过这些案例能够学以致用,结合自身的实际场景进行运用,从而提高自己的工作效率。

相关内容