0%

containerd

sudo systemctl enable --now containerd

nerdctl

containerd 自带的 ctr 命令用不习惯,可以安装 nerdctl ,nerdctl 命令同 docker 风格一致的 containerd 客户端工具.

# 安装
wget https://github.com/containerd/nerdctl/releases/download/v1.7.6/nerdctl-1.7.6-linux-amd64.tar.gz
tar -zxvf nerdctl-1.7.6-linux-amd64.tar.gz
cp nerdctl /usr/local/bin/
# 测试,如果没有安装 buildkit 会提示没有 buildctl 命令
nerdctl version
# 使用
nerdctl ps
nerdctl images

buildkit

nerdctl build:从 Dockerfile 构建镜像,需要安装 buildkit

wget https://github.com/moby/buildkit/releases/download/v0.9.0/buildkit-v0.9.0.linux-amd64.tar.gz
tar -zxvf buildkit-v0.9.0.linux-amd64.tar.gz
# 将解压出来的 bin 文件全部复制
cp bin/* /usr/local/bin/

使用 Systemd 来管理 buildkitd, cat /etc/systemd/system/buildkit.service

[Unit]
Description=BuildKit
Documentation=https://github.com/moby/buildkit

[Service]
ExecStart=/usr/local/bin/buildkitd --oci-worker=false --containerd-worker=true

[Install]
WantedBy=multi-user.target

启动/停止

systemctl daemon-reload
systemctl enable --now buildkit
systemctl status buildkit

kafka服务端

kafka默认的消息大小限制为1MB,如果有需要可以修改大一点。

  • server.properties
# 100M
message.max.bytes=104857600
  • 修改单个topic配置
# 修改配置
bin/kafka-configs.sh --bootstrap-server localhost:9092 --entity-type topics --entity-name my-topic
  --alter --add-config max.message.bytes=128000

# 检查配置
bin/kafka-configs.sh --bootstrap-server localhost:9092 --entity-type topics --entity-name my-topic --describe

# 删除配置
bin/kafka-configs.sh --bootstrap-server localhost:9092  --entity-type topics --entity-name my-topic
  --alter --delete-config max.message.bytes

客户端

  • go: sarama
kafkaConfig := sarama.NewConfig()
kafkaConfig.Producer.MaxMessageBytes = 104857600 //最大消息大小限制: 100M

kafka-connect

kafka-connectkafka 自带的一个用于数据集成工具,包含两类 connector: source connectorsink connector,顾名思义一个是作为数据源往 kafka 写数据,一个是从 kafka 读数据。

# 数据流
jdbc/file/mqtt/http/...  ->  source connector  ->  kafka cluster  -> sink connector  ->  jdbc/file/mqtt/http/es/...

kafka-connect 有两个模式:单机 standalone 和分布式 distributed,本文以单机模式从一个文件经过 connector 同步到另一个文件为例进行测试。

测试

进入到 kafka 安装的根目录:

  1. 修改 standalone 配置:config/connect-standalone.properties
# kakfa 节点
bootstrap.servers=172.16.20.152:9092
# file connector 路径,官方自带的 jar 包
plugin.path=/root/kafka_2.13-3.7.1/libs/connect-file-3.7.1.jar
  1. Source file connector 配置:config/connect-file-source.properties
# connector 名称
name=local-file-source
connector.class=FileStreamSource
tasks.max=1
# kafka 根目录下 test.txt 文件
file=test.txt
topic=connect-test
  1. Sink file connector 配置:config/connect-file-sink.properties
name=local-file-sink
connector.class=FileStreamSink
tasks.max=1
# 同步到目标文件名
file=test.sink.txt
topics=connect-test
  1. 启动
bin/connect-standalone.sh config/connect-standalone.properties  config/connect-file-source.properties config/connect-file-sink.properties
  1. 测试
# 往 test.txt 文件里追加写数据
echo "data1" >> test.txt
echo "data2" >> test.txt
echo "data3" >> test.txt

# 可以看到另一个文件内容也跟着改变
tail -f test.sink.txt

其他

部署

准备三台服务器,每台机器都需要安装 java 环境 、 zookeeper 、kafka。

  1. java 环境

    Your local environment must have Java 8+ installed.

yum install java-1.8.0-openjdk-devel -y 
java -version
  1. 下载 kafka
# https://kafka.apache.org/downloads, 推荐下载 Scala 2.13 版本
wget https://downloads.apache.org/kafka/3.7.1/kafka_2.13-3.7.1.tgz

tar -xzf kafka_2.13-3.7.1.tgz
cd kafka_2.13-3.7.1
  1. 配置 config/zookeeper.properties
dataDir=/home/zookeeper/data
dataLogDir=/home/zookeeper/log
clientPort=2181
tickTime=2000
initLimit=10
syncLimit=5
# 3台服务器IP
server.1=172.16.20.152:2888:3888
server.2=172.16.20.153:2888:3888
server.3=172.16.20.154:2888:3888

dataDir 目录下创建 myid 文件,3 台机器分别写 1, 2, 3.

[root@data9 kafka_2.13-3.7.1]# cat /home/zookeeper/data/myid 
1
  1. 启动zookeeper
# 前台启动
bin/zookeeper-server-start.sh config/zookeeper.properties
# 后台启动
bin/zookeeper-server-start.sh -daemon config/zookeeper.properties
  1. 配置 config/server.properties
# 3 台机器分别 0 1 2
broker.id=0
listeners=PLAINTEXT://:9092
# 填本机IP
advertised.listeners=PLAINTEXT://172.16.20.154:9092
# 修改日志目录
log.dirs=/home/kafka/kafka-logs
# 修改存储时间,默认7天
log.retention.hours=24
# 修改  zookeeper 地址
zookeeper.connect=172.16.20.152:2181,172.16.20.153:2181,172.16.20.154:2181
  1. 启动kafka
# 前台启动
bin/kafka-server-start.sh config/server.properties
# 后台启动
bin/kafka-server-start.sh -daemon config/server.properties
  1. 测试kafka
# 连任意节点创建一个主题:quickstart-events
bin/kafka-topics.sh --create --topic quickstart-events --bootstrap-server 172.16.20.152:9092
# 查看主题状态
bin/kafka-topics.sh --describe --topic quickstart-events --bootstrap-server 172.16.20.152:9092
# 消费主题消息
bin/kafka-console-consumer.sh --topic quickstart-events --from-beginning --bootstrap-server 172.16.20.152:9092

# 从任意节点生产消息
bin/kafka-console-producer.sh --topic quickstart-events --bootstrap-server 172.16.20.154:9092
  1. 修改kafka内存使用上限
vim bin/kafka-server-start.sh
# 修改 -Xmx(最大堆内存)和 -Xms(初始堆内存)
export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"

# 重启
bin/kafka-server-stop.sh
bin/kafka-server-start.sh -daemon config/server.properties

概述

因为 postgres 16 只能通过源码的方式在 centos 上安装,所以 timescaledb 也只能通过源码的方式安装.

安装

  • 官方文档
    前提条件:
  • 已经安装 postgresql
  • CMake 版本大于 3.11 (Cmake安装参考前文)
  • gcc
# 下载源码
git clone https://github.com/timescale/timescaledb
cd timescaledb
git checkout 2.15.3

# 配置,如果不使用openssl,请添加参数: ./bootstrap -DUSE_OPENSSL=0
./bootstrap

cd build && make

make install

安装完成后配置

  • 如果是单机 postgrsql
sudo timescaledb-tune --pg-config=/usr/local/pgsql/bin/pg_config -conf-path=/home/pgsql/data/postgresql.conf

systemctl restart postgresql-16
  • 如果是patroni,直接修改postgresql.conf会被patroni重置。需要修改patroni.yml
# 将 timescaledb-tune 修改的配置文件通过 patroni 写到 postgres
postgresql:
  parameters:
    shared_preload_libraries: 'timescaledb'
    shared_buffers: 1955MB
    effective_cache_size: 5865MB
    maintenance_work_mem: 1001095kB
    work_mem: 5005kB
    timescaledb.max_background_workers: 16
    max_parallel_workers_per_gather: 2
    max_parallel_workers: 4
    wal_buffers: 16MB
    min_wal_size: 512MB
    max_wal_size: 1GB
    default_statistics_target: 100
    random_page_cost: 1.1
    checkpoint_completion_target: 0.9
    autovacuum_max_workers: 10
    autovacuum_naptime: 10
    effective_io_concurrency: 256

cmake安装

# 到官网 https://cmake.org/download/ 下载最新的包
wget https://github.com/Kitware/CMake/releases/download/v3.30.0/cmake-3.30.0-linux-x86_64.tar.gz

# 解压
tar -zxvf cmake-3.30.0-linux-x86_64.tar.gz

# 改个名字并移动到/usr/local目录下
mv cmake-3.30.0-linux-x86_64 cmake
mv cmake /usr/local/

# 添加bin到环境变量
export PATH=/usr/local/cmake/bin:$PATH

# 测试
cmake --version