欢迎👏🏻!!

spark配置


spark下载: 版本:spark 3.3.2 官网: wget https://archive.apache.org/dist/spark/spark-3.3.2/spark-3.3.2-bin-hadoop2.tgz 华为镜像: wget https://mirrors.huaweicloud.

Hive Catalog


一、什么是 Hive Catalog? Hive Catalog 是 Apache Hive 提供的元数据管理服务,用于存储表结构(schema)、数据库、分区信息、表位置等元数据。它通常依赖于关系型数据库(如 MySQL、PostgreSQL)作为底层存储。

flink配置


flink 1.20.3下载 # 官网: wget https://dlcdn.apache.org/flink/flink-1.20.3/flink-1.20.3-bin-scala_2.12.tgz # 清华镜像: wget https://mirrors.tuna.tsinghua.edu.c

shell指定用户执行命令

shell 

sudo su yourname -c "export JAVA_HOME=/opt/apps/jdk1.8 && hive --service metastore" 或者 sudo su yourname -c "export JAVA_HOME=/opt/apps/jdk1.8; hive -

修改maven镜像源

maven 

找到 Maven 安装目录下的 /etc/maven/settings.xml 或用户目录下的 ~/.m2/settings.xml: 在setting.xml中添加maven镜像: <mirrors> <!-- 阿里云镜像 --> <mirror> <id>aliy

code-server识别maven scala项目

vscode 

在 code-server(即 VS Code 的浏览器版本)中识别和开发 Maven + Scala 项目,需注意环境配置和插件兼容性。以下是详细指南: ✅ 前提条件 确保你的 code-ser

国内主流邮箱 SMTP

邮箱 

一、国内主流邮箱 SMTP 核心配置汇总表 这是最核心的配置参数,务必准确填写,表格中优先推荐SSL 加密端口(稳定性更高、不易被屏蔽):

163邮箱smtp配置

邮箱 

一、163 邮箱 SMTP 核心配置参数 这是配置的基础信息,务必准确填写:

kafka基本操作

kafka 

创建topic: /home/phoenix/apps/kafka_2.13-3.9.1/bin/kafka-topics.sh \ --create \ --bootstrap-server 192.168.1.211:9092 \ --topic mysql-bin-tab1 \

debezium读取mysql binlog


先决条件确认 在执行以下步骤前,请确保已满足以下条件: ✅ MySQL已开启Binlog(ROW模式) ✅ Kafka集群已运行 ✅ Kafka Connect服务已启动(端口8083可用) ✅ Debezium MySQL连接器插件已安装到Kafka Connect 🚀 详细实施步骤