欢迎👏🏻!!

code-server配置支持maven java项目


1. 基本环境配置 安装 Java 和 Maven # Ubuntu/Debian sudo apt update sudo apt install openjdk-11-jdk maven # 验证安装 java -version mvn -version 设置环境变量(可选) # 编辑 ~/.

maven中的scope(作用域)

maven 

Maven 中的 scope(作用域) 用于控制依赖在项目生命周期不同阶段(编译、测试、运行等)的可见性和传递性。它会影响依赖是否被打包、是否参与编译、是否在测试中可用等行为。 Maven 的 scope 有以下几种取值: 1. compile(默

1panel在线安装

1panel 

一、执行以下安装脚本 sudo bash -c "$(curl -sSL https://resource.fit2cloud.com/1panel/package/v2/quick_start.sh)" 安装完成后可以看到访问地址、用户、密码登信息 二、修改安全入口(可选) 如果内网访问

nginx配置用户名密码访问

nginx 

在 Nginx 下,提供了 ngx_http_auth_basic_module 模块实现让用户只有输入正确的用户名密码才允许访问web内容。默认情况下,Nginx 已经安装了该模块。整体过程就是先用第三方工具设置用户名、密码(其中密码已经加过密),然后保存到文件中,接着在 Nginx 配置文件中根

flink hive catalog


一、什么是 Flink Hive Catalog? HiveCatalog 是 Flink 提供的一种 Catalog 实现,它允许 Flink 直接读取和写入 Hive Metastore 中定义的数据库、表、分区、函数等元数据。通过 HiveCatalog:

hive配置


hive 依赖paimon 1、在hive跟目录下创建目录:auxlib 2、将paimon-hive-connector-2.3-1.3.1.jar放入auxlib下 wget https://repo.maven.apache.org/maven2/org/apache/paimon/paimo

spark配置


spark下载: 版本:spark 3.3.2 官网: wget https://archive.apache.org/dist/spark/spark-3.3.2/spark-3.3.2-bin-hadoop2.tgz 华为镜像: wget https://mirrors.huaweicloud.

Hive Catalog


一、什么是 Hive Catalog? Hive Catalog 是 Apache Hive 提供的元数据管理服务,用于存储表结构(schema)、数据库、分区信息、表位置等元数据。它通常依赖于关系型数据库(如 MySQL、PostgreSQL)作为底层存储。

flink配置


flink 1.20.3下载 # 官网: wget https://dlcdn.apache.org/flink/flink-1.20.3/flink-1.20.3-bin-scala_2.12.tgz # 清华镜像: wget https://mirrors.tuna.tsinghua.edu.c

shell指定用户执行命令

shell 

sudo su yourname -c "export JAVA_HOME=/opt/apps/jdk1.8 && hive --service metastore" 或者 sudo su yourname -c "export JAVA_HOME=/opt/apps/jdk1.8; hive -