首页 星云 工具 资源 星选 资讯 热门工具
:

PDF转图片 完全免费 小红书视频下载 无水印 抖音视频下载 无水印 数字星空

elasticdump数据迁移与内外网安装

编程知识
2024年07月25日 08:56

elasticdump数据迁移与内外网安装

一、安装node

首先获取安装包

wget https://nodejs.org/dist/v16.14.0/node-v16.14.0-linux-x64.tar.xz
tar axf node-v16.14.0-linux-x64.tar.xz -C /usr/local/
mv /usr/local/node-v16.14.0-linux-x64  /usr/local/node

然后配置环境变量

vim /etc/profile
export NODE_HOME=/usr/local/node
export PATH=$NODE_HOME/bin:$PATH

接下来刷新环境变量,然后测试一下安装是否完成

 source /etc/profile
 node -v
 npm -v

如果是mac 的话可以使用brew 安装

brew install node@16

二、在线安装elasticdump

执行下面的命令安装(如果下载慢的话,使用国产镜像源)

npm config set registry=https://registry.npmmirror.com/
npm install elasticdump -g

使用下面的命令查看安装目录

npm root -g

我的位置在这里/opt/homebrew/lib/node_modules

三、离装elasticdump

这里的原理是将node安装包和elasticdump安装报复制到需要离线安装的服务器。

获取node 的离线安装包进行安装即可,参考第一步 获取elasticdump的安装包安装,所以我们首选需要一个打包工具 npm install -g npm-pack-all

然后我们切换到上面elasticdump的安装路,打包elasticdump,会在当前目录生成elasticdump-6.103.0.tgz 这样一个压缩包,这就是我们离线安装需要的包

cd /opt/homebrew/lib/node_modules/elasticdump/
npm-pack-all

到这里我们看到离线包已经生成好了,接下来我们复制到我们之前已经安装好node 的机器上,执行下面的命令

npm install elasticdump-6.103.0.tgz

后面为了方便使用,我们可以配置一下elasticdump的环境变量

vim ~/.bashrc
# 追加以下内容
#node 
export DUMP_HOME=/opt/homebrew/lib/node_modules/elasticdump/
export PATH=$DUMP_HOME/bin:$PATH
# 刷新
source ~/.bashrc

四、使用elasticdump

这里的使用主要分为两种,一种是数据备份,一种是数据迁移

备份主要指的是生成备份的数据文件,在需要的时候进行还原 数据迁移是指将原来索引里的数据迁移到新的索引 其实数据备份也能达到数据迁移的目的,但是在两个环境的网络不通的时候我们只能使用数据备份

我们安装成功后,在elasticdump的bin目录下其实有两个工具,一个是elasticdump 另外一个是multielasticdump

数据迁移 迁移索引

elasticdump \
  --input=http://192.168.1.140:9200/source_index \
  --output=http://192.168.1.141:9200/target_index \
  --type=mapping

迁移数据

elasticdump \
  --input=http://192.168.1.140:9200/source_index \
  --output=http://192.168.1.141:9200/target_index \
  --type=data \
  --limit=2000

这个命令会将源 Elasticsearch 实例中的 “my_index” 索引的所有数据导出,并保存到 “/path/to/output.json” 的 JSON 文件中。

--input:指定输入的 Elasticsearch 实例和索引。可以是一个 URL,也可以是本地 Elasticsearch 实例的路径。 --output:指定输出的文件路径,数据将保存为一个 JSON 文件。 --type:指定要导出的数据类型,通常为 “data” 表示文档数据。 你还可以使用其他选项来进一步控制导出过程,如 --query, --size, --limit, --filter 等,具体取决于你的需求。可以通过运行 elasticdump --help 命令来

数据备份 导出索引和数据

索引

elasticdump \
 --input=http://192.168.1.140:9200/source_index \
 --output=/data/source_index_mapping.json \
 --type=mapping

数据

elasticdump \
 --input=http://192.168.1.140:9200/source_index \
 --output=/data/source_index.json \
 --type=data \
 --limit=2000

导入索引和数据

导入索引

elasticdump \
 --input=/data/source_index_mapping.json \
 --output=http://192.168.1.141:9200/source_index \
 --type=mapping

导入数据

elasticdump \
 --input=/data/source_index.json \
 --output=http://192.168.1.141:9200/source_index \
 --type=data \
 --limit=2000

#es如果有密码,执行以下语句

elasticdump \ --input=http://username:passowrd@production.es.com:9200/my_index \ --output=http://username:password@staging.es.com:9200/my_index \ --type=data

elasticdump 所有索引

elasticdump --input=./indices.json --output=http://localhost:9201 --all=true 

elasticdump 所有数据

elasticdump --input=http://localhost:9200/ --output=all_data.json --all=true
这里的参数解释如下:
--input:指定 Elasticsearch 实例的地址。
--output:指定导出的文件名。
--all=true:指示 elasticdump 导出所有的数据。

其他用法 还有其他使用的细节,例如压缩,指定query 什么的,我们可以参考下面的例子

#Copy an index from production to staging with analyzer and mapping:
​
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=analyzer
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data
# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data
# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz
# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody="{\"query\":{\"term\":{\"username\": \"admin\"}}}"
#Specify searchBody from a file
​
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody=@/data/searchbody.json  

 

# Copy a single shard data:
​
elasticdump \
  --input=http://es.com:9200/api \
  --output=http://es.com:9200/api2 \
  --input-params="{\"preference\":\"_shards:0\"}"

 

# Backup aliases to a file
​
elasticdump \
  --input=http://es.com:9200/index-name/alias-filter \
  --output=alias.json \
  --type=alias

 

# Import aliases into ES
​
elasticdump \
  --input=./alias.json \
  --output=http://es.com:9200 \
  --type=alias

 

# Backup templates to a file
​
elasticdump \
  --input=http://es.com:9200/template-filter \
  --output=templates.json \
  --type=template

 

# Import templates into ES
​
elasticdump \
  --input=./templates.json \
  --output=http://es.com:9200 \
  --type=template

 

# Split files into multiple parts
​
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --fileSize=10mb

 

# Import data from S3 into ES (using s3urls)
​
elasticdump \
  --s3AccessKeyId "${access_key_id}" \
  --s3SecretAccessKey "${access_key_secret}" \
  --input "s3://${bucket_name}/${file_name}.json" \
  --output=http://production.es.com:9200/my_index

 

# Export ES data to S3 (using s3urls)
​
elasticdump \
  --s3AccessKeyId "${access_key_id}" \
  --s3SecretAccessKey "${access_key_secret}" \
  --input=http://production.es.com:9200/my_index \
  --output "s3://${bucket_name}/${file_name}.json"

 

# Import data from MINIO (s3 compatible) into ES (using s3urls)
​
elasticdump \
  --s3AccessKeyId "${access_key_id}" \
  --s3SecretAccessKey "${access_key_secret}" \
  --input "s3://${bucket_name}/${file_name}.json" \
  --output=http://production.es.com:9200/my_index
  --s3ForcePathStyle true
  --s3Endpoint https://production.minio.co

 

# Export ES data to MINIO (s3 compatible) (using s3urls)
​
elasticdump \
  --s3AccessKeyId "${access_key_id}" \
  --s3SecretAccessKey "${access_key_secret}" \
  --input=http://production.es.com:9200/my_index \
  --output "s3://${bucket_name}/${file_name}.json"
  --s3ForcePathStyle true
  --s3Endpoint https://production.minio.co

 

# Import data from CSV file into ES (using csvurls)
​
elasticdump \

 

  # csv:// prefix must be included to allow parsing of csv files
​
  # --input "csv://${file_path}.csv" \
​
  --input "csv:///data/cars.csv"
  --output=http://production.es.com:9200/my_index \
  --csvSkipRows 1    # used to skip parsed rows (this does not include the headers row)
  --csvDelimiter ";" # default csvDelimiter is ','

常用参数

--direction  dump/load 导出/导入
--ignoreType  被忽略的类型,data,mapping,analyzer,alias,settings,template
--includeType  包含的类型,data,mapping,analyzer,alias,settings,template
--suffix  加前缀,es6-${index}
--prefix  加后缀,${index}-backup-2018-03-13

总结

elasticdump是ElasticSearch提供的一个工具,我们主要可以用来完成

数据备份 数据迁移 这一节我们主要介绍了elasticdump的安装和使用,还有就是,Elasticdump 是一个第三方工具,不是官方的 Elasticsearch 产品。虽然它对某些用例很有帮助,但在使用之前,确保与你的 Elasticsearch 版本兼容,并查阅工具的文档以了解任何特定的注意事项或限制。

总体来说,elasticdump是一个非常实用的数据迁移和备份工具。它可以帮助我们轻松地在不同Elasticsearch集群之间进行数据迁移,实现集群之间的无缝数据同步。

使用dump迁移索引 拷贝索引

elasticdump 
    --input=http://production.es.com:9200/my_index 
    --output=http://staging.es.com:9200/my_index 
    --type=mapping

拷贝数据

elasticdump 
    --input=http://production.es.com:9200/my_index 
    --output=http://staging.es.com:9200/my_index 
    --type=data

拷贝所有索引

elasticdump  
    --input=http://production.es.com:9200/ 
    --output=http://staging.es.com:9200/ 
    --all=true  

7、迁移实战 为了方便操作写了一个迁移脚本,仅供参考。

#!/bin/bash
echo -n "源ES地址: "
read old
echo -n "目标ES地址: "
read new
echo -n "源索引名: "
read old_index
echo -n "目标索引名: "
read new_index
cd /root/node_modules/elasticdump/bin/
 ./elasticdump --input=$old/$old_index  --output=$new/$new_index  --type=mapping &>> /root/dump.log
 ./elasticdump --input=$old/$old_index  --output=$new/$new_index  --type=data &>> /root/dump.log

建议:有内网的话尽量使用内网IP

八、详细参数

# Copy an index from production to staging with analyzer and mapping:
​
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=analyzer
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

 

# Backup index data to a file:
​
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

 

# Backup and index to a gzip using stdout:
​
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

 

# Backup the results of a query to a file
​
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody='{"query":{"term":{"username": "admin"}}}'

 

# Copy a single shard data:
​
elasticdump \
  --input=http://es.com:9200/api \
  --output=http://es.com:9200/api2 \
  --params='{"preference" : "_shards:0"}'

 

# Backup aliases to a file
​
elasticdump \
  --input=http://es.com:9200/index-name/alias-filter \
  --output=alias.json \
  --type=alias

 

# Import aliases into ES
​
elasticdump \
  --input=./alias.json \
  --output=http://es.com:9200 \
  --type=alias

 

# Backup templates to a file
​
elasticdump \
  --input=http://es.com:9200/template-filter \
  --output=templates.json \
  --type=template

 

# Import templates into ES
​
elasticdump \
  --input=./templates.json \
  --output=http://es.com:9200 \
  --type=template

 

# Split files into multiple parts
​
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --fileSize=10mb

 

# Import data from S3 into ES (using s3urls)
​
elasticdump \
  --s3AccessKeyId "${access_key_id}" \
  --s3SecretAccessKey "${access_key_secret}" \
  --input "s3://${bucket_name}/${file_name}.json" \
  --output=http://production.es.com:9200/my_index

 

# Export ES data to S3 (using s3urls)
​
elasticdump \
  --s3AccessKeyId "${access_key_id}" \
  --s3SecretAccessKey "${access_key_secret}" \
  --input=http://production.es.com:9200/my_index \
  --output "s3://${bucket_name}/${file_name}.json"

参考文档: https://blog.csdn.net/u010955999/article/details/80814656 https://www.cnblogs.com/mojita/p/12011800.html

From:https://www.cnblogs.com/sl08/p/18322386
本文地址: http://shuzixingkong.net/article/402
0评论
提交 加载更多评论
其他文章 PHP转Go系列 | 推荐一个强大的Go语言工具函数库
从 PHP 转到 Go 的朋友,常常会因为没有便捷的工具函数而感到苦恼。PHP 写的多了就会形成路径依赖,在写 Go 的时候时不时就会想到 PHP 强大的数组函数。
PHP转Go系列 | 推荐一个强大的Go语言工具函数库 PHP转Go系列 | 推荐一个强大的Go语言工具函数库
机器学习:详解什么是端到端的深度学习?(What is end-to-end deep learning?)
什么是端到端的深度学习? 深度学习中最令人振奋的最新动态之一就是端到端深度学习的兴起,那么端到端学习到底是什么呢?简而言之,以前有一些数据处理系统或者学习系统,它们需要多个阶段的处理。那么端到端深度学习就是忽略所有这些不同的阶段,用单个神经网络代替它。 来看一些例子,以语音识别为例,目标是输入\(x
机器学习:详解什么是端到端的深度学习?(What is end-to-end deep learning?) 机器学习:详解什么是端到端的深度学习?(What is end-to-end deep learning?) 机器学习:详解什么是端到端的深度学习?(What is end-to-end deep learning?)
深度解读GaussDB(for MySQL)与MySQL的COUNT查询并行优化策略
GaussDB(for MySQL)通过自研并行查询(PQ)和计算下推(NDP)特性,解决了大表COUNT慢的问题,典型场景下,相比MySQL并行扫描主键性能可提升超过80倍。
深度解读GaussDB(for MySQL)与MySQL的COUNT查询并行优化策略 深度解读GaussDB(for MySQL)与MySQL的COUNT查询并行优化策略 深度解读GaussDB(for MySQL)与MySQL的COUNT查询并行优化策略
涨见识了!脱离vue项目竟然也可以使用响应式API
前言 vue3的响应式API大家应该都特别熟悉,比如ref、watch、watchEffect等。平时大家都是在vue-cli或者vite创建的vue项目里面使用的这些响应式API,今天欧阳给大家带来一些不一样的。脱离vue项目,在node.js项目中使用vue的响应式API。 关注公众号:【前端欧
涨见识了!脱离vue项目竟然也可以使用响应式API 涨见识了!脱离vue项目竟然也可以使用响应式API 涨见识了!脱离vue项目竟然也可以使用响应式API
学了十几种编程语言后,我终于悟了!
我为什么要学这么多编程语言?是怎么学习的?学了这么多语言对我有哪些好处和坏处?现在我们到底应不应该学多门语言呢?
学了十几种编程语言后,我终于悟了! 学了十几种编程语言后,我终于悟了! 学了十几种编程语言后,我终于悟了!
.NET 轻量级 命令行工具 CSharpRepl
前言 当我们需要快速测试代码片段时,常见的做法是启动Visual Studio或使用在线代码编辑器。然而,Visual Studio的启动可能较为缓慢且占用较多系统资源,而在线编辑器则可能遇到语法支持局限或网络延迟问题。 为解决这个问题,给大家推荐一款轻量级的本地C#执行工具——CSharpRepl
.NET 轻量级 命令行工具 CSharpRepl .NET 轻量级 命令行工具 CSharpRepl .NET 轻量级 命令行工具 CSharpRepl
使用 @Audited 增强Spring Boot 应用程序的数据审计能力
介绍 在Spring Boot开发的动态世界中,确保数据完整性和跟踪变化是至关重要的。实现这一目标的一个强大工具是@Audited注解。本文深入探讨了该注解的复杂性、其目的、实现步骤以及如何利用其功能进行有效的实体审计。 理解@Audited Spring Boot中的@Audited注解用于审计实
Django+Bootstrip 卡片模板设计 经典精品
下面是一个完整的卡片模板代码,包含所有元素,并使用Django的模板语言来处理状态字段的条件渲染。同时还包括示例视图和URL配置。 完整的卡片模板 <div class="card"> <!-- 卡片图片 --> <img src="{{
Django+Bootstrip 卡片模板设计 经典精品